Cours particuliers de maths à Lille

Cours particuliers de maths à Lille

Présent sur Lille , La Madeleine , Marcq en Baroeul , Mons en Baroeul , Wasquehal , Croix , Roubaix , Lambersart , Villeneuve d'Ascq , Lomme , Loos etc..

mpsi

Publié le par François Montagne
Publié dans : #Mathématiques, #Post-Bac ( Prépa), #MPSI
#Expérience #Issues #Univers #Source: Yvan Monka

#Expérience #Issues #Univers #Source: Yvan Monka

POST BAC - Espace probabilisés finis et variables aléatoires - Cours
POST BAC - Espace probabilisés finis et variables aléatoires - Cours
#Evènement #Evènements élémentaires

#Evènement #Evènements élémentaires

#Evènement élémentaire

#Evènement élémentaire

#Evènement certain

#Evènement certain

#Equiprobabilité

#Equiprobabilité

POST BAC - Espace probabilisés finis et variables aléatoires - Cours
POST BAC - Espace probabilisés finis et variables aléatoires - Cours
POST BAC - Espace probabilisés finis et variables aléatoires - Cours
POST BAC - Espace probabilisés finis et variables aléatoires - Cours
#Evènements incompatibles

#Evènements incompatibles

POST BAC - Espace probabilisés finis et variables aléatoires - Cours
POST BAC - Espace probabilisés finis et variables aléatoires - Cours
POST BAC - Espace probabilisés finis et variables aléatoires - Cours
POST BAC - Espace probabilisés finis et variables aléatoires - Cours
#Espérance #Variance #Ecart-type #L'écart-type, la variance mesurent la dispersion des Xi autour des X̅ #Si la variance est nulle, alors la variable aléatoire est constante

#Espérance #Variance #Ecart-type #L'écart-type, la variance mesurent la dispersion des Xi autour des X̅ #Si la variance est nulle, alors la variable aléatoire est constante

#Calculatrice #Trouver moyenne, écart type et variance

#Espérance linéaire #Espérance positive #Espérance croissante

#Espérance linéaire #Espérance positive #Espérance croissante

#Formule de Köning-Huygens

#Formule de Köning-Huygens

POST BAC - Espace probabilisés finis et variables aléatoires - Cours
#Inégalité de Bienaymé-Tchebychev #Inégalité de Markov #∀t>0

#Inégalité de Bienaymé-Tchebychev #Inégalité de Markov #∀t>0

#Inégalité de Markov #∀a>0

#Inégalité de Markov #∀a>0

#Inégalité de Markov #Démonstration #Cas discret

#Inégalité de Markov #Démonstration #Cas discret

#Inégalité de Markov #Démonstration #Cas continu

#Inégalité de Markov #Démonstration #Cas continu

#Inégalité de Bienaymé-Tchebychev (PS: il est possible que le majorant soit ⩾1)  #INTERPRETATION DANS UN EXERCICE : la probabilité que l'écart entre X et E(X) soit supérieure à α est majorée par M (soit σ²/ α²) #On passe facilement de l'inégalité de Markov vers celle de Bienaymé-Tchebychev en utilisant |X-E(X)|⩾a,puis en faisant Y=|X-E(X)|²⩾a² et sachant V(X)=E(X-E(X))²

#Inégalité de Bienaymé-Tchebychev (PS: il est possible que le majorant soit ⩾1) #INTERPRETATION DANS UN EXERCICE : la probabilité que l'écart entre X et E(X) soit supérieure à α est majorée par M (soit σ²/ α²) #On passe facilement de l'inégalité de Markov vers celle de Bienaymé-Tchebychev en utilisant |X-E(X)|⩾a,puis en faisant Y=|X-E(X)|²⩾a² et sachant V(X)=E(X-E(X))²

#Inégalité de Bienaymé-Tchebychev #Inégalité de Markov #Il suffit de réaliser des simples schémas pour se rendre compte de la limpidité des propriétés

#Inégalité de Bienaymé-Tchebychev #Inégalité de Markov #Il suffit de réaliser des simples schémas pour se rendre compte de la limpidité des propriétés

#k-liste #Arrangement #Permutation #Combinaison

#k-liste #Arrangement #Permutation #Combinaison

POST BAC - Espace probabilisés finis et variables aléatoires - Cours
POST BAC - Espace probabilisés finis et variables aléatoires - Cours
#Univers image #X la variable aléatoire qui associe le numéro obtenu

#Univers image #X la variable aléatoire qui associe le numéro obtenu

#Système complet d'évènements

#Système complet d'évènements

#Variable aléatoire

#Variable aléatoire

#Système complet d’événements associé à une variable aléatoire

#Système complet d’événements associé à une variable aléatoire

#Probabilité sur un univers fini

#Probabilité sur un univers fini

#Probabilité uniforme #Evénements équiprobables

#Probabilité uniforme #Evénements équiprobables

#Complémentaire et différence #Croissance #Formule du crible

#Complémentaire et différence #Croissance #Formule du crible

#Distribution de probabilités #Détermination d’une probabilité sur les événements élémentaires

#Distribution de probabilités #Détermination d’une probabilité sur les événements élémentaires

#Loi d'une variable aléatoire

#Loi d'une variable aléatoire

#Loi uniforme #Loi de Bernoulli

#Loi uniforme #Loi de Bernoulli

#Définition implicite d’un espace probabilisé par la donnée d’une distribution de probabilités

#Définition implicite d’un espace probabilisé par la donnée d’une distribution de probabilités

#Probabilités conditionnelles

#Probabilités conditionnelles

#Probabilités conditionnelles

#Probabilités conditionnelles

#Probabilités conditionnelles #Indépendance

#Probabilités conditionnelles #Indépendance

#Probabilités conditionnelles

#Probabilités conditionnelles

#Probabilités conditionnelles #Arbre

#Probabilités conditionnelles #Arbre

#Probabilités conditionnelles #Notations

#Probabilités conditionnelles #Notations

#Formule des probabilités totales

#Formule des probabilités totales

#Formule de Bayes

#Formule de Bayes

#Formule de Bayes

#Formule de Bayes

#Formule des probabilités composées #Lois conditionnelles d’une variable aléatoire

#Formule des probabilités composées #Lois conditionnelles d’une variable aléatoire

#Evénements indépendants #Par exemple: le tirage suivant n'est pas influencé par le précédent (il n'y a pas de "sachant que") #Deux évènements sont indépendants si la réalisation ou non de l'un des évènements n'a pas d'incidence sur la probabilité de réalisation de l'autre évènement

#Evénements indépendants #Par exemple: le tirage suivant n'est pas influencé par le précédent (il n'y a pas de "sachant que") #Deux évènements sont indépendants si la réalisation ou non de l'un des évènements n'a pas d'incidence sur la probabilité de réalisation de l'autre évènement

#Indépendance et complémentaires #Loi binomiale

#Indépendance et complémentaires #Loi binomiale

#Variables aléatoires indépendantes

#Variables aléatoires indépendantes

#Existence d’une famille finie de variables aléatoires indépendantes de lois prescrites #Lemme des coalitions

#Existence d’une famille finie de variables aléatoires indépendantes de lois prescrites #Lemme des coalitions

#Loi conjointe et lois marginales d’une famille de variables aléatoires

#Loi conjointe et lois marginales d’une famille de variables aléatoires

#Loi uniforme et produit cartésien

#Loi uniforme et produit cartésien

#Calcul des lois marginales à partir de la loi conjointe

#Calcul des lois marginales à partir de la loi conjointe

#Sommes de variables aléatoires indépendantes de lois binomiales

#Sommes de variables aléatoires indépendantes de lois binomiales

#Loi binomiale #Un schéma de Bernoulli est une répétition de n épreuves identiques de Bernoulli de même probabilité de succès p et indépendantes les unes des autres #Pour P(X=k), sur TI82/83(dans 2nde+distrib), taper binomFdp(n,p,k) #Pour P(≤k) sur TI82/83(dans 2nde+distrib), taper binomFrép(n,p,k) #Si je fais tendre k vers+∞, la loi binomiale tendra vers une loi de Poisson #( ) retranscrit le nombre de combinaisons (par exemple, si j'ai n branches similaires (peu importe le bon ordre) dans mon arbre de probabilité, la combinaison sera égale à n)

#Loi binomiale #Un schéma de Bernoulli est une répétition de n épreuves identiques de Bernoulli de même probabilité de succès p et indépendantes les unes des autres #Pour P(X=k), sur TI82/83(dans 2nde+distrib), taper binomFdp(n,p,k) #Pour P(≤k) sur TI82/83(dans 2nde+distrib), taper binomFrép(n,p,k) #Si je fais tendre k vers+∞, la loi binomiale tendra vers une loi de Poisson #( ) retranscrit le nombre de combinaisons (par exemple, si j'ai n branches similaires (peu importe le bon ordre) dans mon arbre de probabilité, la combinaison sera égale à n)

#Combinaison

#Combinaison

#Toujours bon à savoir

#Toujours bon à savoir

#Combinaison #Loi binomiale

#Combinaison #Loi binomiale

#Loi binomiale #Loi de Poisson #Loi normale #Calculatrice #Pour TI82: pdf devient Fdp, et cdf devient Frép #Si on cherche P(X⩾k),cela équivaut à 1-P(x<k) et à faire simplement 1-P(x≤k-1)

#Loi binomiale #Loi de Poisson #Loi normale #Calculatrice #Pour TI82: pdf devient Fdp, et cdf devient Frép #Si on cherche P(X⩾k),cela équivaut à 1-P(x<k) et à faire simplement 1-P(x≤k-1)

#Rappel

#Rappel

#Approximation de la loi binomiale par la loi de Poisson #La loi binomiale et la loi de Poisson donnent les mêmes probabilités au centième près #Pour une loi binomiale, l'univers image est fini #Pour une loi de Poisson, l'univers image est infini

#Approximation de la loi binomiale par la loi de Poisson #La loi binomiale et la loi de Poisson donnent les mêmes probabilités au centième près #Pour une loi binomiale, l'univers image est fini #Pour une loi de Poisson, l'univers image est infini

#Approximation de la loi binomiale par la loi de Poisson #Démonstration

#Approximation de la loi binomiale par la loi de Poisson #Démonstration

#Approximation de la loi binomiale par la loi normale #Approximation de la loi binomiale par la loi de Poisson

#Approximation de la loi binomiale par la loi normale #Approximation de la loi binomiale par la loi de Poisson

#Loi de Poisson #On dit que X suit une loi de Poisson de paramètre λ, noté X~Pois(X) #Une variable aléatoire suit une loi de Poisson lorsque la probabilité d'une occurrence (apparition) est très faible. La loi de Poisson est aussi appelée la loi des évènements rares

#Loi de Poisson #On dit que X suit une loi de Poisson de paramètre λ, noté X~Pois(X) #Une variable aléatoire suit une loi de Poisson lorsque la probabilité d'une occurrence (apparition) est très faible. La loi de Poisson est aussi appelée la loi des évènements rares

#Loi de Poisson #Proportionnalité (Par exemple sur une route: si j'ai 4 voitures qui passent sur 120 secondes, j'aurai 2 voitures qui passent sur 60 secondes simplement) #Aussi par exemple sur une route : si j'ai une 1 voiture qui passe sur 60 secondes sur un intervalle de 40minutes, cette fréquence sera inchangée sur 60 minutes soit p=1/60)

#Loi de Poisson #Proportionnalité (Par exemple sur une route: si j'ai 4 voitures qui passent sur 120 secondes, j'aurai 2 voitures qui passent sur 60 secondes simplement) #Aussi par exemple sur une route : si j'ai une 1 voiture qui passe sur 60 secondes sur un intervalle de 40minutes, cette fréquence sera inchangée sur 60 minutes soit p=1/60)

#Une heure n'est pas différente d'une autre, on va avoir exactement la même probabilité en une heure donnée qu'en une autre heure donnée #Source: KhanAcademyFrancophone

#Stabilité de la loi de Poisson par la somme

#Stabilité de la loi de Poisson par la somme

#Table de la loi de Poisson

#Table de la loi de Poisson

#Loi de Poisson #Exercice

#Loi de Poisson #Exercice

#Loi de Poisson #Exercice

#Loi de Poisson #Exercice

#Loi de Poisson #Exercice #Pour la réponse 4): E(Y)=E(4X)=4E(X)=4 car dans une note d'une page, X suit une loi de Poisson de paramètre 1 donc dans une note de 4 pages Y=4X

#Loi de Poisson #Exercice #Pour la réponse 4): E(Y)=E(4X)=4E(X)=4 car dans une note d'une page, X suit une loi de Poisson de paramètre 1 donc dans une note de 4 pages Y=4X

#Excellente vidéo #Source: Saïd Chermak #L'exercice au-dessus commence vers 45:00

#Corrigés:1) P(X⩾1)=0,3324 avec X↝B(20;0.02) 2) P(X⩾3)=0.080301 avec Y↝P(1) #PS:Les notations ↝ ou ~ sont équivalentes

#Corrigés:1) P(X⩾1)=0,3324 avec X↝B(20;0.02) 2) P(X⩾3)=0.080301 avec Y↝P(1) #PS:Les notations ↝ ou ~ sont équivalentes

#Loi géométrique #Pour P(X=k), sur TI82/83(dans 2nde+distrib), taper géomtFdp(p,k) #Pour P(≤k) sur TI82/83(dans 2nde+distrib), taper géomtFrép(n,k)

#Loi géométrique #Pour P(X=k), sur TI82/83(dans 2nde+distrib), taper géomtFdp(p,k) #Pour P(≤k) sur TI82/83(dans 2nde+distrib), taper géomtFrép(n,k)

#Loi géométrique #Espérance #Variance

#Loi géométrique #Espérance #Variance

#Loi géométrique #Espérance #Variance #Démonstrations

#Loi géométrique #Espérance #Variance #Démonstrations

#Loi uniforme discrète

#Loi uniforme discrète

#Loi uniforme discrète #Exemple

#Loi uniforme discrète #Exemple

#Loi uniforme continue ##Le caractère discret ne concerne qu'un ensemble {.,.,.} de points #Le caractère continu concerne des intervalles complets [.,.] (Comprendre cela à l'aide d'un simple schéma rend ces notions assez limpides) #Il paraît évident que P(X=k)=0, et dire que P(X⩽k) ou P(X<K) revient au même raisonnement (comme P(a⩽X⩽b)=P(a<X<b))

#Loi uniforme continue ##Le caractère discret ne concerne qu'un ensemble {.,.,.} de points #Le caractère continu concerne des intervalles complets [.,.] (Comprendre cela à l'aide d'un simple schéma rend ces notions assez limpides) #Il paraît évident que P(X=k)=0, et dire que P(X⩽k) ou P(X<K) revient au même raisonnement (comme P(a⩽X⩽b)=P(a<X<b))

#Loi uniforme continue #Exemple

#Loi uniforme continue #Exemple

POST BAC - Espace probabilisés finis et variables aléatoires - Cours
#Axiomatique de Kolmogorov

#Axiomatique de Kolmogorov

#Loi du zéro-un de Kolmogorov

#Loi du zéro-un de Kolmogorov

#Inégalité maximale de Kolmogorov

#Inégalité maximale de Kolmogorov

#Loi des grands nombres

#Loi des grands nombres

#Loi des grands nombres #Somme de variables aléatoires #Source: Yvan Monka

#Loi des grands nombres #Somme de variables aléatoires #Source: Yvan Monka

#Loi des grands nombres #Espérance et variance de combinaisons linéaires de variables aléatoires

#Loi des grands nombres #Espérance et variance de combinaisons linéaires de variables aléatoires

#Loi des grands nombres #Application à la loi binomiale #Echantillon d'une loi de probabilité

#Loi des grands nombres #Application à la loi binomiale #Echantillon d'une loi de probabilité

#Loi de Bernoulli

#Loi de Bernoulli

#Loi des grands nombres #Echantillon de loi Bernoulli #Espérance,variance et écart-type de la loi binomiale

#Loi des grands nombres #Echantillon de loi Bernoulli #Espérance,variance et écart-type de la loi binomiale

Loi des grands nombres #Moyenne d'un échantillon #Variable aléatoire moyenne

Loi des grands nombres #Moyenne d'un échantillon #Variable aléatoire moyenne

#Loi des grands nombres #Inégalité de Bienaymé-Tchebychev (PS: il est possible que le majorant soit ⩾1)  #Inégalité de concentration

#Loi des grands nombres #Inégalité de Bienaymé-Tchebychev (PS: il est possible que le majorant soit ⩾1) #Inégalité de concentration

#Loi des grands nombres #L'écart entre la moyenne et l'espérance  sera donc très faible vu que la distance tendra vers 0 (Rappel: quand |x|⩾a, alors x⩾a ou x⩽-a (un simple schéma clarifie parfaitement la chose)) #Plus la taille de l'échantillon n sera grande, plus l'écart entre la moyenne et l'espérance sera faible. Plus la taille de l'échantillon n sera grande,  plus le majorant se rapprochera de zéro

#Loi des grands nombres #L'écart entre la moyenne et l'espérance sera donc très faible vu que la distance tendra vers 0 (Rappel: quand |x|⩾a, alors x⩾a ou x⩽-a (un simple schéma clarifie parfaitement la chose)) #Plus la taille de l'échantillon n sera grande, plus l'écart entre la moyenne et l'espérance sera faible. Plus la taille de l'échantillon n sera grande, plus le majorant se rapprochera de zéro

#Loi forte des grands nombres

#Loi forte des grands nombres

#Variables aléatoires discrètes #Source: Bibm@th

#Variables aléatoires discrètes #Source: Bibm@th

#Variables aléatoires discrètes

#Variables aléatoires discrètes

#Variables aléatoires discrètes

#Variables aléatoires discrètes

#Variables aléatoires discrètes

#Variables aléatoires discrètes

#Variables aléatoires discrètes

#Variables aléatoires discrètes

#Variables aléatoires discrètes

#Variables aléatoires discrètes

#Variables aléatoires discrètes

#Variables aléatoires discrètes

#Variables aléatoires discrètes

#Variables aléatoires discrètes

#Variables aléatoires discrètes ##Variables aléatoires continues

#Variables aléatoires discrètes ##Variables aléatoires continues

#Variables aléatoires continues

#Variables aléatoires continues

#Variables aléatoires à densité

#Variables aléatoires à densité

#Variables aléatoires à densité

#Variables aléatoires à densité

#Variables aléatoires à densité

#Variables aléatoires à densité

#Variables aléatoires à densité #Lois uniforme

#Variables aléatoires à densité #Lois uniforme

#Variables aléatoires à densité #Lois exponentielles

#Variables aléatoires à densité #Lois exponentielles

#Variables aléatoires à densité #Lois normales

#Variables aléatoires à densité #Lois normales

#Loi normale

#Loi normale

#Loi normale #Plus la courbe est haute, plus l'écart type et la variance sont faibles #Plus la courbe est basse, moins l'écart type et la variance sont grands

#Loi normale #Plus la courbe est haute, plus l'écart type et la variance sont faibles #Plus la courbe est basse, moins l'écart type et la variance sont grands

#Loi normale #Calculatrice

#Loi normale #Calculatrice

#Loi normale

#Loi normale

#Loi normale #Théorème de Moivre-Laplace

#Loi normale #Théorème de Moivre-Laplace

#Variables aléatoires à densité #Théorème de Moivre-Laplace

#Variables aléatoires à densité #Théorème de Moivre-Laplace

#Méthode des moindres carrés

#Méthode des moindres carrés

#Remarque : si l'on s'attache aux CARRÉS des distances et non aux écarts eux-mêmes, c'est parce que cela permet des développements non vus sur cette page mais néanmoins indispensables (décomposition en variance expliquée et résiduelle et donc emploi du coefficient de détermination...)

#Remarque : si l'on s'attache aux CARRÉS des distances et non aux écarts eux-mêmes, c'est parce que cela permet des développements non vus sur cette page mais néanmoins indispensables (décomposition en variance expliquée et résiduelle et donc emploi du coefficient de détermination...)

#Méthode des moindres carrés #Démonstration

#Méthode des moindres carrés #Démonstration

#Rappel pour les extremas

#Rappel pour les extremas

#Méthode des moindres carrés #Démonstration

#Méthode des moindres carrés #Démonstration

#Méthode des moindres carrés #Démonstration

#Méthode des moindres carrés #Démonstration

#Excellente vidéo #Source : Saïd Chermak

#Pour trouver la droite d'ajustement #TI82: stats puis 4:EffListe puis Entrer puis 2nde 1,2nde2 (=L1,L2) puis Entrer(si les listes sont anciennes).Ensuite, aller dans stats, 1:Edite (on rentre les deux colonnes). Après stats, puis -> vers CALC puis 4:RégLin(ax+b) #Régression linéaire

#Pour trouver la droite d'ajustement #TI82: stats puis 4:EffListe puis Entrer puis 2nde 1,2nde2 (=L1,L2) puis Entrer(si les listes sont anciennes).Ensuite, aller dans stats, 1:Edite (on rentre les deux colonnes). Après stats, puis -> vers CALC puis 4:RégLin(ax+b) #Régression linéaire

#Droite d'ajustement #Ti82/83 #Source: Yann Monka

#Formule de la covariance

#Formule de la covariance

#Coefficient de corrélation linéaire #Une corrélation est considérée comme bonne pour |r|⩾0,8 (soit r≤-0.8 ou r⩾0,8)

#Coefficient de corrélation linéaire #Une corrélation est considérée comme bonne pour |r|⩾0,8 (soit r≤-0.8 ou r⩾0,8)

POST BAC - Espace probabilisés finis et variables aléatoires - Cours
POST BAC - Espace probabilisés finis et variables aléatoires - Cours
POST BAC - Espace probabilisés finis et variables aléatoires - Cours
#Covariance #Une corrélation est considérée comme bonne pour |r|⩾0,8 (soit r≤-0.8 ou r⩾0,8)

#Covariance #Une corrélation est considérée comme bonne pour |r|⩾0,8 (soit r≤-0.8 ou r⩾0,8)

#Matrice de covariance

#Matrice de covariance

#On peut calculer tout cela avec sûreté avec OpenOffice ou Excel avec des tableaux précis qui donnent la Covariance,les Ecarts types de X et Y et ainsi le coefficient de Corrélation

#On peut calculer tout cela avec sûreté avec OpenOffice ou Excel avec des tableaux précis qui donnent la Covariance,les Ecarts types de X et Y et ainsi le coefficient de Corrélation

#Covariance #Corrélation #L'interprétation du résultat de la covariance a ses limites (peu instructive sur la dépendance), c'est ici que la notion de corrélation intervient #Une corrélation est considérée comme bonne pour |r|⩾0,8 (soit r≤-0.8 ou r⩾0,8) #Si r=1 ou r=-1 on dit que la corrélation est parfaite # #Corrélation linéaire #Par exemple: on peut estimer qu'il y a une corrélation (dépendance) entre le poids et la taille #Ajustement affine (2 variables) #Ajustement exponentiel (3 variables) #Ajustement puissance (4 variables)

#Covariance #Corrélation #L'interprétation du résultat de la covariance a ses limites (peu instructive sur la dépendance), c'est ici que la notion de corrélation intervient #Une corrélation est considérée comme bonne pour |r|⩾0,8 (soit r≤-0.8 ou r⩾0,8) #Si r=1 ou r=-1 on dit que la corrélation est parfaite # #Corrélation linéaire #Par exemple: on peut estimer qu'il y a une corrélation (dépendance) entre le poids et la taille #Ajustement affine (2 variables) #Ajustement exponentiel (3 variables) #Ajustement puissance (4 variables)

#Corrélation #En haut à droite, j'aurai (+)(+) puis (+)(+) etc, en bas à gauche j'aurai (-)(-) puis (-)(-) etc (pour aboutir à une grande somme positive). Même raisonnement en haut en gauche et en bas à droite (pour aboutir à une grande somme négative). Conclusion: la covariance sera de plus en plus grande et la corrélation sera plus forte #En haut à droite, j'aurai (+)(+) puis (+)(+) etc, en haut à gauche j'aurai (-)(+) puis (-)(+) etc (pour aboutir à une petite somme positive ou négative). Même raisonnement en bas à gauche et en bas à droite (pour aboutir à une petite somme positive ou négative). Conclusion: la covariance sera de plus en plus petite et la corrélation sera plus faible (on aurait pu citer également en haut à droite et en bas à droite ou en haut en gauche et bas en gauche)

#Corrélation #En haut à droite, j'aurai (+)(+) puis (+)(+) etc, en bas à gauche j'aurai (-)(-) puis (-)(-) etc (pour aboutir à une grande somme positive). Même raisonnement en haut en gauche et en bas à droite (pour aboutir à une grande somme négative). Conclusion: la covariance sera de plus en plus grande et la corrélation sera plus forte #En haut à droite, j'aurai (+)(+) puis (+)(+) etc, en haut à gauche j'aurai (-)(+) puis (-)(+) etc (pour aboutir à une petite somme positive ou négative). Même raisonnement en bas à gauche et en bas à droite (pour aboutir à une petite somme positive ou négative). Conclusion: la covariance sera de plus en plus petite et la corrélation sera plus faible (on aurait pu citer également en haut à droite et en bas à droite ou en haut en gauche et bas en gauche)

#Corrélation #De toute manière dans certaines situations, intuitivement on peut se faire une idée rapidement sur la corrélation (si je trace y=3 ou x=7 par exemple, on voit très bien que x et y n'ont aucune influence l'un sur l'autre (cf second cas dans le commentaire de l'illustration exprimé au-dessus))

#Corrélation #De toute manière dans certaines situations, intuitivement on peut se faire une idée rapidement sur la corrélation (si je trace y=3 ou x=7 par exemple, on voit très bien que x et y n'ont aucune influence l'un sur l'autre (cf second cas dans le commentaire de l'illustration exprimé au-dessus))

#Corrélation

#Corrélation

#König-Huygens #Espérance #Variance #La pondération est équivalente (d'où 1/n)

#König-Huygens #Espérance #Variance #La pondération est équivalente (d'où 1/n)

#König-Huygens #Démonstration

#König-Huygens #Démonstration

#Corrélation #Covariance #Excellente vidéo #Source: Saïd Chermak

#Ajustement linéaire #Ajustement puissance #Ajustement exponentiel #Ajustement logarithmique #Ajustement parabolique #Ajustement cubique

#Ajustement linéaire #Ajustement puissance #Ajustement exponentiel #Ajustement logarithmique #Ajustement parabolique #Ajustement cubique

POST BAC - Espace probabilisés finis et variables aléatoires - Cours
POST BAC - Espace probabilisés finis et variables aléatoires - Cours
#Ajustement affine (appelé également ajustement linéaire) #G(X̄,Ȳ) #On trouve un lien entre x et y, donc forcément cela aboutit à une droite d'équation #On a Y=aX+b (1) et Ȳ=aX̅+b (2), donc au final Y-Ȳ=a(X-X̅) sachant G(X̅,Ȳ)

#Ajustement affine (appelé également ajustement linéaire) #G(X̄,Ȳ) #On trouve un lien entre x et y, donc forcément cela aboutit à une droite d'équation #On a Y=aX+b (1) et Ȳ=aX̅+b (2), donc au final Y-Ȳ=a(X-X̅) sachant G(X̅,Ȳ)

#Ajustement exponentiel #Ajustements non-linéaires (exponentiel,puissance,logarithmique)

#Ajustement exponentiel #Ajustements non-linéaires (exponentiel,puissance,logarithmique)

#Ajustement exponentiel #Ajustement non-linéaire

#Ajustement exponentiel #Ajustement non-linéaire

#Ajustement puissance #Ajustement non-linéaire

#Ajustement puissance #Ajustement non-linéaire

#Ajustement puissance #Lire les variables du tableau (dans le bon ordre) comme étant x,y,t et z #Ajustement non-linéaire

#Ajustement puissance #Lire les variables du tableau (dans le bon ordre) comme étant x,y,t et z #Ajustement non-linéaire

#Ajustement logarithmique #Pour trouver a et b, utiliser la méthode des moindres carrés

#Ajustement logarithmique #Pour trouver a et b, utiliser la méthode des moindres carrés

#Ajustement logarithmique #Pour trouver a et b, utiliser la méthode des moindres carrés

#Ajustement logarithmique #Pour trouver a et b, utiliser la méthode des moindres carrés

#Ajustement logarithmique #Pour trouver a et b, utiliser la méthode des moindres carrés

#Ajustement logarithmique #Pour trouver a et b, utiliser la méthode des moindres carrés

#Ajustement parabolique

#Ajustement parabolique

#Lois usuelles #Synthèse #Bernoulli #Binomiale #Uniforme #Géométrique #Poisson

#Lois usuelles #Synthèse #Bernoulli #Binomiale #Uniforme #Géométrique #Poisson

Loi de Kolmogorov-Smirnov

Loi de Kolmogorov-Smirnov

Loi de Kolmogorov-Smirnov

Loi de Kolmogorov-Smirnov

#Table de la loi de Kolmogorov-Smirnov

#Table de la loi de Kolmogorov-Smirnov

#Table de la loi de Kolmogorov-Smirnov

#Table de la loi de Kolmogorov-Smirnov

Voir les commentaires

Publié le par François Montagne
Publié dans : #Post-Bac ( Prépa), #MPSI, #Mathématiques
POST BAC - Fonctions à deux variables - Cours
POST BAC - Fonctions à deux variables - Cours
POST BAC - Fonctions à deux variables - Cours
#Boule ouverte #Boule fermée

#Boule ouverte #Boule fermée

#Ouvert

#Ouvert

POST BAC - Fonctions à deux variables - Cours
# Déterminer les courbes de niveau d’une fonction #Montrer qu’une fonction f(𝑥1,𝑥2…) a une limite en l’origine #Méthodes #Coordonnées polaires #Coordonnées sphériques

# Déterminer les courbes de niveau d’une fonction #Montrer qu’une fonction f(𝑥1,𝑥2…) a une limite en l’origine #Méthodes #Coordonnées polaires #Coordonnées sphériques

#Montrer qu’une fonction f(x,y) n’a pas de limite en un point

#Montrer qu’une fonction f(x,y) n’a pas de limite en un point

#Dérivée directionnelle

#Dérivée directionnelle

#Dérivées partielles #le symbole ∂ (de la dérivée partielle) se lit : "rond de" #Si une dérivée partielle vaut + ou - l'infini, elle n'existe pas #Au début, pour ne pas s'emmêler les pinceaux dans la dérivée partielle aux niveaux des variables, on peut remplacer le ou les variables muettes par des constantes différentes de zéro (bien sûr, on réinsère ensuite les variables substituées provisoirement sur la dérivée partielles finale)

#Dérivées partielles #le symbole ∂ (de la dérivée partielle) se lit : "rond de" #Si une dérivée partielle vaut + ou - l'infini, elle n'existe pas #Au début, pour ne pas s'emmêler les pinceaux dans la dérivée partielle aux niveaux des variables, on peut remplacer le ou les variables muettes par des constantes différentes de zéro (bien sûr, on réinsère ensuite les variables substituées provisoirement sur la dérivée partielles finale)

#Calcul de dérivées partielles composées #Source: Méthode Maths

#Calculer la dérivée partielle en un point

#Calculer la dérivée partielle en un point

#Calculer la dérivée partielle en un point #Exemple

#Calculer la dérivée partielle en un point #Exemple

#Gradient

#Gradient

POST BAC - Fonctions à deux variables - Cours
#Développement limité à l'ordre 1

#Développement limité à l'ordre 1

POST BAC - Fonctions à deux variables - Cours
#Plan tangent

#Plan tangent

#Equation du plan tangent

#Equation du plan tangent

#Règle de la chaîne

#Règle de la chaîne

POST BAC - Fonctions à deux variables - Cours
POST BAC - Fonctions à deux variables - Cours
#Extrema locaux

#Extrema locaux

#Matrice hessienne #Cette matrice est toujours carrée  #C'est une forme quadratique

#Matrice hessienne #Cette matrice est toujours carrée #C'est une forme quadratique

#Matrice hessienne

#Matrice hessienne

#Matrice hessienne #Exemple

#Matrice hessienne #Exemple

#Matrice hessienne #Exemple

#Matrice hessienne #Exemple

#Extrema locaux #Points critiques (aussi appelés points singuliers/stationnaires) #PS pour l'étape 1 : on doit obtenir un système (avec ∂f/∂x=0 et ∂f/dy=0), ses solutions sont les points critiques #On dit extremum (au singulier) et extrema (au pluriel) #Pour une fonction à plusieurs variables réelles, un point stationnaire (critique) est un point où le gradient s'annule

#Extrema locaux #Points critiques (aussi appelés points singuliers/stationnaires) #PS pour l'étape 1 : on doit obtenir un système (avec ∂f/∂x=0 et ∂f/dy=0), ses solutions sont les points critiques #On dit extremum (au singulier) et extrema (au pluriel) #Pour une fonction à plusieurs variables réelles, un point stationnaire (critique) est un point où le gradient s'annule

#Extrema d'une fonction

#Extrema d'une fonction

#Point col=Point selle (c'est un minimum selon un point de vue mais un maximum selon un autre point de vue) #On peut l'assimiler en quelque sorte à une selle de cheval

#Point col=Point selle (c'est un minimum selon un point de vue mais un maximum selon un autre point de vue) #On peut l'assimiler en quelque sorte à une selle de cheval

#Fonction différentiable et différentielle #En un point #Sur un ouvert

#Fonction différentiable et différentielle #En un point #Sur un ouvert

#Différentielle

#Différentielle

POST BAC - Fonctions à deux variables - Cours
#Calculer une différentielle

#Calculer une différentielle

#Différentiabilité #Démontrer qu'une fonction est différentiable ou non #Si une seule dérivée partielle n'existe pas, il n'y a pas besoin de se préoccuper de l'autre . C'est ainsi toute la fonction qui n'est pas différentiable en ce point (même raisonnement pour la continuité)

#Différentiabilité #Démontrer qu'une fonction est différentiable ou non #Si une seule dérivée partielle n'existe pas, il n'y a pas besoin de se préoccuper de l'autre . C'est ainsi toute la fonction qui n'est pas différentiable en ce point (même raisonnement pour la continuité)

#Déterminer une matrice jacobienne

#Déterminer une matrice jacobienne

#Théorème de Schwarz #Fonctions différentiables

#Théorème de Schwarz #Fonctions différentiables

#Exercice #Théorème de Schwarz (lors de la recherche de la primitive, si le théorème ne fonctionne pas, alors il n'y a pas de solution. Par contre dans un autre cas, ce n'est pas parce qu'il est vérifié qu'il y en a forcément une)

#Formes différentielles exactes et fermées

#Formes différentielles exactes et fermées

#Théorème de Poincaré

#Théorème de Poincaré

#Montrer qu'une forme différentielle est fermée #Utiliser le théorème de Poincaré #Forme différentielle exacte

#Montrer qu'une forme différentielle est fermée #Utiliser le théorème de Poincaré #Forme différentielle exacte

#Exemple #Forme différentielle exacte #Trouver la fonction g #Réinjecter g dans les autres dérivées partielles pour trouver sa forme

#Exemple #Forme différentielle exacte #Trouver la fonction g #Réinjecter g dans les autres dérivées partielles pour trouver sa forme

#Exemple #Forme différentielle exacte  #Trouver la fonction g #Réinjecter g dans les autres dérivées partielles pour trouver sa forme

#Exemple #Forme différentielle exacte #Trouver la fonction g #Réinjecter g dans les autres dérivées partielles pour trouver sa forme

#Exercice #Montrer qu'une forme différentielle est exacte et l'intégrer #Source: Méthode Maths

#Exercice #Montrer qu'une forme différentielle est exacte et l'intégrer #Source: Méthode Maths

#Etoilé #Un ouvert étoilé est un ouvert tel que l'on ait un point où on pourra accéder à tous les autres points en ligne droite sans sortir de l'ensemble #ℝ² ou ℝ³ sont par exemple, des ouverts étoilés

#Etoilé #Un ouvert étoilé est un ouvert tel que l'on ait un point où on pourra accéder à tous les autres points en ligne droite sans sortir de l'ensemble #ℝ² ou ℝ³ sont par exemple, des ouverts étoilés

#Primitive

#Primitive

#Théorème Green-Riemann #Valable uniquement dans le sens antihoraire

#Théorème Green-Riemann #Valable uniquement dans le sens antihoraire

#Exemple #Théorème Green-Riemann

#Exemple #Théorème Green-Riemann

#Exemple #Théorème Green-Riemann

#Exemple #Théorème Green-Riemann

#Exemple #Théorème Green-Riemann

#Exemple #Théorème Green-Riemann

#Exemple #Théorème Green-Riemann

#Exemple #Théorème Green-Riemann

#Excellent exercice #Théorème Green-Riemann #Source : Méthode Maths

#Equation cartésienne d'une ellipse

#Equation cartésienne d'une ellipse

#Exercice #Théorème Green-Riemann #Enoncé

#Exercice #Théorème Green-Riemann #Enoncé

POST BAC - Fonctions à deux variables - Cours
#Exercice #Théorème Green-Riemann #Corrigé

#Exercice #Théorème Green-Riemann #Corrigé

#Excellent exercice #Théorème Green-Riemann #Source : Méthode Maths

#Changement de variables dans une intégrale multiple #Intégration en coordonnées polaires #Intégration en coordonnées cylindriques #Intégration en coordonnées sphériques

#Changement de variables dans une intégrale multiple #Intégration en coordonnées polaires #Intégration en coordonnées cylindriques #Intégration en coordonnées sphériques

#Rappel #Equation cartésienne cercle

#Rappel #Equation cartésienne cercle

#Déterminant Jacobien en coordonnées polaires

#Déterminant Jacobien en coordonnées polaires

#Coordonnées cartésiennes #Coordonnées polaires

#Coordonnées cartésiennes #Coordonnées polaires

#dS=dxdy #dS=drdθ

#dS=dxdy #dS=drdθ

#Exemple #Calcul de l'aire d'un domaine avec changement de variable #Coordonnées polaires #Jacobien # ∫∫dS = ∫∫rdrdθ

#Exemple #Calcul de l'aire d'un domaine avec changement de variable #Coordonnées polaires #Jacobien # ∫∫dS = ∫∫rdrdθ

#Excellent exercice #Calcul de l'aire d'un domaine avec changement de variable #Coordonnées polaires #Jacobien #Source: Méthode Maths

#Excellent exercice #Calculer une intégrale double sur un domaine avec changement de variable #Coordonnées polaires #Jacobien #Source: Méthode Maths

#Exemple #Calculer l'aire d'un domaine

#Exemple #Calculer l'aire d'un domaine

#Excellent exercice #Calculer l'aire d'un domaine #Source : Méthode Maths

#Excellent exercice #Calculer une intégrale double sur un domaine #Source : Méthode Maths

#Exemple #Intégrale double sur un domaine défini par 3 droites #Pour la seconde ligne en bas, on effectue bien deux calculs successifs sur deux zones différentes

#Exemple #Intégrale double sur un domaine défini par 3 droites #Pour la seconde ligne en bas, on effectue bien deux calculs successifs sur deux zones différentes

#Excellent exercice #Intégrale double sur un domaine défini par 3 droites #Source : Méthode Maths

#Inégrale double #Produit de deux intégrales #Propriété #Utiliser une intégrale double pour déduire une intégrale simple

#Inégrale double #Produit de deux intégrales #Propriété #Utiliser une intégrale double pour déduire une intégrale simple

#Utiliser une intégrale double pour déduire une intégrale simple #Exemple

#Utiliser une intégrale double pour déduire une intégrale simple #Exemple

#Utiliser une intégrale double pour déduire une intégrale simple #Exemple #Résultat de l'exemple : I=rac(π) (détaillé en vidéo ci-dessous)

#Utiliser une intégrale double pour déduire une intégrale simple #Exemple #Résultat de l'exemple : I=rac(π) (détaillé en vidéo ci-dessous)

#Utiliser une intégrale double pour déduire une intégrale simple #Corrigé #Excellent exercice #Source: Méthode Maths

#Gradient #Divergence #Rotationnel #Laplacien #Coordonnées cartésiennes

#Gradient #Divergence #Rotationnel #Laplacien #Coordonnées cartésiennes

#Divergence en coordonnées cartésiennes ##Divergence en coordonnées cylindriques #Opérateur nabla #Gradient

#Divergence en coordonnées cartésiennes ##Divergence en coordonnées cylindriques #Opérateur nabla #Gradient

#Calculer la divergence d'un vecteur #Source : Méthode Maths

#Calculer le gradient d'une fonction #Source : Méthode Maths

#Gradient en coordonnées cartésiennes/cylindriques/sphériques #Rotationnel en coordonnées cartésiennes/cylindriques/sphériques

#Gradient en coordonnées cartésiennes/cylindriques/sphériques #Rotationnel en coordonnées cartésiennes/cylindriques/sphériques

#Calculer le rotationnel d'un vecteur #Source : Méthode Maths

#Laplacien scalaire en coordonnées cartésiennes/cylindriques

#Laplacien scalaire en coordonnées cartésiennes/cylindriques

#Calculer le laplacien scalaire d'une fonction #Source : Méthode Maths

#Laplacien vectoriel #Coordonnées cartésiennes

#Laplacien vectoriel #Coordonnées cartésiennes

#Calculer le laplacien vectoriel #Source : Méthode Maths

POST BAC - Fonctions à deux variables - Cours

#Source : Méthode Maths

#Source : Méthode Maths

#Dérive d'un potentiel #Il faut montrer que div(vect(u))=0 et trouver le potentiel en primitivant ∂f/∂x (=1ère ligne vecteur u)), la suite de la technique est exactement la même que lorsqu'on intégre une forme différentielle exacte (cf dans le même article : #Réinjecter g dans les autres dérivées partielles pour trouver sa forme)

#Dérive d'un potentiel #Il faut montrer que div(vect(u))=0 et trouver le potentiel en primitivant ∂f/∂x (=1ère ligne vecteur u)), la suite de la technique est exactement la même que lorsqu'on intégre une forme différentielle exacte (cf dans le même article : #Réinjecter g dans les autres dérivées partielles pour trouver sa forme)

#Exemple #Dérive d'un potentiel

#Exemple #Dérive d'un potentiel

#Exercice #Dérive d'un potentiel #Source: Méthode Maths

#Gradient #Divergence #Rotationnel #Laplacien #Coordonnées cylindriques

#Gradient #Divergence #Rotationnel #Laplacien #Coordonnées cylindriques

#Gradient #Divergence #Rotationnel #Laplacien #Coordonnées sphériques

#Gradient #Divergence #Rotationnel #Laplacien #Coordonnées sphériques

#Théorème d'Ostrogradsky-Green (également appelé Théorème de la divergence) #Théorème de Stokes

#Théorème d'Ostrogradsky-Green (également appelé Théorème de la divergence) #Théorème de Stokes

#Circulation d'un champ de vecteurs

#Circulation d'un champ de vecteurs

#Exemple #Circulation d'un champ de vecteurs #Faire une relation de Chasles, paramétrer et réaliser le produit scalaire

#Exemple #Circulation d'un champ de vecteurs #Faire une relation de Chasles, paramétrer et réaliser le produit scalaire

#Exemple #Circulation d'un champ de vecteurs #Produit scalaire #On raisonne exactement avec la même méthode pour calculer la circulation d'OJK #Dans ce genre d'exercice, il faut être très vigilant sur l'ordre des bornes

#Exemple #Circulation d'un champ de vecteurs #Produit scalaire #On raisonne exactement avec la même méthode pour calculer la circulation d'OJK #Dans ce genre d'exercice, il faut être très vigilant sur l'ordre des bornes

#Exercice #Circulation d'un champ de vecteurs #Source: Méthode Maths

#Cours complet #Source : Exo7

#Fiche complète #Source: Fabinou

#Exercices Dérivation Directionnelle/Dérivées partielles/Gradient/Jacobienne

#Exercices #Source: Exo7

Voir les commentaires

Publié le par François Montagne
Publié dans : #Mathématiques, #Post-Bac ( Prépa), #MPSI
#Analyse #Synthèse

#Analyse #Synthèse

#Astuces #Par exemple, on peut transformer x en x/2 continuellement et créer une suite #On peut remplacer une fonction par une autre (exemple: f(x)=1-g(x)) #On peut également substituer y par x (exemple pour montrer qu'on a le droit de passer de y à x ou inversement sans restrictions). Le but est toujours d'essayer et de chercher. On obtient forcément des informations précieuses au final

#Astuces #Par exemple, on peut transformer x en x/2 continuellement et créer une suite #On peut remplacer une fonction par une autre (exemple: f(x)=1-g(x)) #On peut également substituer y par x (exemple pour montrer qu'on a le droit de passer de y à x ou inversement sans restrictions). Le but est toujours d'essayer et de chercher. On obtient forcément des informations précieuses au final

#Utiliser la continuité  #Théorème #Caractérisation séquentielle de la continuité #Utile par exemple pour prouver que f(x) est constante

#Utiliser la continuité #Théorème #Caractérisation séquentielle de la continuité #Utile par exemple pour prouver que f(x) est constante

#Equation fonctionnelle de Cauchy

#Equation fonctionnelle de Cauchy

#Equation fonctionnelle de Cauchy #Solutions

#Equation fonctionnelle de Cauchy #Solutions

#Equation fonctionnelle de Cauchy #Source: Méthode Maths #Pour prouver que n ∈ ℤ on sait que n ∈ ℕ*, donc si je pars avec -n=n' avec n<0, on arrive à prouver la chose aisément

#Troncature et fonction partie entière #Utiliser une suite avec x ∈ ℚ pour prouver que x ∈ ℝ (Par exemple si x=π, u0=3 , u1=3,1 u2=3,14 u3=3,141 etc alors la limite de xn quand n→+∞ = π (on a alors prouvé que x ∈ ℝ)) #Développement décimal du nombre

#Troncature et fonction partie entière #Utiliser une suite avec x ∈ ℚ pour prouver que x ∈ ℝ (Par exemple si x=π, u0=3 , u1=3,1 u2=3,14 u3=3,141 etc alors la limite de xn quand n→+∞ = π (on a alors prouvé que x ∈ ℝ)) #Développement décimal du nombre

#Troncature #Différence avec l'arrondi #Rappel

#Troncature #Différence avec l'arrondi #Rappel

#Equation fonctionnelle de Cauchy #Enoncé

#Equation fonctionnelle de Cauchy #Enoncé

#Equation fonctionnelle de Cauchy #Corrigé

#Equation fonctionnelle de Cauchy #Corrigé

#Equation fonctionnelle de Cauchy #Source: Hans Amble

#Equation fonctionnelle de Jensen

#Equation fonctionnelle de Jensen

#Equation fonctionnelle de Jensen #Source: Méthode Maths

#Source: Méthode Maths

#Source: Hans Amble

#Utiliser la continuité #Caractérisation séquentielle de la continuité #Utile par exemple pour prouver que f(x) est constante #Source: Hans Amble

#Source: Hans Amble

#Source: Hans Amble

#Logarithme décimal #Rappel

#Logarithme décimal #Rappel

#Source: Hans Amble

#Source: Hans Amble

#Source: Hans Amble

#Source: Hans Amble

#Avec nombre complexes #La densité de ℚ dans ℝ signifie simplement que dans n'importe quel intervalle non vide de ℝ et ne comportant pas un seul élement (donc au moins deux éléments), on peut trouver un rationnel (donc appartenant à ℚ) #Source: Hans Amble

POST BAC - Equations fonctionnelles

Voir les commentaires

Publié le par François Montagne
Publié dans : #Mathématiques, #Post-Bac ( Prépa), #MPSI, #Espace préhilbertien réel, #Espace préhilbertien complexe
POST BAC - Espaces préhilbertiens réels et complexes
#ESPACE PREHILBERTIEN REEL #Produit scalaire #Bilinéarité #Symétrie #Définie positive #Un espace préhilbertien réel de dimension finie est appelé un espace euclidien #Pour prouver la bilinéarité, la linéarité par rapport à une seule variable est suffisante si l'on a démontré la symétrie avant (il suffit de renverser le produit après la 1ère linéarité détectée pour s'en apercevoir)

#ESPACE PREHILBERTIEN REEL #Produit scalaire #Bilinéarité #Symétrie #Définie positive #Un espace préhilbertien réel de dimension finie est appelé un espace euclidien #Pour prouver la bilinéarité, la linéarité par rapport à une seule variable est suffisante si l'on a démontré la symétrie avant (il suffit de renverser le produit après la 1ère linéarité détectée pour s'en apercevoir)

#Produits scalaire canonique #Norme et distance associées à un produit scalaire #Espace préhilbertien réel

#Produits scalaire canonique #Norme et distance associées à un produit scalaire #Espace préhilbertien réel

POST BAC - Espaces préhilbertiens réels et complexes
||f||=rac(<f,f>) #Espace préhilbertien réel

||f||=rac(<f,f>) #Espace préhilbertien réel

Rappels #Colinéarité #Déterminant de deux vecteurs

Rappels #Colinéarité #Déterminant de deux vecteurs

#Rappels #Produit scalaire #Dimension 2

#Rappels #Produit scalaire #Dimension 2

#Produit scalaire #Propriétés #Commutatvité #Associativité #Distributivité

#Produit scalaire #Propriétés #Commutatvité #Associativité #Distributivité

#Produit scalaire #Scalaire #Propriétés

#Produit scalaire #Scalaire #Propriétés

#Exemple #Commutativité #Associativité #Distributivité

#Exemple #Commutativité #Associativité #Distributivité

#Produit scalaire positif #Produit scalaire négatif

#Produit scalaire positif #Produit scalaire négatif

#Produits scalaires canoniques #Espace préhilbertien réel

#Produits scalaires canoniques #Espace préhilbertien réel

#Produits scalaires canoniques #Espace préhilbertien réel

#Produits scalaires canoniques #Espace préhilbertien réel

#Inégalité de Cauchy-Schwarz  #Espace préhilbertien réel

#Inégalité de Cauchy-Schwarz #Espace préhilbertien réel

#Inégalité de Cauchy-Schwarz  #Espace préhilbertien réel

#Inégalité de Cauchy-Schwarz #Espace préhilbertien réel

#Inégalité de Cauchy-Schwarz #Inégalité triangulaire norme et distance #Espace préhilbertien réel

#Inégalité de Cauchy-Schwarz #Inégalité triangulaire norme et distance #Espace préhilbertien réel

#Norme euclidienne #Espace préhilbertien réel

#Norme euclidienne #Espace préhilbertien réel

#Inégalité triangulaire version norme  #Espace préhilbertien réel

#Inégalité triangulaire version norme #Espace préhilbertien réel

 #Identités remarquables #Espace préhilbertien réel

#Identités remarquables #Espace préhilbertien réel

 #Idendités de polarisation #Espace préhilbertien réel

#Idendités de polarisation #Espace préhilbertien réel

 #Distance #Espace préhilbertien réel

#Distance #Espace préhilbertien réel

 #Espace préhilbertien réel

#Espace préhilbertien réel

 #Vecteurs orthogonaux #Espace préhilbertien réel

#Vecteurs orthogonaux #Espace préhilbertien réel

#ESPACE PREHILBERTIEN COMPLEXE

#ESPACE PREHILBERTIEN COMPLEXE

#Espace préhilbertien complexe #L'objet central d'un espace préhilbertien est ce qu'on appelle en général un produit scalaire. Il peut s'agir d'un produit scalaire euclidien lorsque l'on considère des espaces vectoriels sur le corps des nombres réels ou d'un produit scalaire hermitien dans le cas d'espaces vectoriels sur le corps des nombres complexes

#Espace préhilbertien complexe #L'objet central d'un espace préhilbertien est ce qu'on appelle en général un produit scalaire. Il peut s'agir d'un produit scalaire euclidien lorsque l'on considère des espaces vectoriels sur le corps des nombres réels ou d'un produit scalaire hermitien dans le cas d'espaces vectoriels sur le corps des nombres complexes

#Produit hermitien #Définie positive #Sesquilinéaire #Hermitienne #Espace préhilbertien complexe

#Produit hermitien #Définie positive #Sesquilinéaire #Hermitienne #Espace préhilbertien complexe

#Produit hermitien #Produit scalaire hermitien #Définie positive #Sesquilinéaire #Hermitienne #Une forme sesquilinéaire sur un espace vectoriel complexe E est une application de E × E dans ℂ, linéaire selon l'une des variables et semi-linéaire par rapport à l'autre variable #Espace préhilbertien complexe

#Produit hermitien #Produit scalaire hermitien #Définie positive #Sesquilinéaire #Hermitienne #Une forme sesquilinéaire sur un espace vectoriel complexe E est une application de E × E dans ℂ, linéaire selon l'une des variables et semi-linéaire par rapport à l'autre variable #Espace préhilbertien complexe

#Espace hermitien #Produit scalaire hermitien #Norme #Espace préhilbertien complexe

#Espace hermitien #Produit scalaire hermitien #Norme #Espace préhilbertien complexe

#Identités remarquables #Espace préhilbertien complexe

#Identités remarquables #Espace préhilbertien complexe

#Produits scalaires usuels #Espace préhilbertien complexe

#Produits scalaires usuels #Espace préhilbertien complexe

#Inégalité Cauchy-Schwarz #Valable sur Espace préhilbertien complexe

#Inégalité Cauchy-Schwarz #Valable sur Espace préhilbertien complexe

#Espace préhilbertien complexe

#Espace préhilbertien complexe

#Gram-Schmdit #Différence par rapport à l'espace réel #Espace préhilbertien complexe

#Gram-Schmdit #Différence par rapport à l'espace réel #Espace préhilbertien complexe

#Produit scalaire hermitien #Espace préhilbertien complexe

#Produit scalaire hermitien #Espace préhilbertien complexe

#Rappels #Nombres complexes #Propriétés

#Rappels #Nombres complexes #Propriétés

#Rappels #Nombres complexes #Propriétés #Affixe #Milieu

#Rappels #Nombres complexes #Propriétés #Affixe #Milieu

#Rappels #Nombres complexes #Propriétés #Conjugué

#Rappels #Nombres complexes #Propriétés #Conjugué

#Rappels #Nombres complexes #Propriétés #Equation du second degré

#Rappels #Nombres complexes #Propriétés #Equation du second degré

#Rappels #Nombres complexes #Propriétés #Module #Argument #Forme trigonométrique

#Rappels #Nombres complexes #Propriétés #Module #Argument #Forme trigonométrique

#Rappels #Nombres complexes #Propriétés #Conjugué #Module

#Rappels #Nombres complexes #Propriétés #Conjugué #Module

#On appelle points fixes ou points invariants les points qui respectent f(Ω)=Ω (on s'en peut s'en servir par exemple pour trouver l'affixe du centre) #C'est bien sûr valable dans ℝ aussi

#On appelle points fixes ou points invariants les points qui respectent f(Ω)=Ω (on s'en peut s'en servir par exemple pour trouver l'affixe du centre) #C'est bien sûr valable dans ℝ aussi

#Isométrie

#Isométrie

#Symétrie orthogonale d'axe (OI) #Symétrie orthogonale d'axe (OJ) #Symétrie centrale de centre O

#Symétrie orthogonale d'axe (OI) #Symétrie orthogonale d'axe (OJ) #Symétrie centrale de centre O

#Symétrie orthogonale #Symétrie centrale #Translation #Homothétie #Rotation

#Symétrie orthogonale #Symétrie centrale #Translation #Homothétie #Rotation

#Symétrie par rapport à la droite passant par le point A (d'affixe a)

#Symétrie par rapport à la droite passant par le point A (d'affixe a)

#Similitude directe

#Similitude directe

#Similitude indirecte #Symétrie

#Similitude indirecte #Symétrie

#Similitude directe

#Similitude directe

#Similitude directe

#Similitude directe

#Similitude directe ##Similitude indirecte #Différence

#Similitude directe ##Similitude indirecte #Différence

#Similitude #Définition

#Similitude #Définition

#Excellent document #Similtudes #Cours

#Composition d'une rotation et d'une translation #Composition de deux rotations

#Composition d'une rotation et d'une translation #Composition de deux rotations

POST BAC - Espaces préhilbertiens réels et complexes
#Matrices symétriques #Matrices antisymétriques #Matrices orthogonales

#Matrices symétriques #Matrices antisymétriques #Matrices orthogonales

#Matrices symétriques

#Matrices symétriques

#Matrices symétriques

#Matrices symétriques

#Matrices symétriques

#Matrices symétriques

#Matrices symétriques #Diagonalisation de matrices symétriques réelles

#Matrices symétriques #Diagonalisation de matrices symétriques réelles

#Matrices symétriques #Diagonalisation de matrices symétriques réelles #Donc la matrice de passage est composée des vecteurs de la B.O.N simplement etc

#Matrices symétriques #Diagonalisation de matrices symétriques réelles #Donc la matrice de passage est composée des vecteurs de la B.O.N simplement etc

#Excellent document à consulter sur le sujet #Diagonalisation de matrices symétriques réelles

#Définie positive

#Définie positive

#Produit vectoriel

#Produit vectoriel

#Produit vectoriel

#Produit vectoriel

#Famille orthogonale #Famille orthonormée (ou orthonormale)

#Famille orthogonale #Famille orthonormée (ou orthonormale)

#Algorithme Gram-Schmidt #Espace préhilbertien réel

#Algorithme Gram-Schmidt #Espace préhilbertien réel

#Algorithme Gram-Schmidt #Espace préhilbertien réel

#Algorithme Gram-Schmidt #Espace préhilbertien réel

#Algorithme Gram-Schmidt #Application #Espace préhilbertien réel

#Algorithme Gram-Schmidt #Application #Espace préhilbertien réel

#Algorithme Gram-Schmidt #Application #Espace préhilbertien réel

#Algorithme Gram-Schmidt #Application #Espace préhilbertien réel

#Algorithme Gram-Schmidt #Astuce

#Algorithme Gram-Schmidt #Astuce

#Matrice orthogonale #Mt=M^(-1) #La matrice est orthogonale si et seulement si (e1,e2,e3...en) forment une base orthonormale #Le déterminant d'une matrice orthogonale est de carré 1, c'est-à-dire qu'il est égal à +1 ou –1 (la réciproque est trivialement fausse). Une matrice orthogonale est dite directe si son déterminant vaut +1 et indirecte s'il vaut –1

#Matrice orthogonale #Mt=M^(-1) #La matrice est orthogonale si et seulement si (e1,e2,e3...en) forment une base orthonormale #Le déterminant d'une matrice orthogonale est de carré 1, c'est-à-dire qu'il est égal à +1 ou –1 (la réciproque est trivialement fausse). Une matrice orthogonale est dite directe si son déterminant vaut +1 et indirecte s'il vaut –1

#Vecteurs orthogonaux #Famille orthogonale #Famille orthonormale #Espace préhilbertien réel

#Vecteurs orthogonaux #Famille orthogonale #Famille orthonormale #Espace préhilbertien réel

POST BAC - Espaces préhilbertiens réels et complexes
#Théorème de Pythagore #Espace préhilbertien réel

#Théorème de Pythagore #Espace préhilbertien réel

#Supplémentaire orthogonal #Espace préhilbertien réel

#Supplémentaire orthogonal #Espace préhilbertien réel

#Trouver une base orthogonale #Exemple #La base orthogonale n'a pas besoin nécessairement d'avoir les mêmes dimensions que la base d'origine

#Trouver une base orthogonale #Exemple #La base orthogonale n'a pas besoin nécessairement d'avoir les mêmes dimensions que la base d'origine

#Matrice de rotation #Anti-horaire #Horaire

#Matrice de rotation #Anti-horaire #Horaire

#Cas où on connaît la matrice de rotation #Trouver l'axe et l'angle à partir de la matrice de rotation #L'axe est invariant (le vecteur u reste fixe malgré la matrice R)

#Cas où on connaît la matrice de rotation #Trouver l'axe et l'angle à partir de la matrice de rotation #L'axe est invariant (le vecteur u reste fixe malgré la matrice R)

#Exercice excellent #Cas où on connaît la matrice de rotation #Trouver l'axe et l'angle à partir de la matrice de rotation #Source Méthode Maths

#Cas où on connaît la matrice de rotation #Trouver l'axe et l'angle à partir de la matrice de rotation

#Cas où on connaît la matrice de rotation #Trouver l'axe et l'angle à partir de la matrice de rotation

#Cas où on connaît la matrice de rotation #Trouver l'axe et l'angle à partir de la matrice de rotation #Trouver le déterminant de la base #On aura bien sûr trouvé l'axe grâce au système linéaire Au=u

#Cas où on connaît la matrice de rotation #Trouver l'axe et l'angle à partir de la matrice de rotation #Trouver le déterminant de la base #On aura bien sûr trouvé l'axe grâce au système linéaire Au=u

POST BAC - Espaces préhilbertiens réels et complexes
#Cas où l'on cherche la matrice de rotation (on connaît l'axe et l'angle) #Sens anti-horaire #Etape 2 #Après il suffit simplement de placer les 3 vecteurs dans la matrice M', la matrice de passage P étant les 3 vecteurs de la base orthonormée (e1,e2,e3) #Matrice de passage orthogonale

#Cas où l'on cherche la matrice de rotation (on connaît l'axe et l'angle) #Sens anti-horaire #Etape 2 #Après il suffit simplement de placer les 3 vecteurs dans la matrice M', la matrice de passage P étant les 3 vecteurs de la base orthonormée (e1,e2,e3) #Matrice de passage orthogonale

#Matrice de passage orthogonale

#Matrice de passage orthogonale

#Matrice de passage orthogonale

#Matrice de passage orthogonale

#Matrice de passage d'un changement de bases orthonormales

#Matrice de passage d'un changement de bases orthonormales

#Exercice excellent #Cas où l'on cherche la matrice de rotation (on connaît l'axe et l'angle) #Source : Méthode Maths

#Symétrie (dans un espace vectoriel) #S²=I

#Symétrie (dans un espace vectoriel) #S²=I

#Symétrie (dans un espace vectoriel) #Dimension 2 #Plan

#Symétrie (dans un espace vectoriel) #Dimension 2 #Plan

#Symétrie (dans un espace vectoriel) #C'est la symétrie par rapport à ker (s-IdE) parallèlement à ker(s+IdE)

#Symétrie (dans un espace vectoriel) #C'est la symétrie par rapport à ker (s-IdE) parallèlement à ker(s+IdE)

#Une involution est une application bijective qui est sa propre réciproque, c'est-à-dire par laquelle chaque élément est l'image de son image #La symétrie vectorielle est une application linéaire involutive : elle vérifie s²=id

#Une involution est une application bijective qui est sa propre réciproque, c'est-à-dire par laquelle chaque élément est l'image de son image #La symétrie vectorielle est une application linéaire involutive : elle vérifie s²=id

#Symétrie (dans un espace vectoriel)

#Symétrie (dans un espace vectoriel)

#Symétrie (dans un espace vectoriel) #Les valeurs propres possibles d'une symétrie sont -1 et 1 (il est donc aisé dans une matrice 2x2 de deviner la trace (somme des valeurs propres) qui vaut 0 et le déterminant (produit des valeurs propres) qui vaut -1) #s(x)=λ(x) donne s²(x)=λ²(x)=id donc λ={-1,1}

#Symétrie (dans un espace vectoriel) #Les valeurs propres possibles d'une symétrie sont -1 et 1 (il est donc aisé dans une matrice 2x2 de deviner la trace (somme des valeurs propres) qui vaut 0 et le déterminant (produit des valeurs propres) qui vaut -1) #s(x)=λ(x) donne s²(x)=λ²(x)=id donc λ={-1,1}

#Trouver matrice de symétrie/symétrie orthogonale #Méthode

#Trouver matrice de symétrie/symétrie orthogonale #Méthode

#Trouver matrice de symétrie/symétrie orthogonale #Méthode #A la fin on peut vérifier S²=I

#Trouver matrice de symétrie/symétrie orthogonale #Méthode #A la fin on peut vérifier S²=I

#Symétrie orthogonale (dans un espace vectoriel) #S²=I

#Symétrie orthogonale (dans un espace vectoriel) #S²=I

#Projecteur/Projecteur orthogonal A²=A #Symétrie/Symétrie orthogonale A²=I

#Projecteur/Projecteur orthogonal A²=A #Symétrie/Symétrie orthogonale A²=I

#Avec la matrice M #Avec M'=PMP(^-1) #Base adaptée

#Avec la matrice M #Avec M'=PMP(^-1) #Base adaptée

#Relations projecteurs/symétrie

#Relations projecteurs/symétrie

#S=2P-I #Valable pour Symétrie/Projecteur et Symétrie orthogonale/Projecteur orthogonal

#S=2P-I #Valable pour Symétrie/Projecteur et Symétrie orthogonale/Projecteur orthogonal

#Projecteur #C'est une application linéaire idempotente : elle vérifie p² = p #L'idempotence signifie qu'une opération a le même effet qu'on l'applique une ou plusieurs fois #L'application p est un endomorphisme, idempotent (p ∘ p = p), d'image im(p) = F et de noyau ker(p) = G. Cet endomorphisme est diagonalisable

#Projecteur #C'est une application linéaire idempotente : elle vérifie p² = p #L'idempotence signifie qu'une opération a le même effet qu'on l'applique une ou plusieurs fois #L'application p est un endomorphisme, idempotent (p ∘ p = p), d'image im(p) = F et de noyau ker(p) = G. Cet endomorphisme est diagonalisable

#Projecteur #La projection sur im(p) parallèlement à ker(p)

#Projecteur #La projection sur im(p) parallèlement à ker(p)

#Trouver la matrice de projection/projection orthogonale #Méthode

#Trouver la matrice de projection/projection orthogonale #Méthode

#Trouver la matrice de projection/projection orthogonale #Méthode #A la fin on peut vérifier P²=P

#Trouver la matrice de projection/projection orthogonale #Méthode #A la fin on peut vérifier P²=P

#Distance à un sous-espace vectoriel en dimension finie

#Distance à un sous-espace vectoriel en dimension finie

#Projecteur

#Projecteur

#Projection orthogonale #Symétrie orthogonale

#Projection orthogonale #Symétrie orthogonale

#La base de ker(p) est égale à la base orthogonale de im(p)

#La base de ker(p) est égale à la base orthogonale de im(p)

#Il donc très évident de déduire dans une matrice 2x2 que la trace (somme des valeurs propres) est 1 et que le déterminant (produit des valeurs propres) est 0 pour ainsi prouver la projection #Un tel raisonnement est limpide également pour trouver les valeurs propres d'une symétrie

#Il donc très évident de déduire dans une matrice 2x2 que la trace (somme des valeurs propres) est 1 et que le déterminant (produit des valeurs propres) est 0 pour ainsi prouver la projection #Un tel raisonnement est limpide également pour trouver les valeurs propres d'une symétrie

#Trace d'une projection #Valeurs propres

#Trace d'une projection #Valeurs propres

#Projection orthogonale #Une projection pour laquelle les deux supplémentaires sont orthogonaux est appelée projection orthogonale #Symétrie orthogonale #Expression d'un projeté orthogonal dans une base orthonormale #Quand on a trouvé la matrice, on peut vérifier A²=A pour valider

#Projection orthogonale #Une projection pour laquelle les deux supplémentaires sont orthogonaux est appelée projection orthogonale #Symétrie orthogonale #Expression d'un projeté orthogonal dans une base orthonormale #Quand on a trouvé la matrice, on peut vérifier A²=A pour valider

#Prouver une matrice de projection orthogonale #ker(p) pourra servir de vecteur normal pour déterminer l'équation du plan de F par exemple

#Prouver une matrice de projection orthogonale #ker(p) pourra servir de vecteur normal pour déterminer l'équation du plan de F par exemple

#Trouver la matrice de projection orthogonale avec x∈E dans la base canonique #Gram-Schmidt

#Trouver la matrice de projection orthogonale avec x∈E dans la base canonique #Gram-Schmidt

#Exercice excellent #Trouver la matrice de projection orthogonale sur ce plan #Source : Méthode Maths

#Exercice excellent #Source : Méthode Maths

#Distance à un plan

#Distance à un plan

#Exercice excellent #Source : Méthode Maths

POST BAC - Espaces préhilbertiens réels et complexes
#Matrice de projection #M²=M (pour TOUTE matrice de projection (pas forcément orthogonale))

#Matrice de projection #M²=M (pour TOUTE matrice de projection (pas forcément orthogonale))

#Excellent exercice #Source : Algèbre Prépa (Omar Jedidi)

#Excellent exercice #Base orthonormale #Base orthogonale #Projection orthogonale #Symétrie orthogonale #Source : Maths avec Ammar

#Décomposition LU #Lower #Upper

#Décomposition LU #Lower #Upper

#Décomposition LU #Lower #Upper

#Décomposition LU #Lower #Upper

#Exercice #Source : Méthode Maths #Méthode : sachant A=LU , AX=B donne LUX=B , calculer LY=B (la descente) puis UX=Y (la montée) (enfin déduire X)

#Rappel #Déterminants #Propriétés

#Rappel #Déterminants #Propriétés

#Rappel #Trace #Propriétés #Linéarité de la trace Tr(αA)=αTr(A)

#Rappel #Trace #Propriétés #Linéarité de la trace Tr(αA)=αTr(A)

#Rappel #Trace #Propriétés

#Rappel #Trace #Propriétés

#Rappel #Trace #Propriétés

#Rappel #Trace #Propriétés

#Rappel #Transposée #Propriétés #Linéarité de la transposée (αA)t=α(A)t

#Rappel #Transposée #Propriétés #Linéarité de la transposée (αA)t=α(A)t

#Produit de matrices #Appliquer f∘g (par exemple), c'est simplement multiplier les 2 matrices correspondantes dans le même ordre

#Produit de matrices #Appliquer f∘g (par exemple), c'est simplement multiplier les 2 matrices correspondantes dans le même ordre

<A,B>=Tr(tAB)

<A,B>=Tr(tAB)

#Excellent exercice #Prouver <A,B>=Tr(tAB) #Bilinéarité #Symétrie #Définie #Positive #Linéarité des traces et des matrices transposées

Voir les commentaires

Publié le par François Montagne
Publié dans : #MPSI, #Post-Bac ( Prépa), #Mathématiques, #Espace préhilbertien complexe
POST BAC - Géométrie dans le plan - Nombres complexes - Exercice #1 - Trouver un rayon
POST BAC - Géométrie dans le plan - Nombres complexes - Exercice #1 - Trouver un rayon

Voir les commentaires

1 2 3 4 5 6 7 8 9 10 20 30 40 50 60 70 80 90 100 > >>

RESSOURCES MATHS

 

 

Niveaux concernés :

 

 

 

 

COLLEGE

 

LYCEE

 

Toutes filières :

 

GENERALES

 

TECHNOLOGIQUES

 

POST-BAC

 

 

COLLEGE

6 ème

5 ème

4 ème

3 ème

 

 

LYCEE

2 nde

1 ère  

Terminale

 

POST-BAC

MPSI

 

 

Contact: fmontagne@gmx.fr

 

 

TAPEZ UN TITRE

 

DE CHAPITRE

 

UN THèME SOUHAITé

 

OU UNE FORMULE

 

DANS LA SECTION

 

"RECHERCHE"

 

CI-DESSOUS

 

EXEMPLES:

 

"Pythagore"

 

"Trigonométrie"

 

"Dérivation" etc...

 

 

 

 

 

 

Page Facebook

Hébergé par Overblog