Cours particuliers de maths à Lille

Cours particuliers de maths à Lille

Présent sur Lille , La Madeleine , Marcq en Baroeul , Mons en Baroeul , Wasquehal , Croix , Roubaix , Lambersart , Villeneuve d'Ascq , Lomme , Loos etc..

Publié le par François Montagne
Publié dans : #Mathématiques, #Post-Bac ( Prépa), #MPSI
#Expérience #Issues #Univers #Source: Yvan Monka

#Expérience #Issues #Univers #Source: Yvan Monka

POST BAC - Espace probabilisés finis et variables aléatoires - Cours
POST BAC - Espace probabilisés finis et variables aléatoires - Cours
#Evènement #Evènements élémentaires

#Evènement #Evènements élémentaires

#Evènement élémentaire

#Evènement élémentaire

#Evènement certain

#Evènement certain

#Equiprobabilité

#Equiprobabilité

POST BAC - Espace probabilisés finis et variables aléatoires - Cours
POST BAC - Espace probabilisés finis et variables aléatoires - Cours
POST BAC - Espace probabilisés finis et variables aléatoires - Cours
POST BAC - Espace probabilisés finis et variables aléatoires - Cours
#Evènements incompatibles

#Evènements incompatibles

POST BAC - Espace probabilisés finis et variables aléatoires - Cours
POST BAC - Espace probabilisés finis et variables aléatoires - Cours
POST BAC - Espace probabilisés finis et variables aléatoires - Cours
POST BAC - Espace probabilisés finis et variables aléatoires - Cours
#Espérance #Variance #Ecart-type #L'écart-type, la variance mesurent la dispersion des Xi autour des X̅ #Si la variance est nulle, alors la variable aléatoire est constante

#Espérance #Variance #Ecart-type #L'écart-type, la variance mesurent la dispersion des Xi autour des X̅ #Si la variance est nulle, alors la variable aléatoire est constante

#Calculatrice #Trouver moyenne, écart type et variance

#Espérance linéaire #Espérance positive #Espérance croissante

#Espérance linéaire #Espérance positive #Espérance croissante

#Formule de Köning-Huygens

#Formule de Köning-Huygens

POST BAC - Espace probabilisés finis et variables aléatoires - Cours
#Inégalité de Bienaymé-Tchebychev #Inégalité de Markov #∀t>0

#Inégalité de Bienaymé-Tchebychev #Inégalité de Markov #∀t>0

#Inégalité de Markov #∀a>0

#Inégalité de Markov #∀a>0

#Inégalité de Markov #Démonstration #Cas discret

#Inégalité de Markov #Démonstration #Cas discret

#Inégalité de Markov #Démonstration #Cas continu

#Inégalité de Markov #Démonstration #Cas continu

#Inégalité de Bienaymé-Tchebychev (PS: il est possible que le majorant soit ⩾1)  #INTERPRETATION DANS UN EXERCICE : la probabilité que l'écart entre X et E(X) soit supérieure à α est majorée par M (soit σ²/ α²) #On passe facilement de l'inégalité de Markov vers celle de Bienaymé-Tchebychev en utilisant |X-E(X)|⩾a,puis en faisant Y=|X-E(X)|²⩾a² et sachant V(X)=E(X-E(X))²

#Inégalité de Bienaymé-Tchebychev (PS: il est possible que le majorant soit ⩾1) #INTERPRETATION DANS UN EXERCICE : la probabilité que l'écart entre X et E(X) soit supérieure à α est majorée par M (soit σ²/ α²) #On passe facilement de l'inégalité de Markov vers celle de Bienaymé-Tchebychev en utilisant |X-E(X)|⩾a,puis en faisant Y=|X-E(X)|²⩾a² et sachant V(X)=E(X-E(X))²

#Inégalité de Bienaymé-Tchebychev #Inégalité de Markov #Il suffit de réaliser des simples schémas pour se rendre compte de la limpidité des propriétés

#Inégalité de Bienaymé-Tchebychev #Inégalité de Markov #Il suffit de réaliser des simples schémas pour se rendre compte de la limpidité des propriétés

#k-liste #Arrangement #Permutation #Combinaison

#k-liste #Arrangement #Permutation #Combinaison

POST BAC - Espace probabilisés finis et variables aléatoires - Cours
POST BAC - Espace probabilisés finis et variables aléatoires - Cours
#Univers image #X la variable aléatoire qui associe le numéro obtenu

#Univers image #X la variable aléatoire qui associe le numéro obtenu

#Système complet d'évènements

#Système complet d'évènements

#Variable aléatoire

#Variable aléatoire

#Système complet d’événements associé à une variable aléatoire

#Système complet d’événements associé à une variable aléatoire

#Probabilité sur un univers fini

#Probabilité sur un univers fini

#Probabilité uniforme #Evénements équiprobables

#Probabilité uniforme #Evénements équiprobables

#Complémentaire et différence #Croissance #Formule du crible

#Complémentaire et différence #Croissance #Formule du crible

#Distribution de probabilités #Détermination d’une probabilité sur les événements élémentaires

#Distribution de probabilités #Détermination d’une probabilité sur les événements élémentaires

#Loi d'une variable aléatoire

#Loi d'une variable aléatoire

#Loi uniforme #Loi de Bernoulli

#Loi uniforme #Loi de Bernoulli

#Définition implicite d’un espace probabilisé par la donnée d’une distribution de probabilités

#Définition implicite d’un espace probabilisé par la donnée d’une distribution de probabilités

#Probabilités conditionnelles

#Probabilités conditionnelles

#Probabilités conditionnelles

#Probabilités conditionnelles

#Probabilités conditionnelles #Indépendance

#Probabilités conditionnelles #Indépendance

#Probabilités conditionnelles

#Probabilités conditionnelles

#Probabilités conditionnelles #Arbre

#Probabilités conditionnelles #Arbre

#Probabilités conditionnelles #Notations

#Probabilités conditionnelles #Notations

#Formule des probabilités totales

#Formule des probabilités totales

#Formule de Bayes

#Formule de Bayes

#Formule de Bayes

#Formule de Bayes

#Formule des probabilités composées #Lois conditionnelles d’une variable aléatoire

#Formule des probabilités composées #Lois conditionnelles d’une variable aléatoire

#Evénements indépendants #Par exemple: le tirage suivant n'est pas influencé par le précédent (il n'y a pas de "sachant que") #Deux évènements sont indépendants si la réalisation ou non de l'un des évènements n'a pas d'incidence sur la probabilité de réalisation de l'autre évènement

#Evénements indépendants #Par exemple: le tirage suivant n'est pas influencé par le précédent (il n'y a pas de "sachant que") #Deux évènements sont indépendants si la réalisation ou non de l'un des évènements n'a pas d'incidence sur la probabilité de réalisation de l'autre évènement

#Indépendance et complémentaires #Loi binomiale

#Indépendance et complémentaires #Loi binomiale

#Variables aléatoires indépendantes

#Variables aléatoires indépendantes

#Existence d’une famille finie de variables aléatoires indépendantes de lois prescrites #Lemme des coalitions

#Existence d’une famille finie de variables aléatoires indépendantes de lois prescrites #Lemme des coalitions

#Loi conjointe et lois marginales d’une famille de variables aléatoires

#Loi conjointe et lois marginales d’une famille de variables aléatoires

#Loi uniforme et produit cartésien

#Loi uniforme et produit cartésien

#Calcul des lois marginales à partir de la loi conjointe

#Calcul des lois marginales à partir de la loi conjointe

#Sommes de variables aléatoires indépendantes de lois binomiales

#Sommes de variables aléatoires indépendantes de lois binomiales

#Loi binomiale #Un schéma de Bernoulli est une répétition de n épreuves identiques de Bernoulli de même probabilité de succès p et indépendantes les unes des autres #Pour P(X=k), sur TI82/83(dans 2nde+distrib), taper binomFdp(n,p,k) #Pour P(≤k) sur TI82/83(dans 2nde+distrib), taper binomFrép(n,p,k) #Si je fais tendre k vers+∞, la loi binomiale tendra vers une loi de Poisson #( ) retranscrit le nombre de combinaisons (par exemple, si j'ai n branches similaires (peu importe le bon ordre) dans mon arbre de probabilité, la combinaison sera égale à n)

#Loi binomiale #Un schéma de Bernoulli est une répétition de n épreuves identiques de Bernoulli de même probabilité de succès p et indépendantes les unes des autres #Pour P(X=k), sur TI82/83(dans 2nde+distrib), taper binomFdp(n,p,k) #Pour P(≤k) sur TI82/83(dans 2nde+distrib), taper binomFrép(n,p,k) #Si je fais tendre k vers+∞, la loi binomiale tendra vers une loi de Poisson #( ) retranscrit le nombre de combinaisons (par exemple, si j'ai n branches similaires (peu importe le bon ordre) dans mon arbre de probabilité, la combinaison sera égale à n)

#Combinaison

#Combinaison

#Toujours bon à savoir

#Toujours bon à savoir

#Combinaison #Loi binomiale

#Combinaison #Loi binomiale

#Loi binomiale #Loi de Poisson #Loi normale #Calculatrice #Pour TI82: pdf devient Fdp, et cdf devient Frép #Si on cherche P(X⩾k),cela équivaut à 1-P(x<k) et à faire simplement 1-P(x≤k-1)

#Loi binomiale #Loi de Poisson #Loi normale #Calculatrice #Pour TI82: pdf devient Fdp, et cdf devient Frép #Si on cherche P(X⩾k),cela équivaut à 1-P(x<k) et à faire simplement 1-P(x≤k-1)

#Rappel

#Rappel

#Approximation de la loi binomiale par la loi de Poisson #La loi binomiale et la loi de Poisson donnent les mêmes probabilités au centième près #Pour une loi binomiale, l'univers image est fini #Pour une loi de Poisson, l'univers image est infini

#Approximation de la loi binomiale par la loi de Poisson #La loi binomiale et la loi de Poisson donnent les mêmes probabilités au centième près #Pour une loi binomiale, l'univers image est fini #Pour une loi de Poisson, l'univers image est infini

#Approximation de la loi binomiale par la loi de Poisson #Démonstration

#Approximation de la loi binomiale par la loi de Poisson #Démonstration

#Approximation de la loi binomiale par la loi normale #Approximation de la loi binomiale par la loi de Poisson

#Approximation de la loi binomiale par la loi normale #Approximation de la loi binomiale par la loi de Poisson

#Loi de Poisson #On dit que X suit une loi de Poisson de paramètre λ, noté X~Pois(X) #Une variable aléatoire suit une loi de Poisson lorsque la probabilité d'une occurrence (apparition) est très faible. La loi de Poisson est aussi appelée la loi des évènements rares

#Loi de Poisson #On dit que X suit une loi de Poisson de paramètre λ, noté X~Pois(X) #Une variable aléatoire suit une loi de Poisson lorsque la probabilité d'une occurrence (apparition) est très faible. La loi de Poisson est aussi appelée la loi des évènements rares

#Loi de Poisson #Proportionnalité (Par exemple sur une route: si j'ai 4 voitures qui passent sur 120 secondes, j'aurai 2 voitures qui passent sur 60 secondes simplement) #Aussi par exemple sur une route : si j'ai une 1 voiture qui passe sur 60 secondes sur un intervalle de 40minutes, cette fréquence sera inchangée sur 60 minutes soit p=1/60)

#Loi de Poisson #Proportionnalité (Par exemple sur une route: si j'ai 4 voitures qui passent sur 120 secondes, j'aurai 2 voitures qui passent sur 60 secondes simplement) #Aussi par exemple sur une route : si j'ai une 1 voiture qui passe sur 60 secondes sur un intervalle de 40minutes, cette fréquence sera inchangée sur 60 minutes soit p=1/60)

#Une heure n'est pas différente d'une autre, on va avoir exactement la même probabilité en une heure donnée qu'en une autre heure donnée #Source: KhanAcademyFrancophone

#Stabilité de la loi de Poisson par la somme

#Stabilité de la loi de Poisson par la somme

#Table de la loi de Poisson

#Table de la loi de Poisson

#Loi de Poisson #Exercice

#Loi de Poisson #Exercice

#Loi de Poisson #Exercice

#Loi de Poisson #Exercice

#Loi de Poisson #Exercice #Pour la réponse 4): E(Y)=E(4X)=4E(X)=4 car dans une note d'une page, X suit une loi de Poisson de paramètre 1 donc dans une note de 4 pages Y=4X

#Loi de Poisson #Exercice #Pour la réponse 4): E(Y)=E(4X)=4E(X)=4 car dans une note d'une page, X suit une loi de Poisson de paramètre 1 donc dans une note de 4 pages Y=4X

#Excellente vidéo #Source: Saïd Chermak #L'exercice au-dessus commence vers 45:00

#Corrigés:1) P(X⩾1)=0,3324 avec X↝B(20;0.02) 2) P(X⩾3)=0.080301 avec Y↝P(1) #PS:Les notations ↝ ou ~ sont équivalentes

#Corrigés:1) P(X⩾1)=0,3324 avec X↝B(20;0.02) 2) P(X⩾3)=0.080301 avec Y↝P(1) #PS:Les notations ↝ ou ~ sont équivalentes

#Loi géométrique #Pour P(X=k), sur TI82/83(dans 2nde+distrib), taper géomtFdp(p,k) #Pour P(≤k) sur TI82/83(dans 2nde+distrib), taper géomtFrép(n,k)

#Loi géométrique #Pour P(X=k), sur TI82/83(dans 2nde+distrib), taper géomtFdp(p,k) #Pour P(≤k) sur TI82/83(dans 2nde+distrib), taper géomtFrép(n,k)

#Loi géométrique #Espérance #Variance

#Loi géométrique #Espérance #Variance

#Loi géométrique #Espérance #Variance #Démonstrations

#Loi géométrique #Espérance #Variance #Démonstrations

#Loi uniforme discrète

#Loi uniforme discrète

#Loi uniforme discrète #Exemple

#Loi uniforme discrète #Exemple

#Loi uniforme continue ##Le caractère discret ne concerne qu'un ensemble {.,.,.} de points #Le caractère continu concerne des intervalles complets [.,.] (Comprendre cela à l'aide d'un simple schéma rend ces notions assez limpides) #Il paraît évident que P(X=k)=0, et dire que P(X⩽k) ou P(X<K) revient au même raisonnement (comme P(a⩽X⩽b)=P(a<X<b))

#Loi uniforme continue ##Le caractère discret ne concerne qu'un ensemble {.,.,.} de points #Le caractère continu concerne des intervalles complets [.,.] (Comprendre cela à l'aide d'un simple schéma rend ces notions assez limpides) #Il paraît évident que P(X=k)=0, et dire que P(X⩽k) ou P(X<K) revient au même raisonnement (comme P(a⩽X⩽b)=P(a<X<b))

#Loi uniforme continue #Exemple

#Loi uniforme continue #Exemple

POST BAC - Espace probabilisés finis et variables aléatoires - Cours
#Axiomatique de Kolmogorov

#Axiomatique de Kolmogorov

#Loi du zéro-un de Kolmogorov

#Loi du zéro-un de Kolmogorov

#Inégalité maximale de Kolmogorov

#Inégalité maximale de Kolmogorov

#Loi des grands nombres

#Loi des grands nombres

#Loi des grands nombres #Somme de variables aléatoires #Source: Yvan Monka

#Loi des grands nombres #Somme de variables aléatoires #Source: Yvan Monka

#Loi des grands nombres #Espérance et variance de combinaisons linéaires de variables aléatoires

#Loi des grands nombres #Espérance et variance de combinaisons linéaires de variables aléatoires

#Loi des grands nombres #Application à la loi binomiale #Echantillon d'une loi de probabilité

#Loi des grands nombres #Application à la loi binomiale #Echantillon d'une loi de probabilité

#Loi de Bernoulli

#Loi de Bernoulli

#Loi des grands nombres #Echantillon de loi Bernoulli #Espérance,variance et écart-type de la loi binomiale

#Loi des grands nombres #Echantillon de loi Bernoulli #Espérance,variance et écart-type de la loi binomiale

Loi des grands nombres #Moyenne d'un échantillon #Variable aléatoire moyenne

Loi des grands nombres #Moyenne d'un échantillon #Variable aléatoire moyenne

#Loi des grands nombres #Inégalité de Bienaymé-Tchebychev (PS: il est possible que le majorant soit ⩾1)  #Inégalité de concentration

#Loi des grands nombres #Inégalité de Bienaymé-Tchebychev (PS: il est possible que le majorant soit ⩾1) #Inégalité de concentration

#Loi des grands nombres #L'écart entre la moyenne et l'espérance  sera donc très faible vu que la distance tendra vers 0 (Rappel: quand |x|⩾a, alors x⩾a ou x⩽-a (un simple schéma clarifie parfaitement la chose)) #Plus la taille de l'échantillon n sera grande, plus l'écart entre la moyenne et l'espérance sera faible. Plus la taille de l'échantillon n sera grande,  plus le majorant se rapprochera de zéro

#Loi des grands nombres #L'écart entre la moyenne et l'espérance sera donc très faible vu que la distance tendra vers 0 (Rappel: quand |x|⩾a, alors x⩾a ou x⩽-a (un simple schéma clarifie parfaitement la chose)) #Plus la taille de l'échantillon n sera grande, plus l'écart entre la moyenne et l'espérance sera faible. Plus la taille de l'échantillon n sera grande, plus le majorant se rapprochera de zéro

#Loi forte des grands nombres

#Loi forte des grands nombres

#Variables aléatoires discrètes #Source: Bibm@th

#Variables aléatoires discrètes #Source: Bibm@th

#Variables aléatoires discrètes

#Variables aléatoires discrètes

#Variables aléatoires discrètes

#Variables aléatoires discrètes

#Variables aléatoires discrètes

#Variables aléatoires discrètes

#Variables aléatoires discrètes

#Variables aléatoires discrètes

#Variables aléatoires discrètes

#Variables aléatoires discrètes

#Variables aléatoires discrètes

#Variables aléatoires discrètes

#Variables aléatoires discrètes

#Variables aléatoires discrètes

#Variables aléatoires discrètes ##Variables aléatoires continues

#Variables aléatoires discrètes ##Variables aléatoires continues

#Variables aléatoires continues

#Variables aléatoires continues

#Variables aléatoires à densité

#Variables aléatoires à densité

#Variables aléatoires à densité

#Variables aléatoires à densité

#Variables aléatoires à densité

#Variables aléatoires à densité

#Variables aléatoires à densité #Lois uniforme

#Variables aléatoires à densité #Lois uniforme

#Variables aléatoires à densité #Lois exponentielles

#Variables aléatoires à densité #Lois exponentielles

#Variables aléatoires à densité #Lois normales

#Variables aléatoires à densité #Lois normales

#Loi normale

#Loi normale

#Loi normale #Plus la courbe est haute, plus l'écart type et la variance sont faibles #Plus la courbe est basse, moins l'écart type et la variance sont grands

#Loi normale #Plus la courbe est haute, plus l'écart type et la variance sont faibles #Plus la courbe est basse, moins l'écart type et la variance sont grands

#Loi normale #Calculatrice

#Loi normale #Calculatrice

#Loi normale

#Loi normale

#Loi normale #Théorème de Moivre-Laplace

#Loi normale #Théorème de Moivre-Laplace

#Variables aléatoires à densité #Théorème de Moivre-Laplace

#Variables aléatoires à densité #Théorème de Moivre-Laplace

#Méthode des moindres carrés

#Méthode des moindres carrés

#Remarque : si l'on s'attache aux CARRÉS des distances et non aux écarts eux-mêmes, c'est parce que cela permet des développements non vus sur cette page mais néanmoins indispensables (décomposition en variance expliquée et résiduelle et donc emploi du coefficient de détermination...)

#Remarque : si l'on s'attache aux CARRÉS des distances et non aux écarts eux-mêmes, c'est parce que cela permet des développements non vus sur cette page mais néanmoins indispensables (décomposition en variance expliquée et résiduelle et donc emploi du coefficient de détermination...)

#Méthode des moindres carrés #Démonstration

#Méthode des moindres carrés #Démonstration

#Rappel pour les extremas

#Rappel pour les extremas

#Méthode des moindres carrés #Démonstration

#Méthode des moindres carrés #Démonstration

#Méthode des moindres carrés #Démonstration

#Méthode des moindres carrés #Démonstration

#Excellente vidéo #Source : Saïd Chermak

#Pour trouver la droite d'ajustement #TI82: stats puis 4:EffListe puis Entrer puis 2nde 1,2nde2 (=L1,L2) puis Entrer(si les listes sont anciennes).Ensuite, aller dans stats, 1:Edite (on rentre les deux colonnes). Après stats, puis -> vers CALC puis 4:RégLin(ax+b) #Régression linéaire

#Pour trouver la droite d'ajustement #TI82: stats puis 4:EffListe puis Entrer puis 2nde 1,2nde2 (=L1,L2) puis Entrer(si les listes sont anciennes).Ensuite, aller dans stats, 1:Edite (on rentre les deux colonnes). Après stats, puis -> vers CALC puis 4:RégLin(ax+b) #Régression linéaire

#Droite d'ajustement #Ti82/83 #Source: Yann Monka

#Formule de la covariance

#Formule de la covariance

#Coefficient de corrélation linéaire #Une corrélation est considérée comme bonne pour |r|⩾0,8 (soit r≤-0.8 ou r⩾0,8)

#Coefficient de corrélation linéaire #Une corrélation est considérée comme bonne pour |r|⩾0,8 (soit r≤-0.8 ou r⩾0,8)

POST BAC - Espace probabilisés finis et variables aléatoires - Cours
POST BAC - Espace probabilisés finis et variables aléatoires - Cours
POST BAC - Espace probabilisés finis et variables aléatoires - Cours
#Covariance #Une corrélation est considérée comme bonne pour |r|⩾0,8 (soit r≤-0.8 ou r⩾0,8)

#Covariance #Une corrélation est considérée comme bonne pour |r|⩾0,8 (soit r≤-0.8 ou r⩾0,8)

#Matrice de covariance

#Matrice de covariance

#On peut calculer tout cela avec sûreté avec OpenOffice ou Excel avec des tableaux précis qui donnent la Covariance,les Ecarts types de X et Y et ainsi le coefficient de Corrélation

#On peut calculer tout cela avec sûreté avec OpenOffice ou Excel avec des tableaux précis qui donnent la Covariance,les Ecarts types de X et Y et ainsi le coefficient de Corrélation

#Covariance #Corrélation #L'interprétation du résultat de la covariance a ses limites (peu instructive sur la dépendance), c'est ici que la notion de corrélation intervient #Une corrélation est considérée comme bonne pour |r|⩾0,8 (soit r≤-0.8 ou r⩾0,8) #Si r=1 ou r=-1 on dit que la corrélation est parfaite # #Corrélation linéaire #Par exemple: on peut estimer qu'il y a une corrélation (dépendance) entre le poids et la taille #Ajustement affine (2 variables) #Ajustement exponentiel (3 variables) #Ajustement puissance (4 variables)

#Covariance #Corrélation #L'interprétation du résultat de la covariance a ses limites (peu instructive sur la dépendance), c'est ici que la notion de corrélation intervient #Une corrélation est considérée comme bonne pour |r|⩾0,8 (soit r≤-0.8 ou r⩾0,8) #Si r=1 ou r=-1 on dit que la corrélation est parfaite # #Corrélation linéaire #Par exemple: on peut estimer qu'il y a une corrélation (dépendance) entre le poids et la taille #Ajustement affine (2 variables) #Ajustement exponentiel (3 variables) #Ajustement puissance (4 variables)

#Corrélation #En haut à droite, j'aurai (+)(+) puis (+)(+) etc, en bas à gauche j'aurai (-)(-) puis (-)(-) etc (pour aboutir à une grande somme positive). Même raisonnement en haut en gauche et en bas à droite (pour aboutir à une grande somme négative). Conclusion: la covariance sera de plus en plus grande et la corrélation sera plus forte #En haut à droite, j'aurai (+)(+) puis (+)(+) etc, en haut à gauche j'aurai (-)(+) puis (-)(+) etc (pour aboutir à une petite somme positive ou négative). Même raisonnement en bas à gauche et en bas à droite (pour aboutir à une petite somme positive ou négative). Conclusion: la covariance sera de plus en plus petite et la corrélation sera plus faible (on aurait pu citer également en haut à droite et en bas à droite ou en haut en gauche et bas en gauche)

#Corrélation #En haut à droite, j'aurai (+)(+) puis (+)(+) etc, en bas à gauche j'aurai (-)(-) puis (-)(-) etc (pour aboutir à une grande somme positive). Même raisonnement en haut en gauche et en bas à droite (pour aboutir à une grande somme négative). Conclusion: la covariance sera de plus en plus grande et la corrélation sera plus forte #En haut à droite, j'aurai (+)(+) puis (+)(+) etc, en haut à gauche j'aurai (-)(+) puis (-)(+) etc (pour aboutir à une petite somme positive ou négative). Même raisonnement en bas à gauche et en bas à droite (pour aboutir à une petite somme positive ou négative). Conclusion: la covariance sera de plus en plus petite et la corrélation sera plus faible (on aurait pu citer également en haut à droite et en bas à droite ou en haut en gauche et bas en gauche)

#Corrélation #De toute manière dans certaines situations, intuitivement on peut se faire une idée rapidement sur la corrélation (si je trace y=3 ou x=7 par exemple, on voit très bien que x et y n'ont aucune influence l'un sur l'autre (cf second cas dans le commentaire de l'illustration exprimé au-dessus))

#Corrélation #De toute manière dans certaines situations, intuitivement on peut se faire une idée rapidement sur la corrélation (si je trace y=3 ou x=7 par exemple, on voit très bien que x et y n'ont aucune influence l'un sur l'autre (cf second cas dans le commentaire de l'illustration exprimé au-dessus))

#Corrélation

#Corrélation

#König-Huygens #Espérance #Variance #La pondération est équivalente (d'où 1/n)

#König-Huygens #Espérance #Variance #La pondération est équivalente (d'où 1/n)

#König-Huygens #Démonstration

#König-Huygens #Démonstration

#Corrélation #Covariance #Excellente vidéo #Source: Saïd Chermak

#Ajustement linéaire #Ajustement puissance #Ajustement exponentiel #Ajustement logarithmique #Ajustement parabolique #Ajustement cubique

#Ajustement linéaire #Ajustement puissance #Ajustement exponentiel #Ajustement logarithmique #Ajustement parabolique #Ajustement cubique

POST BAC - Espace probabilisés finis et variables aléatoires - Cours
POST BAC - Espace probabilisés finis et variables aléatoires - Cours
#Ajustement affine (appelé également ajustement linéaire) #G(X̄,Ȳ) #On trouve un lien entre x et y, donc forcément cela aboutit à une droite d'équation #On a Y=aX+b (1) et Ȳ=aX̅+b (2), donc au final Y-Ȳ=a(X-X̅) sachant G(X̅,Ȳ)

#Ajustement affine (appelé également ajustement linéaire) #G(X̄,Ȳ) #On trouve un lien entre x et y, donc forcément cela aboutit à une droite d'équation #On a Y=aX+b (1) et Ȳ=aX̅+b (2), donc au final Y-Ȳ=a(X-X̅) sachant G(X̅,Ȳ)

#Ajustement exponentiel #Ajustements non-linéaires (exponentiel,puissance,logarithmique)

#Ajustement exponentiel #Ajustements non-linéaires (exponentiel,puissance,logarithmique)

#Ajustement exponentiel #Ajustement non-linéaire

#Ajustement exponentiel #Ajustement non-linéaire

#Ajustement puissance #Ajustement non-linéaire

#Ajustement puissance #Ajustement non-linéaire

#Ajustement puissance #Lire les variables du tableau (dans le bon ordre) comme étant x,y,t et z #Ajustement non-linéaire

#Ajustement puissance #Lire les variables du tableau (dans le bon ordre) comme étant x,y,t et z #Ajustement non-linéaire

#Ajustement logarithmique #Pour trouver a et b, utiliser la méthode des moindres carrés

#Ajustement logarithmique #Pour trouver a et b, utiliser la méthode des moindres carrés

#Ajustement logarithmique #Pour trouver a et b, utiliser la méthode des moindres carrés

#Ajustement logarithmique #Pour trouver a et b, utiliser la méthode des moindres carrés

#Ajustement logarithmique #Pour trouver a et b, utiliser la méthode des moindres carrés

#Ajustement logarithmique #Pour trouver a et b, utiliser la méthode des moindres carrés

#Ajustement parabolique

#Ajustement parabolique

#Lois usuelles #Synthèse #Bernoulli #Binomiale #Uniforme #Géométrique #Poisson

#Lois usuelles #Synthèse #Bernoulli #Binomiale #Uniforme #Géométrique #Poisson

Loi de Kolmogorov-Smirnov

Loi de Kolmogorov-Smirnov

Loi de Kolmogorov-Smirnov

Loi de Kolmogorov-Smirnov

#Table de la loi de Kolmogorov-Smirnov

#Table de la loi de Kolmogorov-Smirnov

#Table de la loi de Kolmogorov-Smirnov

#Table de la loi de Kolmogorov-Smirnov

Commenter cet article

RESSOURCES MATHS

 

 

Niveaux concernés :

 

 

 

 

COLLEGE

 

LYCEE

 

Toutes filières :

 

GENERALES

 

TECHNOLOGIQUES

 

POST-BAC

 

 

COLLEGE

6 ème

5 ème

4 ème

3 ème

 

 

LYCEE

2 nde

1 ère  

Terminale

 

POST-BAC

MPSI

 

 

Contact: fmontagne@gmx.fr

 

 

TAPEZ UN TITRE

 

DE CHAPITRE

 

UN THèME SOUHAITé

 

OU UNE FORMULE

 

DANS LA SECTION

 

"RECHERCHE"

 

CI-DESSOUS

 

EXEMPLES:

 

"Pythagore"

 

"Trigonométrie"

 

"Dérivation" etc...

 

 

 

 

 

 

Page Facebook

Hébergé par Overblog