#Espérance #Variance #Ecart-type #L'écart-type, la variance mesurent la dispersion des Xi autour des X̅ #Si la variance est nulle, alors la variable aléatoire est constante
#Calculatrice #Trouver moyenne, écart type et variance
#Inégalité de Bienaymé-Tchebychev (PS: il est possible que le majorant soit ⩾1) #INTERPRETATION DANS UN EXERCICE : la probabilité que l'écart entre X et E(X) soit supérieure à α est majorée par M (soit σ²/ α²) #On passe facilement de l'inégalité de Markov vers celle de Bienaymé-Tchebychev en utilisant |X-E(X)|⩾a,puis en faisant Y=|X-E(X)|²⩾a² et sachant V(X)=E(X-E(X))²
#Inégalité de Bienaymé-Tchebychev #Inégalité de Markov #Il suffit de réaliser des simples schémas pour se rendre compte de la limpidité des propriétés
#Evénements indépendants #Par exemple: le tirage suivant n'est pas influencé par le précédent (il n'y a pas de "sachant que") #Deux évènements sont indépendants si la réalisation ou non de l'un des évènements n'a pas d'incidence sur la probabilité de réalisation de l'autre évènement
#Existence d’une famille finie de variables aléatoires indépendantes de lois prescrites #Lemme des coalitions
#Loi binomiale #Un schéma de Bernoulli est une répétition de n épreuves identiques de Bernoulli de même probabilité de succès p et indépendantes les unes des autres #Pour P(X=k), sur TI82/83(dans 2nde+distrib), taper binomFdp(n,p,k) #Pour P(≤k) sur TI82/83(dans 2nde+distrib), taper binomFrép(n,p,k) #Si je fais tendre k vers+∞, la loi binomiale tendra vers une loi de Poisson #( ) retranscrit le nombre de combinaisons (par exemple, si j'ai n branches similaires (peu importe le bon ordre) dans mon arbre de probabilité, la combinaison sera égale à n)
#Loi binomiale #Loi de Poisson #Loi normale #Calculatrice #Pour TI82: pdf devient Fdp, et cdf devient Frép #Si on cherche P(X⩾k),cela équivaut à 1-P(x<k) et à faire simplement 1-P(x≤k-1)
#Approximation de la loi binomiale par la loi de Poisson #La loi binomiale et la loi de Poisson donnent les mêmes probabilités au centième près #Pour une loi binomiale, l'univers image est fini #Pour une loi de Poisson, l'univers image est infini
#Approximation de la loi binomiale par la loi normale #Approximation de la loi binomiale par la loi de Poisson
#Loi de Poisson #On dit que X suit une loi de Poisson de paramètre λ, noté X~Pois(X) #Une variable aléatoire suit une loi de Poisson lorsque la probabilité d'une occurrence (apparition) est très faible. La loi de Poisson est aussi appelée la loi des évènements rares
#Loi de Poisson #Proportionnalité (Par exemple sur une route: si j'ai 4 voitures qui passent sur 120 secondes, j'aurai 2 voitures qui passent sur 60 secondes simplement) #Aussi par exemple sur une route : si j'ai une 1 voiture qui passe sur 60 secondes sur un intervalle de 40minutes, cette fréquence sera inchangée sur 60 minutes soit p=1/60)
#Une heure n'est pas différente d'une autre, on va avoir exactement la même probabilité en une heure donnée qu'en une autre heure donnée #Source: KhanAcademyFrancophone
#Loi de Poisson #Exercice #Pour la réponse 4): E(Y)=E(4X)=4E(X)=4 car dans une note d'une page, X suit une loi de Poisson de paramètre 1 donc dans une note de 4 pages Y=4X
#Excellente vidéo #Source: Saïd Chermak #L'exercice au-dessus commence vers 45:00
#Corrigés:1) P(X⩾1)=0,3324 avec X↝B(20;0.02) 2) P(X⩾3)=0.080301 avec Y↝P(1) #PS:Les notations ↝ ou ~ sont équivalentes
#Loi géométrique #Pour P(X=k), sur TI82/83(dans 2nde+distrib), taper géomtFdp(p,k) #Pour P(≤k) sur TI82/83(dans 2nde+distrib), taper géomtFrép(n,k)
#Loi uniforme continue ##Le caractère discret ne concerne qu'un ensemble {.,.,.} de points #Le caractère continu concerne des intervalles complets [.,.] (Comprendre cela à l'aide d'un simple schéma rend ces notions assez limpides) #Il paraît évident que P(X=k)=0, et dire que P(X⩽k) ou P(X<K) revient au même raisonnement (comme P(a⩽X⩽b)=P(a<X<b))
#Loi des grands nombres #Echantillon de loi Bernoulli #Espérance,variance et écart-type de la loi binomiale
#Loi des grands nombres #Inégalité de Bienaymé-Tchebychev (PS: il est possible que le majorant soit ⩾1) #Inégalité de concentration
#Loi des grands nombres #L'écart entre la moyenne et l'espérance sera donc très faible vu que la distance tendra vers 0 (Rappel: quand |x|⩾a, alors x⩾a ou x⩽-a (un simple schéma clarifie parfaitement la chose)) #Plus la taille de l'échantillon n sera grande, plus l'écart entre la moyenne et l'espérance sera faible. Plus la taille de l'échantillon n sera grande, plus le majorant se rapprochera de zéro
#Loi normale #Plus la courbe est haute, plus l'écart type et la variance sont faibles #Plus la courbe est basse, moins l'écart type et la variance sont grands
#Remarque : si l'on s'attache aux CARRÉS des distances et non aux écarts eux-mêmes, c'est parce que cela permet des développements non vus sur cette page mais néanmoins indispensables (décomposition en variance expliquée et résiduelle et donc emploi du coefficient de détermination...)
#Excellente vidéo #Source : Saïd Chermak
#Pour trouver la droite d'ajustement #TI82: stats puis 4:EffListe puis Entrer puis 2nde 1,2nde2 (=L1,L2) puis Entrer(si les listes sont anciennes).Ensuite, aller dans stats, 1:Edite (on rentre les deux colonnes). Après stats, puis -> vers CALC puis 4:RégLin(ax+b) #Régression linéaire
#Droite d'ajustement #Ti82/83 #Source: Yann Monka
#Coefficient de corrélation linéaire #Une corrélation est considérée comme bonne pour |r|⩾0,8 (soit r≤-0.8 ou r⩾0,8)
#On peut calculer tout cela avec sûreté avec OpenOffice ou Excel avec des tableaux précis qui donnent la Covariance,les Ecarts types de X et Y et ainsi le coefficient de Corrélation
#Covariance #Corrélation #L'interprétation du résultat de la covariance a ses limites (peu instructive sur la dépendance), c'est ici que la notion de corrélation intervient #Une corrélation est considérée comme bonne pour |r|⩾0,8 (soit r≤-0.8 ou r⩾0,8) #Si r=1 ou r=-1 on dit que la corrélation est parfaite # #Corrélation linéaire #Par exemple: on peut estimer qu'il y a une corrélation (dépendance) entre le poids et la taille #Ajustement affine (2 variables) #Ajustement exponentiel (3 variables) #Ajustement puissance (4 variables)
#Corrélation #En haut à droite, j'aurai (+)(+) puis (+)(+) etc, en bas à gauche j'aurai (-)(-) puis (-)(-) etc (pour aboutir à une grande somme positive). Même raisonnement en haut en gauche et en bas à droite (pour aboutir à une grande somme négative). Conclusion: la covariance sera de plus en plus grande et la corrélation sera plus forte #En haut à droite, j'aurai (+)(+) puis (+)(+) etc, en haut à gauche j'aurai (-)(+) puis (-)(+) etc (pour aboutir à une petite somme positive ou négative). Même raisonnement en bas à gauche et en bas à droite (pour aboutir à une petite somme positive ou négative). Conclusion: la covariance sera de plus en plus petite et la corrélation sera plus faible (on aurait pu citer également en haut à droite et en bas à droite ou en haut en gauche et bas en gauche)
#Corrélation #De toute manière dans certaines situations, intuitivement on peut se faire une idée rapidement sur la corrélation (si je trace y=3 ou x=7 par exemple, on voit très bien que x et y n'ont aucune influence l'un sur l'autre (cf second cas dans le commentaire de l'illustration exprimé au-dessus))
#Corrélation #Covariance #Excellente vidéo #Source: Saïd Chermak
#Ajustement linéaire #Ajustement puissance #Ajustement exponentiel #Ajustement logarithmique #Ajustement parabolique #Ajustement cubique
#Ajustement affine (appelé également ajustement linéaire) #G(X̄,Ȳ) #On trouve un lien entre x et y, donc forcément cela aboutit à une droite d'équation #On a Y=aX+b (1) et Ȳ=aX̅+b (2), donc au final Y-Ȳ=a(X-X̅) sachant G(X̅,Ȳ)
#Ajustement puissance #Lire les variables du tableau (dans le bon ordre) comme étant x,y,t et z #Ajustement non-linéaire