#Expérience #Issues #Univers #Source: Yvan Monka
#Evènement #Evènements élémentaires
#Evènements incompatibles
#Espérance #Variance #Ecart-type #L'écart-type, la variance mesurent la dispersion des Xi autour des X̅ #Si la variance est nulle, alors la variable aléatoire est constante
#Calculatrice #Trouver moyenne, écart type et variance
#Espérance linéaire #Espérance positive #Espérance croissante
#Formule de Köning-Huygens
#Inégalité de Bienaymé-Tchebychev #Inégalité de Markov #∀t>0
#Inégalité de Markov #∀a>0
#Inégalité de Markov #Démonstration #Cas discret
#Inégalité de Markov #Démonstration #Cas continu
#Inégalité de Bienaymé-Tchebychev (PS: il est possible que le majorant soit ⩾1) #INTERPRETATION DANS UN EXERCICE : la probabilité que l'écart entre X et E(X) soit supérieure à α est majorée par M (soit σ²/ α²) #On passe facilement de l'inégalité de Markov vers celle de Bienaymé-Tchebychev en utilisant |X-E(X)|⩾a,puis en faisant Y=|X-E(X)|²⩾a² et sachant V(X)=E(X-E(X))²
#Inégalité de Bienaymé-Tchebychev #Inégalité de Markov #Il suffit de réaliser des simples schémas pour se rendre compte de la limpidité des propriétés
#k-liste #Arrangement #Permutation #Combinaison
#Univers image #X la variable aléatoire qui associe le numéro obtenu
#Système complet d'évènements
#Système complet d’événements associé à une variable aléatoire
#Probabilité sur un univers fini
#Probabilité uniforme #Evénements équiprobables
#Complémentaire et différence #Croissance #Formule du crible
#Distribution de probabilités #Détermination d’une probabilité sur les événements élémentaires
#Loi d'une variable aléatoire
#Loi uniforme #Loi de Bernoulli
#Définition implicite d’un espace probabilisé par la donnée d’une distribution de probabilités
#Probabilités conditionnelles
#Probabilités conditionnelles
#Probabilités conditionnelles #Indépendance
#Probabilités conditionnelles
#Probabilités conditionnelles #Arbre
#Probabilités conditionnelles #Notations
#Formule des probabilités totales
#Formule des probabilités composées #Lois conditionnelles d’une variable aléatoire
#Evénements indépendants #Par exemple: le tirage suivant n'est pas influencé par le précédent (il n'y a pas de "sachant que") #Deux évènements sont indépendants si la réalisation ou non de l'un des évènements n'a pas d'incidence sur la probabilité de réalisation de l'autre évènement
#Indépendance et complémentaires #Loi binomiale
#Variables aléatoires indépendantes
#Existence d’une famille finie de variables aléatoires indépendantes de lois prescrites #Lemme des coalitions
#Loi conjointe et lois marginales d’une famille de variables aléatoires
#Loi uniforme et produit cartésien
#Calcul des lois marginales à partir de la loi conjointe
#Sommes de variables aléatoires indépendantes de lois binomiales
#Loi binomiale #Un schéma de Bernoulli est une répétition de n épreuves identiques de Bernoulli de même probabilité de succès p et indépendantes les unes des autres #Pour P(X=k), sur TI82/83(dans 2nde+distrib), taper binomFdp(n,p,k) #Pour P(≤k) sur TI82/83(dans 2nde+distrib), taper binomFrép(n,p,k) #Si je fais tendre k vers+∞, la loi binomiale tendra vers une loi de Poisson #( ) retranscrit le nombre de combinaisons (par exemple, si j'ai n branches similaires (peu importe le bon ordre) dans mon arbre de probabilité, la combinaison sera égale à n)
#Combinaison #Loi binomiale
#Loi binomiale #Loi de Poisson #Loi normale #Calculatrice #Pour TI82: pdf devient Fdp, et cdf devient Frép #Si on cherche P(X⩾k),cela équivaut à 1-P(x<k) et à faire simplement 1-P(x≤k-1)
#Approximation de la loi binomiale par la loi de Poisson #La loi binomiale et la loi de Poisson donnent les mêmes probabilités au centième près #Pour une loi binomiale, l'univers image est fini #Pour une loi de Poisson, l'univers image est infini
#Approximation de la loi binomiale par la loi de Poisson #Démonstration
#Approximation de la loi binomiale par la loi normale #Approximation de la loi binomiale par la loi de Poisson
#Loi de Poisson #On dit que X suit une loi de Poisson de paramètre λ, noté X~Pois(X) #Une variable aléatoire suit une loi de Poisson lorsque la probabilité d'une occurrence (apparition) est très faible. La loi de Poisson est aussi appelée la loi des évènements rares
#Loi de Poisson #Proportionnalité (Par exemple sur une route: si j'ai 4 voitures qui passent sur 120 secondes, j'aurai 2 voitures qui passent sur 60 secondes simplement) #Aussi par exemple sur une route : si j'ai une 1 voiture qui passe sur 60 secondes sur un intervalle de 40minutes, cette fréquence sera inchangée sur 60 minutes soit p=1/60)
#Une heure n'est pas différente d'une autre, on va avoir exactement la même probabilité en une heure donnée qu'en une autre heure donnée #Source: KhanAcademyFrancophone
#Stabilité de la loi de Poisson par la somme
#Table de la loi de Poisson
#Loi de Poisson #Exercice
#Loi de Poisson #Exercice
#Loi de Poisson #Exercice #Pour la réponse 4): E(Y)=E(4X)=4E(X)=4 car dans une note d'une page, X suit une loi de Poisson de paramètre 1 donc dans une note de 4 pages Y=4X
#Excellente vidéo #Source: Saïd Chermak #L'exercice au-dessus commence vers 45:00
#Corrigés:1) P(X⩾1)=0,3324 avec X↝B(20;0.02) 2) P(X⩾3)=0.080301 avec Y↝P(1) #PS:Les notations ↝ ou ~ sont équivalentes
#Loi géométrique #Pour P(X=k), sur TI82/83(dans 2nde+distrib), taper géomtFdp(p,k) #Pour P(≤k) sur TI82/83(dans 2nde+distrib), taper géomtFrép(n,k)
#Loi géométrique #Espérance #Variance
#Loi géométrique #Espérance #Variance #Démonstrations
#Loi uniforme discrète #Exemple
#Loi uniforme continue ##Le caractère discret ne concerne qu'un ensemble {.,.,.} de points #Le caractère continu concerne des intervalles complets [.,.] (Comprendre cela à l'aide d'un simple schéma rend ces notions assez limpides) #Il paraît évident que P(X=k)=0, et dire que P(X⩽k) ou P(X<K) revient au même raisonnement (comme P(a⩽X⩽b)=P(a<X<b))
#Loi uniforme continue #Exemple
#Axiomatique de Kolmogorov
#Loi du zéro-un de Kolmogorov
#Inégalité maximale de Kolmogorov
#Loi des grands nombres #Somme de variables aléatoires #Source: Yvan Monka
#Loi des grands nombres #Espérance et variance de combinaisons linéaires de variables aléatoires
#Loi des grands nombres #Application à la loi binomiale #Echantillon d'une loi de probabilité
#Loi des grands nombres #Echantillon de loi Bernoulli #Espérance,variance et écart-type de la loi binomiale
Loi des grands nombres #Moyenne d'un échantillon #Variable aléatoire moyenne
#Loi des grands nombres #Inégalité de Bienaymé-Tchebychev (PS: il est possible que le majorant soit ⩾1) #Inégalité de concentration
#Loi des grands nombres #L'écart entre la moyenne et l'espérance sera donc très faible vu que la distance tendra vers 0 (Rappel: quand |x|⩾a, alors x⩾a ou x⩽-a (un simple schéma clarifie parfaitement la chose)) #Plus la taille de l'échantillon n sera grande, plus l'écart entre la moyenne et l'espérance sera faible. Plus la taille de l'échantillon n sera grande, plus le majorant se rapprochera de zéro
#Loi forte des grands nombres
#Variables aléatoires discrètes #Source: Bibm@th
#Variables aléatoires discrètes
#Variables aléatoires discrètes
#Variables aléatoires discrètes
#Variables aléatoires discrètes
#Variables aléatoires discrètes
#Variables aléatoires discrètes
#Variables aléatoires discrètes
#Variables aléatoires discrètes ##Variables aléatoires continues
#Variables aléatoires continues
#Variables aléatoires à densité
#Variables aléatoires à densité
#Variables aléatoires à densité
#Variables aléatoires à densité #Lois uniforme
#Variables aléatoires à densité #Lois exponentielles
#Variables aléatoires à densité #Lois normales
#Loi normale #Plus la courbe est haute, plus l'écart type et la variance sont faibles #Plus la courbe est basse, moins l'écart type et la variance sont grands
#Loi normale #Calculatrice
#Loi normale #Théorème de Moivre-Laplace
#Variables aléatoires à densité #Théorème de Moivre-Laplace
#Méthode des moindres carrés
#Remarque : si l'on s'attache aux CARRÉS des distances et non aux écarts eux-mêmes, c'est parce que cela permet des développements non vus sur cette page mais néanmoins indispensables (décomposition en variance expliquée et résiduelle et donc emploi du coefficient de détermination...)
#Méthode des moindres carrés #Démonstration
#Rappel pour les extremas
#Méthode des moindres carrés #Démonstration
#Méthode des moindres carrés #Démonstration
#Excellente vidéo #Source : Saïd Chermak
#Pour trouver la droite d'ajustement #TI82: stats puis 4:EffListe puis Entrer puis 2nde 1,2nde2 (=L1,L2) puis Entrer(si les listes sont anciennes).Ensuite, aller dans stats, 1:Edite (on rentre les deux colonnes). Après stats, puis -> vers CALC puis 4:RégLin(ax+b) #Régression linéaire
#Droite d'ajustement #Ti82/83 #Source: Yann Monka
#Formule de la covariance
#Coefficient de corrélation linéaire #Une corrélation est considérée comme bonne pour |r|⩾0,8 (soit r≤-0.8 ou r⩾0,8)
#Covariance #Une corrélation est considérée comme bonne pour |r|⩾0,8 (soit r≤-0.8 ou r⩾0,8)
#On peut calculer tout cela avec sûreté avec OpenOffice ou Excel avec des tableaux précis qui donnent la Covariance,les Ecarts types de X et Y et ainsi le coefficient de Corrélation
#Covariance #Corrélation #L'interprétation du résultat de la covariance a ses limites (peu instructive sur la dépendance), c'est ici que la notion de corrélation intervient #Une corrélation est considérée comme bonne pour |r|⩾0,8 (soit r≤-0.8 ou r⩾0,8) #Si r=1 ou r=-1 on dit que la corrélation est parfaite # #Corrélation linéaire #Par exemple: on peut estimer qu'il y a une corrélation (dépendance) entre le poids et la taille #Ajustement affine (2 variables) #Ajustement exponentiel (3 variables) #Ajustement puissance (4 variables)
#Corrélation #En haut à droite, j'aurai (+)(+) puis (+)(+) etc, en bas à gauche j'aurai (-)(-) puis (-)(-) etc (pour aboutir à une grande somme positive). Même raisonnement en haut en gauche et en bas à droite (pour aboutir à une grande somme négative). Conclusion: la covariance sera de plus en plus grande et la corrélation sera plus forte #En haut à droite, j'aurai (+)(+) puis (+)(+) etc, en haut à gauche j'aurai (-)(+) puis (-)(+) etc (pour aboutir à une petite somme positive ou négative). Même raisonnement en bas à gauche et en bas à droite (pour aboutir à une petite somme positive ou négative). Conclusion: la covariance sera de plus en plus petite et la corrélation sera plus faible (on aurait pu citer également en haut à droite et en bas à droite ou en haut en gauche et bas en gauche)
#Corrélation #De toute manière dans certaines situations, intuitivement on peut se faire une idée rapidement sur la corrélation (si je trace y=3 ou x=7 par exemple, on voit très bien que x et y n'ont aucune influence l'un sur l'autre (cf second cas dans le commentaire de l'illustration exprimé au-dessus))
#König-Huygens #Espérance #Variance #La pondération est équivalente (d'où 1/n)
#König-Huygens #Démonstration
#Corrélation #Covariance #Excellente vidéo #Source: Saïd Chermak
#Ajustement linéaire #Ajustement puissance #Ajustement exponentiel #Ajustement logarithmique #Ajustement parabolique #Ajustement cubique
#Ajustement affine (appelé également ajustement linéaire) #G(X̄,Ȳ) #On trouve un lien entre x et y, donc forcément cela aboutit à une droite d'équation #On a Y=aX+b (1) et Ȳ=aX̅+b (2), donc au final Y-Ȳ=a(X-X̅) sachant G(X̅,Ȳ)
#Ajustement exponentiel #Ajustements non-linéaires (exponentiel,puissance,logarithmique)
#Ajustement exponentiel #Ajustement non-linéaire
#Ajustement puissance #Ajustement non-linéaire
#Ajustement puissance #Lire les variables du tableau (dans le bon ordre) comme étant x,y,t et z #Ajustement non-linéaire
#Ajustement logarithmique #Pour trouver a et b, utiliser la méthode des moindres carrés
#Ajustement logarithmique #Pour trouver a et b, utiliser la méthode des moindres carrés
#Ajustement logarithmique #Pour trouver a et b, utiliser la méthode des moindres carrés
#Lois usuelles #Synthèse #Bernoulli #Binomiale #Uniforme #Géométrique #Poisson
Loi de Kolmogorov-Smirnov
Loi de Kolmogorov-Smirnov
#Table de la loi de Kolmogorov-Smirnov
#Table de la loi de Kolmogorov-Smirnov