Statistiques à deux variables Lois de probabilités Corrélation Nuage de points Un nuage de points est la donnée de n points du plan (que l’on supposera distincts). Point moyen Lois discrètes Variable aléatoire discrète π₯Μ = Covariance π π π=1 π=1 1 1 ∑ π₯π ππ‘ π¦Μ = ∑ π¦π π π π πππ(π, π) = π Μ )( ππ − π Μ ) ∑(ππ − π π π=π Propriétés : 1. 2. 3. Μ π Μ πππ(π, π) = ( ∑ππ=π ππ ππ ) − π π πππ(π, π) = π½(π) ∀(πΆ, π·, π, π) ∈ β, πππ(πΆπ + π·, ππ + π) = πΆππππ(π, π) Coefficient de corrélation Définition : Soient ππ et ππ les écarts-types des deux caractères, πππ(π, π) la covariance du couple (π, π). Le coefficient de corrélation noté π(π, π) de la série statistique à deux variables est par définition le réel : πππ(π, π) π= ππ ππ Théorème : |π| ≤ π Ajustement linéaire Principe On dispose d'un certain nombre de points (ππ , ππ), π ≤ π ≤ π, formant un nuage statistique, et on cherche à traduire la dépendance entre π et π par une relation de la forme π = ππ + π ou π = π′π + π′ où π, π, π′ et π′ sont des réels. Méthode des moindres carrés - Soient π΄π les points du nuage de coordonnées, dans un repère orthonormal et π« une droite d'équation : π = ππ + π. - Désignons par π―π le point de π« d'abscisse ππ. - La méthode des moindres carrés consiste à choisir pour une droite d'ajustement celle pour laquelle la quantité : π π(π, π) = ∑ π΄π π―π ² π=π πππ£(π₯, π¦) π(π₯) π = π¦Μ − ππ₯Μ π= Equation de la variance Variance résiduelle π π½π = π ∑(ππ − πΜπ )² π π=π Variance expliquée π π½π = π Μ )² ∑(πΜπ − π π π=π Théorème de la variance π(π¦) = ππ + ππ π π(π¦) = 1 ∑(π¦π − π¦Μ )² π π=1 1. 2. 3. 4. Espérance βπ (π₯) = β[π = π₯], ∀π₯ ∈ π(Ω) π Expression de ππ et ππ en fonction de π(π¦) et π ππ π2 = π ππ = π²π ππ = π − ππ = π(1 − π 2 ) Interprétation du coefficient de corrélation Si |π| = 1, il y a une dépendance linéaire totale (corrélation linéaire parfaite et les points de nuage sont alignés). Si |π| ≈ 1, il y a une dépendance linéaire de π₯ et π¦ d’autant plus forte que π est voisin de 1). Si |π| = 0, il y a une indépendance totale de π₯ et π¦. Si |π| ≈ 0, on a une corrélation linéaire très faible ou inexistante. π πΌ[π] = ∑ ππ π₯π = ∑ π₯π β[π = π₯π ] π=1 π est minimale. Détermination de π et π Ω→β π: { π → π(π) Loi de probabilité d’une variable aléatoire discrète π=1 Variance La variance mesure ainsi la déviation moyenne autour de la moyenne espérée E[X], et est définie par π΅ π½(πΏ) = πΌ[(πΏ − πΌ[πΏ])π ] = ∑ ππ (ππ − πΌ[πΏ])² π=π π½(πΏ) = πΌ[πΏπ ] − (πΌ[πΏ])² Théorème de la non-linéarité de la variance Pour toute variable aléatoire π et π, π ∈ π , on a π(ππ + π) = π²π(π) Ecart-type Etant donnée une variable aléatoire discrète X qui possède une espérance πΌ[πΏ] et une variance π½(πΏ), on appelle écart-type de πΏ le réel π(πΏ) = √π½(πΏ) Pour mesurer la dispersion d’une variable aléatoire πΏ autour de sa moyenne, on considère souvent en statistiques l’écart-type. En effet, la variance était homogène à πΏ² tandis que l’écart-type est homogène à πΏ. Propriété π(ππ + π) = |π|π(π) Inégalité de Markov πΌ[π] = π π ∀π > 0, β[π ≥ π] ≤ π Inégalité de Bienaymé-Tchebychev πΌ[π] = π π² ∀π > 0, β[|π − π| ≥ π] ≤ π² Lois classiques discrètes Loi uniforme Situation modèle : Tirage, ds le cas d’équiprobabilité, d’un élément parmi n éléments numérotés de 1 à n et X = num tiré. Définition : π → π(π) ou π → π({1, 2,· · · , π}) si 1 π(Ω) = {1,2, … , π}, ∀π ∈ {1,2, … , π}, β[π = π] = π π+1 π2 −1 Espérance et Variance : πΌ[π] = et π(π) = 2 12 Loi de Bernoulli Situation modèle : Epreuve de Bernoulli, p = probabilité de succès, X = nombre de succès. Définition : Epreuve de Bernoulli = expérience aléatoire →2 éventualités « succès » et « échec » π → π΅(π) ou π → π΅(1, π) si π(Ω) = {0,1}, β[π = 1] = π, β[π = 0] = 1 − π Espérance et Variance : πΌ[π] = π et π(π) = π(1 − π) Loi binomiale Définition : Répétition en nbr fini d’une épreuve de Bernoulli ds les mêmes condit° et de manière indé. π → π΅(π, π) si π(Ω) = {1, … , π}, π ∀π ∈ {1,2, … , π}β[π = π] = ( ) ππ (1 − π)π−π π Proba d’échec : π = 1 − π Espérance et Variance : πΌ[π] = ππ et π(π) = ππ(1 − π) Loi de Poisson Situation modèle : Il n’y en a pas vraiment. Les lois de Poisson mesurent par exemple des flux d’individus pendant un temps donné : nombre de clients à une caisse de supermarché pendant une heure, ou nombre de voitures se présentant à un péage d’autoroute pendant une période fixée ou le nombre d’appels reçus par un standard téléphonique, etc. Définition : Une variable aléatoire discrète X suit la loi de Poisson de paramètre π ∈]π, +∞[, ce que l’on note πΏ → π·(π), si πΏ(π) = β, ∀π ∈ β, β[πΏ = π] = Espérance et Variance : πΌ[πΏ] = π et π½(πΏ) = π ππ π! π−π Lois continues Fonction de répartition Définition : 1. 2. 3. 4. 5. Loi normale générale π΅(π, π) Définition : π → π(π, π 2 ) si π = πΉπ (π₯) = β[π ≤ π₯] = β[π < π₯] Propriétés : 0 ≤ πΉπ ≤ 1 πΉπ tend vers 0 en −∞ et vers 1 en +∞ πΉπ est croissante πΉπ est continue à droite β[π < π ≤ π] = πΉπ (π) − πΉπ (π) Densité de probabilité Densité : π(π₯) = π π 3. Propriétés : ∀π₯ ∈ β, π(π₯) ≥ 0 +∞ ∫−∞ π(π₯)ππ₯ = 1 √2ππ π π suit une loi normale centre réduite. Espérance et Variance : πΌ[π] = π et π(π) = π² Théorème Cas discret : X et Y indé ssi β[π = π₯, π = π¦] = β[π = π₯]β[π = π¦] Cas continu : X et Y indé ssi π(π , π‘) = π(π )π(π‘) Théorèmes limites Loi des grands nombres Soient π1 , … , ππ des VAR indé, de même loi π = πΌ[π1 ], ∀π > 0, π1 + β― + ππ β (π − π > π) → 0 π→+∞ π Théorème central limite β[π ≤ π ≤ π] = ∫ π(π‘) ππ‘ 1. 2. 1 π−π −(π₯−π)2 2π2 πΏ Soit (ππ )π∈β une suite de VAR et Y une VAR admettant une var. (ππ )π∈β → π si en tt pt π₯0 , on a : πΉππ (π₯0 ) = β[ππ ≤ π₯0 ] → πΉπ(π₯0 ) = β[π ≤ π₯0 ] π π→+∞ β[π < π ≤ π] = πΉπ (π) − πΉπ (π) = ∫π π(π₯)ππ₯ Si VA X a une densité f, alors ∀π, π[π = π] = 0. Paramètres d’une loi continue Espérance : Théorème (TCL) Soient π1 , … , ππ des VAR indé, de même loi, admettant une var. On note π = πΌ[π1 ] et π 2 = π(π1 ). Alors π1 + β― + ππ − ππ πΏ → π(0,1) ππππ ππ’π π → +∞ π√π Approximation d’une loi binomiale Approximation par une loi normale πΌ[π] = ∫ π‘π(π‘)ππ‘ β Soit g(x) une fct quelconque : On peut approcher la loi de la VAR πΌ[π(π)] = ∫ π(π‘)π(π‘)ππ‘ β Variance : π(π) = πΌ[(π − πΌ[π])2 ] = ∫ (π‘ − πΌ[π])2 π(π‘)ππ‘ β 2 π−ππ √ππ(1−π) par une loi π(0,1) ο³ approcher la loi de π par π(ππ, ππ(1 − π)). Pr que cette approx st bonne, il faut que la moy de la binomiale soit suffisamment grde devant son écart-type, donc ππ β« √ππ(1 − π), donc ππ β« 1 − π. Ds la pratique, on considère que l’approx est bonne lorsque π ≥ 30, ππ ≥ 5 et π(1 − π) > 5. π ne doit dc pas être trop proche de 0 ou de 1. π(π) = πΌ[π 2 ] − (πΌ[π])2 = ∫ π‘²π′π‘)ππ‘ − (∫ π‘π(π‘)ππ‘) β • • • β Propriétés : π(π) = 0 π(π + π) = π(π) π(ππ) = π²π(π) Ecart-type : Soit ππ une VAR binomiale (n,p). On suppose que π → +∞ et π = ∀π ∈ β, lim β[ππ = π] = π(π) = √π(π) π→+∞ Quantile q : π πΉπ−1 ( ) , π ∈ {1,2, … , π − 1} π Lois usuelles Loi uniforme π → π([π, π]) si sur [a,b] : 1 π π π₯ ∈ [π, π] 0 π ππππ. π+π (π−π)² Espérance et Variance : πΌ[π] = et π(π) = Densité : π(π₯) = {π−π 2 12 0 π π π₯ ≤ π π π π₯ ∈ [π, π] π₯−π Fonction de répartition : πΉπ (π₯) = {π−π 1 π π π₯ ≥ π Loi exponentielle Définition : π > 0, π → E(λ) −ππ₯ π π π₯ ≥ 0 Densité : π(π₯) = ππ −ππ₯ 1β+ (π₯) = {ππ 0 π ππππ 1 1 Espérance et Variance : πΌ = et π(π) = π π² Fonction de répartition : π₯ −ππ₯ π π π₯ ≥ 0 πΉπ (π₯) = ∫ π(π‘)ππ‘ = {1 − π 0 π ππππ −∞ La loi exp est utilisée en fiabilité. π rép le taux moyen de défaillance alors 1 que π = est le temps moyen de bon fonctionnement. π Loi normale Loi normale centrée réduite (loi gaussienne) π΅(π, π) Définition : π → π(0,1) Densité : π(π₯) = Approximation par une loi de Poisson Lorsque π est très petit, π < 0.1 et π > 50. 1 √2π π₯2 π− 2 Fonction de répartition : π₯ πΉπ (π₯) = ∫ 1 π‘2 π − 2 ππ‘ −∞ √2π Espérance et Variance : πΌ[π] = 0 et π(π) = 1 ππ −π π π! π π où π > 0.