Uploaded by claire.coiffard

Introduction Chaines de Markov

advertisement
Probabilités et Statistiques - Compléments et
applications
13 décembre 2011
2
Table des matières
1
Chaînes de Markov
1.1 Définitions . . . . . . . . . . . . . . . . . . . . .
1.2 Classification des états . . . . . . . . . . . . . .
1.3 Temps d’arrêt - propriété de Markov forte . . .
1.4 Etats récurrents et transitoires . . . . . . . . . .
1.5 Probabilités invariantes et théorème ergodique
1.6 Le cas apériodique . . . . . . . . . . . . . . . .
1.7 Chaîne de Markov réversible . . . . . . . . . .
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
8
9
10
10
13
14
4
Chapitre 1
Chaînes de Markov
1.1
Définitions
Soit E un espace dénombrable, appelé « espace d’états ». On considère une suite de
variables aléatoires {Xn : n ∈ N} à valeurs dans E.
Définition 1. Le processus stochastique {Xn : n ∈ N} à valeurs dans E est appelé chaîne de Markov si pour tout n ∈ N, la loi conditionnelle de Xn+1 sachant
X0 , X1 , . . . , Xn est égale à la loi conditionnelle sachant Xn . En termes mathématiques,
pour tout x0 , . . . , xn , xn+1 ,
P(Xn+1 = xn+1 |X0 = x0 , X1 = x1 , . . . , Xn = xn ) = P(Xn+1 = xn+1 |Xn = xn )
(1.1.1)
Remarque 1. Cette propriété (appelée « propriété de Markov faible ») caractérise
l’absence de mémoire d’une chaîne de Markov.
Proposition 1.1.1. Soient E et F deux ensembles dénombrables. Soit f : N × E × F → E.
Soit X0 à valeurs dans E et {Yn : n ≥ 0} à valeurs dans F globalement indépendantes. Alors
le processus défini pour n ≥ 0 par :
Xn+1 = f (Xn , Yn+1 , n)
est une chaîne de Markov.
Définition 2. Une chaîne de Markov {Xn : n ∈ N} est dite homogène si P(Xn+1 =
xn+1 |Xn = xn ) ne dépend pas de n.
5
CHAPITRE 1. Chaînes de Markov
La chaîne de Markov est alors entièrement déterminée par la matrice de transition
Pxy = P(Xn+1 = y|Xn = x)
Définition 3. Une matrice P = (Pxy ; x, y ∈ E) est une matrice de transition (ou matrice
stochastique) si chaque ligne est une distribution de probabilité. C’est à dire
X
Pxy ≥ 0 et pour tout x ∈ E,
Pxy = 1.
y∈E
Une chaîne de Markov est entièrement déterminée par une loi initiale (la loi de X0 ) et
la matrice de transition.
Définition 4. Soit µ une mesure de probabilité et P une matrice markovienne. Un
processus stochastique {Xn : n ∈ N} est une chaîne de Markov (µ, P) de loi initiale µ
et de matrice de transition P = [pxy ] si
• P(X0 = x) = µx , ∀x ∈ E,
• P(Xn+1 = y|Xn = x) = Pxy , ∀x, y ∈ E
Proposition 1.1.2. Une CNS pour qu’un processus {Xn : n ∈ N} soit une chaîne de Markov
(µ, P) est que pour tout n ∈ N,
P(X0 = x0 , X1 = x1 , . . . , Xn = xn ) = µx0 Px0 x1 × . . . × Pxn−1 xn .
A toute matrice de transition, on peut associer un graphe orienté, les sommets étant
les états de la chaîne de Markov.


 1 − α

α
Exemple 1. A la matrice stochastique P = 
, nous associons le graphe
β
1−β 
orienté suivant.
β
1−α
A
B
1−β
α


 0 2/3 1/3 


Exemple 2. A la matrice stochastique P =  0 1/5 4/5 , nous associons le graphe


1 0
0 
orienté suivant.
6
1.1 Définitions
A
1
2/3
1/5
1/3
B
4/5
C
Les équations de Chapman-Kolmogorov permettent d’établir les probabilités de transition en n étapes à partir de la matrice de transition.
Proposition 1.1.3. Soit {Xn : n ∈ N} une chaîne de Markov (µ, P). Alors,
• P(Xn = y|X0 = x) = P(Xn+p = y|Xp = x) = (Pn )xy ,
P
• P(Xn = y) = (µPn ) y (= x∈E µx Pnxy ),
Formulation plus générale de la propriété de MARKOV faible :
On se donne une chaîne de Markov {Xn : n ≥ 0} à valeurs dans E. On note Px
la probabilité conditionnelle, sachant X0 = x. On note Fn la tribu engendrée par
X0 , . . . , Xn . (C’est l’ensemble des évènements se produisant jusqu’à l’instant n.)
Théorème 1.1.4. Soit {Xn : n ≥ 0} une chaîne de Markov (µ, P). Alors, pour tout n ∈ N,
x ∈ E, conditionnellement à {Xn = x}, {Xn+p : p ≥ 0} est une chaîne de Markov (δx , P)
indépendante de (X0 , . . . , Xn ). Autrement dit, pour tout A ∈ Fn
P(A ∩ (Xn+1 = x1 , . . . , Xn+p = xp )|Xn = x) = P(A|Xn = x)Px (X1 = x1 , . . . , Xp = xp ).
Démonstration. Il suffit de faire la preuve dans le cas A = {X0 = y0 , X1 = y1 , . . . , Xn =
yn } (A est une réunion au plus dénombrable d’événements disjoints d cette forme et
le cas général s’en déduira donc par la σ-additivité de P). Il suffit de considérer le cas
yn = x car dans le cas contraire les deux membres de l’égalité sont nuls. Le membre
de gauche de l’égalité de l’énoncé vaut
P(X0 = y0 , . . . , Xn = x, Xn+1 = x1 , . . . , Xn+p = xp )
,
P(Xn = x)
ce qui vaut, en appliquant deux fois la proposition 1.1.2
P(A)
× Pxx1 × Px1 x2 × . . . × Pxp−1 xp ,
P(Xn = x)
7
CHAPITRE 1. Chaînes de Markov
soit
P(A|Xn = x)Px (X1 = x1 , . . . , Xp = xp ).
1.2
Classification des états
Définition 5. Soit {Xn : n ∈ N}, une chaîne de Markov (µ, P). On dit que y est
accessibles depuis x s’il existe k ∈ N tel que P(Xn+k = y|Xn = x) > 0. On note i → j.
On dit que x et y communiquent (x ↔ y) si x → y et y → x.
Proposition 1.2.1. x → y si et seulement si il existe n ∈ N tel que p(n)
xy > 0.
Proposition 1.2.2. La relation ↔ est une classe d’équivalence.
On peut donc partionner E en ensembles de valeurs qui communiquent.
Définition 6. Une classe C est dite fermée si x ∈ C et x → y implique y ∈ C.
Remarquons ici que cela signifie qu’on ne peut pas sortir d’une classe fermée.
Définition 7. Si la chaîne de Markov ne possède qu’une unique classe, c’est à dire
que tous ses éléments communiquent, la chaîne sera dite irréductible.
Exemple 3. Considérons la chaîne de Markov suivante.
1/2
2/3
1/4
1/2
A
1/3
C
B
1/4
1/2
Cette chaîne est irréductible car tous les états communiquent. Bien que pAC = 0,
p(n)
> 0 pour n ≥ 2.
AC
Définition 8. Un état x est dit absorbant si {x} est une classe fermée.
Nous avons donc pxx = 1. Une chaîne présentant un état absorbant ne peut donc pas
être irréductible.
8
1.3 Temps d’arrêt - propriété de Markov forte
1.3
Temps d’arrêt - propriété de Markov forte
Définition 9. Soit {Xn : n ∈ N}, une chaîne de Markov (µ, P). Pour tout A ⊂ E, le
temps d’atteinte de A est
TA = inf{n ≥ 1 : Xn ∈ A}.
Notons pA|x = P(TA < ∞|X0 = x) la probabilité d’atteindre A.
Définition 10. Si A est une classe fermée de E, pA|x est appelée probabilité d’absoption.
Pour tout n ∈ N, on note Fn la tribu des événements déterminés par X0 , . . . , Xn .
Définition 11. Une variable aléatoire T à valeurs dans N ∪ {+∞} est appelé un temps
d’arrêt si pour tout n ∈ N,
{T = n} ∈ Fn .
Cela signifie que l’observation de la chaîne jusqu’à l’instant n permet de déterminer
si {T = n} ou pas.
Remarque 2. Le temps d’atteinte d’une classe est un temps d’arrêt. En effet,
{T = n} = {X0 < A, X1 < A, . . . , Xn−1 < A, Xn ∈ A}.
Par contre, le dernier temps de passage en A, LA = sup{n ≥ 1 : Xn ∈ A} n’est pas un
temps d’arrêt.
Si T est un temps d’arrêt pour la chaîne, on note mathcalFT la tribu engendrée par
(X0 , . . . , XT ).
Théorème 1.3.1. Propriété de Markov forte Soit {Xn : n ≥ 0} une chaîne de Markov (µ, P)
et T un temps d’arrêt. Conditionnellement en {T < ∞} ∩ {XT = x}, {XT+n : n ≥ 0} est une
chaîne de Markov (δx , P) indépendante de FT . Autrement dit, pour tout A ∈ FT :
P(A ∩ {XT+1 = x1 , . . . , XT+p = xp }|XT = x, T < ∞)
= P(A|XT = x, T < ∞) × Px (X1 = x1 , . . . , Xp = xp ).
9
CHAPITRE 1. Chaînes de Markov
1.4
Etats récurrents et transitoires
On note Px la probabilité conditionnelle, sachant que X0 = x. On définit le temps
d’atteinte
Tx = inf{n ≥ 1 : Xn = x}.
Définition 12.
• L’état x ∈ E est dit récurrent si Px (Tx < ∞) = 1.
• L’état x ∈ E est dit transitoire si Px (Tx < ∞) < 1.
Définition 13.
• L’état est dit récurrent nul si Ex (Tx ) = ∞,
• L’état est dit récurrent positif si E(Tx ) < ∞.
En d’autres termes, cela signifie que pour un état récurrent positif, le système y passe
une partie non négligeable de son temps, alors que pour un état récurrent nul x, le
système passe toujours infiniment souvent par l’état x, mais les temps de passage en
x sont de plus en plus espacés dans le temps.
Proposition 1.4.1. Toute chaîne de Markov irréductible sur un espace fini E est récurrente
irréductible (c’est à dire irréductible et tous les états sont récurrents).
1.5
Probabilités invariantes et théorème ergodique
Définition 14. Soit P une matrice de transition. Une probabilité π sur E est dite
invariante (ou stationnaire) pour P si elle vérifie
πP = π,
i.e.
∀x ∈ E,
X
π y P yx = πx .
y∈E
En d’autres termes, une probabilité π est invariante ou stationnaire pour la chaîne de
Markov {Xn : n ∈ N} si pour tout n ≥ 0, pour tout x ∈ E,
P(Xn = x) = π(x) ⇒ P(Xn+1 = x) = π(x).
10
1.5 Probabilités invariantes et théorème ergodique
Remarque 3. Une probabilité invariante est une probabilité qui vérifie, pour tout
x ∈ E,
X
π y P yx = πx (1 − Pxx ),
y,x
ce qui s’écrit aussi
P(Xn , x, Xn+1 = x) = P(Xn = x, Xn+1 , x).
Cela signifie que le nombre moyen de départs de l’état x entre les instants n et n+1 est
égal au nombre moyen d’arrivées à l’état x entre n et n + 1, caractérisant une propriété
d’« équilibre » de la probabilité invariante.
Théorème 1.5.1. Soit {Xn : n ∈ N} une chaîne de Markov de matrice de transition P,
récurrente irréductible. Alors il existe une mesure strictement positive invariante π pour P,
unique à une constante multiplicative près.
Théorème 1.5.2. Soit {Xn : n ∈ N} une chaîne de Markov irréductible. Un état x est récurrent positif ssi tous les états sont récurrents positifs, ssi il existe une probabilité invariante,
et dans ce cas elle est donnée par πx = 1/Ex (Tx )
Théorème 1.5.3. Si E est fini, alors
– existence : il existe au moins une probabilité stationnaire
– unicité : la loi stationnaire est unique ssi la chaîne admet une seule classe récurrente. De
plus, si C désigne cette classe, πx > 0 ssi x ∈ C et πx = 0 ssi x < C.
Cela signifie qu’une probabilité invariante ne charge que les états récurrents. D’autre
part, s’il y a plusieurs classes récurrentes, on associe une probabilité invariante à
chacune, dont le support est cette classe, et toutes les mesures invariantes s’obtiennent
comme combinaisons linéaire convexe des précédentes. Donc dès qu’il existe au
moins deux classes récurrentes, il y a une infinité de probabilités invariantes.
Exemple 4. Considérons la chaîne de Markov de matrice de transition


 0 1/2 1/2 0 


 0 1
0 0 



 0 0
0 1 



0 0
1 0
11
CHAPITRE 1. Chaînes de Markov
alors {2} et {3, 4} sont deux classes récurrentes : on a pas unicité de la distribution
stationnaire. En effet, π = (0, 1 − 2p, p, p) pour tout p ∈ (0, 1/2).
Exemple 5. Considérons la chaîne de Markov de matrice de transition


 1/5 1/5 3/5 


 0 1/2 1/2 




1
0
0 
La distribution invariante est donnée par la résolution du système




x = x/5 + z




 y = x/5 + y/2





z = 3x/5 + z/2
La probabilité invariante est donc (5/11, 2/11, 4/11).
Nous allons maintenant énoncer le théorème ergodique, qui est une généralisation
de la loi des grands nombres.
Théorème 1.5.4. Considérons une chaîne de Markov irréductible et récurrente positive.
Désignons par π = (πx , x ∈ E) son unique probabilité invariante. Si f : E → R est bornée,
alors
n
X
1X
f (Xk ) −→
πx f (x) p.s.
n→∞
n
x∈E
k=1
Un cas particulier de ce théorème nous dit que dans le cas irréductible récurrent
positif,
n
1X
1{Xk =y} −→ π y p.s.
n
k=1
Cela signifie que le temps relatif passé par une trajectoire de la chaîne dans l’état y
converge presque sûrement vers π y .
12
1.6 Le cas apériodique
1.6
Le cas apériodique
Partant de l’équation précédente, si nous prenons l’espérance sous Px , nous obtenons
n
1X k
(P )xy → π y ,
n
∀x, y ∈ E
k=1
On voit que les moyennes de Césaro des (Pk )xy convergent. La question est alors de
savoir s’il y a convergence simple, i.e.
(Pn )xy → π y ,
n→∞
∀x, y ∈ E
Définition 15. On appelle d période de l’état x ∈ E le PGCD de tous les n tels que
p(n)
xx > 0. Si d = 1 on dit que x est apériodique.
Proposition 1.6.1. Un état x est dit apériodique s’il existe N tel que p(n)
xx > 0 pour tout
n ≥ N.
Démonstration. Correction en TD.
Proposition 1.6.2. Si P est irréductible et s’il existe un état apériodique x, alors pour tout
y, z ∈ E, il existe M tel que (Pn ) yz > 0 pour tout n ≥ M. En particulier, tous les états sont
apériodiques.
Démonstration. D’après l’irréductibilité, il existe r, s ∈ N tels que (Pr ) yx > 0 et (Ps )xz >
0. Ainsi,
(Pr+n+s ) yz ≥ (Pr ) yx (Pn )xx (Ps )xz > 0,
dès que n ≥ N. On a donc la propriété voulue pour M = N + r + s.
Nous pouvons remarquer que dans le cas où P est irréductible, récurrente et positive,
si π est la probabilité invariante alors nous avons π y > 0 pour tout y ∈ E. Donc il est
évident que (Pn )xy > 0 à partir d’un certain rang est une condition nécessaire pour
que (Pn )xy → π y . On va voir maintenant que c’est une condition suffisante.
Théorème 1.6.3. Soit {Xn : n ≥ 1} une chaine de Markov (µ, P) et supposons P irréductible,
récurrent positif et apériodique. Soit π l’unique probabilité invariante. Alors, pour tout y ∈ E,
P(Xn = y) → π y ,
n→∞
13
CHAPITRE 1. Chaînes de Markov
soit
(µPn ) y → π y .
n→∞
En particulier, pour tout x, y ∈ E,
(Pn )xy → π y .
n→∞
Démonstration.
1.7
Chaîne de Markov réversible
La notion de réversibilité liée au retournement du temps peut faciliter la recherche
d’une probabilité invariante. Etant donnée une chaîne de Markov {Xn : n ∈ N}, alors
pour tout N ∈ N on appelle chaîne retournée la chaîne {X̂nN = XN−n : 0 ≤ n ≤ N}. La
chaîne retournée est encore une chaîne de Markov.
Proposition 1.7.1. Soit {Xn : n ∈ N} une chaîne de Makrov (π, P), avec π probabilité
invariante et P irréductible. Alors la chaîne retournée {X̂nN : 0 ≤ n ≤ N} vérifie pour tout
x, y ∈ E,
π y P̂ yx = πx Pxy .
Démonstration. Notons n = N − p − 1.
P(X̂p+1 = x|X̂p = y) = P(Xn = x|Xn+1 = y)
= P(Xn+1 = y|Xn = x) ×
P(Xn = x)
.
P(Xn+1 = y)
Définition 16. On dit que la chaîne {Xn : n ∈ N} est réversible si P̂ = P, c’est à dire si
pour tout x, y ∈ E,
πx Pxy = π y P yx ,
avec π probabilité invariante pour P. Cette relation est souvent appelée « relation
d’équilibre ponctuel ».
Remarque 4. Si une probabilité π vérifie la relation d’équilibre ponctuel, alors elle
est invariante par P. En effet, il suffit pour cela de sommer sur x ∈ E.
14
1.7 Chaîne de Markov réversible
Lorsqu’on cherche la loi invariante d’une chaîne de Markov récurrente irréductible
de matrice de transition P, on peut donc chercher une loi qui satisfasse la relation
d’équilibre ponctuel πx Pxy = π y P yx pour tout x, y ∈ E plutôt que de résoudre l’équation πP = π. Néanmoins, cette équation n’a de solution que si la chaîne est réversible
par rapport à son unique probabilité invariante, ce qui n’est pas toujours vrai.
15
Download