Cominciamo col capire cosa sono le catene di Markov. Prendiamo un meteo, in cui si hanno soltanto due stati:
- sole,
;
- nuvoloso,
.
Se oggi c'è il sole, allora domani ci sarà
- sole con probabilità
;
- nuvoloso con probabilità
.
Al contrario, se oggi è nuvoloso, allora domani ci sarà
- sole con probabilità
;
- nuvoloso con probabilità
.
Questa è una catena di Markov. Il tempo di domani dipende dal tempo di oggi, e non dal tempo di ieri; inoltre, la probabilità che esce da ogni stato è unitaria, quindi anche la probabilità che in un dato istante si sia in un determinato punto soddisferà anch'essa la proprietà di uniterietà.
Definizione: Processo di Markov
Il processo
![{\displaystyle \{X(t),t\in T\}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/99c9dbf9c57283578c6c0720600a8d0d897334ea)
è un processo di Markov se
In altre parole, possiamo scrivere che una variabile casuale
dipende solo dalla variabile casuale
, mentre è indipendente da tutte le variabili casuali precedenti l'istante
.
Implicazioni:
- la probabilità del futuro, dato passato e presente, dipende solo dal presente.
- la probabilità del futuro, congiunta a quella del passato e conoscendo il presente, è
![{\displaystyle P({\text{futuro}}|{\text{passato}},{\text{presente}})=P({\text{futuro}}|{\text{presente}})\cdot P({\text{presente}}|{\text{passato}})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4d88c76cd45861621c921ca54e7b8aafbbe609a1)
- Gli eventi che soddisfano questa seconda condizione sono detti condizionalmente indipendenti, cioè sono indipendenti soltanto se vi è la conoscenza dello stato intermedio. Nel caso in cui non si conosca il presente, allora passato e futuro non sono più indipendenti.
Densità di probabilità del processo di Markov
[modifica]
![{\displaystyle f_{X(t_{n})|X(t_{n-1})\cdots X(t_{1})}(x_{n}|x_{n-1},x_{n-2}\cdots x_{1})=f_{X(t_{n})|X(t_{n-1})}(x_{n}|x_{n-1})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/758406509fa52e55740e1d7371db99cb95eaa28d)
![{\displaystyle \left\{{\begin{aligned}&f_{X(t_{n})X(t_{n-1})\cdots X(t_{1})}(x_{n},x_{n-1},\cdots ,x_{1})=\\&=f_{X(t_{n})|X(t_{n-1}),X(t_{n-2})\cdots X(t_{1})}(x_{n}|x_{n-1},x_{n-2}\cdots x_{1})\times \cdots \times f_{X(t_{2})|X(t_{1})}(x_{2}|x_{1})\times f_{X(t_{1})}(x_{1})\\&=f_{X(t_{n})|X(t_{n-1})}(x_{n}|x_{n-1})\times \cdots \times f_{X(t_{2})|X(t_{1})}(x_{2}|x_{1})\times f_{X(t_{1})}(x_{1})\\&=\left[\Pi _{k=1}^{n-1}f_{X(t_{k+1})|X(t_{k})}(x_{k+1}|x_{k})\right]\cdot f_{X(t_{1})}(x_{1})\end{aligned}}\right.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/370034f83654f58395d2f82bc05f68bfbe127349)
Per caratterizzare una catena di Markov è sufficiente conoscere la densità di probabilità del second'ordine, non serve scendere fino all'
-esimo ordine. In questo modo, la trattazione diventa molto più semplice, fino a renderla quasi banale.
I processi di Markov si possono classificare in base allo stato/tempo continuo/discreto:
- stato continuo e tempo continuo: processo a tempo continuo;
- stato continuo e tempo discreto: processo a tempo discreto;
- stato discreto e tempo continuo: catena a tempo continuo;
- stato discreto e tempo discreto: catena a tempo discreto.
Catene di Markov a tempo discreto
[modifica]
Si ha
![{\displaystyle T=\{0,1,\cdots \}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/46abe8d6e4724699f0bffbd9d22076046ba0c7ab)
![{\displaystyle S=\{1,2,\cdots \}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/683a504dc16c6df820a4da1ef4e18d72147a081c)
che sono due insiemi discreti. La catena di Markov è caratterizzata da due quantità:
- la probabilità incondizionata
![{\displaystyle P_{i}=P\left(X(n)=i\right)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c9fd6e58d606d46f488b8390edc7f65f722d75fa)
- la matrice delle probabilità di transizione
.
Si ha
![{\displaystyle P_{i}(n)\in [0,1]\ \forall i\in S,\forall n\in T\ |\ \sum _{i\in S}P_{i}(n)=1}](https://wikimedia.org/api/rest_v1/media/math/render/svg/afb027dc837c0d18b39089a18cb5cc3ef7d3ede8)
cioè, per ogni istante, la somma delle probabilità di tutti gli stati è unitaria; noto l'alfabeto
, la probabilità incondizionata si può scrivere come
![{\displaystyle {\underline {P}}(n)=[P_{1}(n)\ P_{2}(n)\ \cdots \ P_{|s|}(n)]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f16c1d8be366d87a4c4b54f198d4bebdfce7d727)
La stessa condizione si può esprimere con
![{\displaystyle {\underline {P}}\cdot e^{T}=1\ e=[1\ 1\ \cdots \ 1]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/53d5d8b5fe8e13b28427ed6abb7c312b4e25f16c)
Fissati due istanti temporali
e dato lo stato di partenza
, la somma delle probabilità degli stati di arrivo è unitaria.
![{\displaystyle {\underline {P}}(m,n)=\left[{\begin{matrix}P_{1,1}(m,n)&P_{1,2}(m,n)&\cdots &P_{1,|s|}(m,n)\\P_{2,1}(m,n)&P(2,2)(m,n)&\cdots &P_{2,|s|}(m,n)\\\vdots &\vdots &\ddots &\vdots \\P_{|s|,1}(m,n)&P_{|s|,2}(m,n)&\cdots &P_{|s|,|s|}(m,n)\end{matrix}}\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2759a69ef7936c7735a97d844583175ee766e05b)
dove la somma dei valori di ogni singola riga è
![{\displaystyle \sum _{i=1,2,\cdots |s|}P_{i,j}(m,n)=1\ \forall j\in [0,1,\cdots |s|]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6b8c290f357ceae3ee0ee23c94d2580d41bf121a)
![{\displaystyle {\underline {P}}(m,n)\cdot e^{T}=e^{T}=[1\ 1\ \cdots \ 1]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0ed1e9fe862d9361d66dc0ff98d9468a9ba90d29)
Per ogni coppia
, il valore di
sarà diverso. Si ha
![{\displaystyle {\underline {P}}(n)={\underline {P}}(m,n)\cdots {\underline {P}}(m)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d6a1f49ee490721595b520bd71bc9b32f7322c0b)
![{\displaystyle {\begin{aligned}P_{i,j}(m,n)&=P(X(n)=j|X(m)=j)\\&=\sum _{l\in S}P(X(n)=j|X(u)=l,X(m)=i)\cdot P(X(u)=l|X(m=i))\\&=\sum _{l\in S}P_{l,j}(u,n)\cdot P_{i,l}(m,n)\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2c326b3f9fdedb9100241cf6f27d42d62ce8ac13)
Quest'ultima è detta l'equazione di Chapman e Kolmogorov, che in forma matriciale si può scrivere come
![{\displaystyle {\underline {P}}(m,n)={\underline {P}}(m,u)\cdot {\underline {P}}(u,n)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a5870d0d9961df0d67c1d209b3d942eaffb51fa5)
da cui si ha
![{\displaystyle {\underline {P}}(m,n)=\prod _{k=m}^{n-1}{\underline {P}}(k,k+1)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/009e30435a65dbe422396c4f652c22ea1e3a33aa)
Per caratterizzare una catena di Markov, basta conoscere:
![{\displaystyle {\underline {P}}(0)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/58be1c26831089772ba0150bd4ef39da6a45728c)
![{\displaystyle {\underline {P}}(k,k+1)\ \forall k\in T}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d3136a261c98dc08d60e01fa86041dd7c2637139)
![{\displaystyle {\underline {P}}(n)={\underline {P}}(0)\cdot {\underline {P}}(0,1)\cdot {\underline {P}}(1,2)\cdots {\underline {P}}(n-1,n)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a6849fe1f2d0ebcaff2dba65d4f99b075683244a)
Esempio: Caso 1
Esempio: Caso 2
Definizione: Catena di Markov omogenea
Una catena di Markov è detta omogenea se
![{\displaystyle {\underline {P}}(k,k+1)={\underline {\underline {P}}}\ \forall k\in T}](https://wikimedia.org/api/rest_v1/media/math/render/svg/12cde948367e56f21ecf49a0c071c2840fd26a19)
ossia, la matrice di probabilità di transizione ad un passo
![{\displaystyle (k,k+1)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1ec0ed11e2f0ee6295d17de9a725b63c1bc6514f)
è la stessa per tutti i
![{\displaystyle k\in T}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8339a2bf424e43d38c4fcbbd5092dca72550f395)
.
Esempio:
Definizione: Distribuzione stazionaria
In generale, una catena di Markov può avere più distribuzioni stazionarie.
Esempio:
Definizione: Catena di Markov irriducibile
Una catena di Markov si dice irriducibile se non è possibile portare la matrice di probabilità di transizione in una forma diagonale a blocchi, del tipo
Se una catena di Markov è irriducibile, allora la distribuzione stazionaria esiste ed è unica.
Definizione: Distribuzione limite
Una distribuzione stazionaria
![{\displaystyle {\underline {\Pi }}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/648633a0ef8601904ed6a8e5b64608f34f855de1)
si dice distribuzione limite se
![{\displaystyle \lim _{n\to \infty }{\underline {P}}(n)={\underline {P}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/50108bc699fc8751ccb5a093f9139c163bada83b)
Questo deve valere
![{\displaystyle \forall P(0)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/58104c4d6e5cfd63bcde2f4e2d778c1f22cb45b1)
, cioè per qualsiasi condizione iniziale.
Definizione: Catena di Markov aperiodica
Una catena di Markov omogenea ed irriducibile è aperiodica se il massimo comun divisore delle lunghezze di tutti i cammini chiusi che si possono individuare sul diagramma delle transizioni è pari a
![{\displaystyle 1}](https://wikimedia.org/api/rest_v1/media/math/render/svg/92d98b82a3778f043108d4e20960a9193df57cbf)
.
Esempio:
Catena periodica di periodo
![{\displaystyle 3}](https://wikimedia.org/api/rest_v1/media/math/render/svg/991e33c6e207b12546f15bdfee8b5726eafbbb2f)
:
In questo caso,
![{\displaystyle MDC=3}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9a266c44db8fb5262ae62b820f7e0219b0737ef2)
.
Esempio:
Catena di Markov aperiodica:
In questo caso,
![{\displaystyle MDC=1}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6ec0ab1d1ff0b94f7b63404b04abdf6a773db977)
.
Se una catena di Markov omogenea ed irriducibile è aperiodica, allora la distribuzione stazionaria è anche distribuzione limite. Per queste catene di Markov, a regime la probabilità assoluta è indipendente dal tempo, dando origine a processi stazionari.
Nota: una distribuzione
è una distribuzione limite se
![{\displaystyle \lim _{n\to \infty }{\underline {\underline {P}}}^{n}=\left[{\begin{matrix}{\underline {\Pi }}\\{\underline {\Pi }}\\{\underline {\Pi }}\end{matrix}}\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/792005af0398712866bb3726d376a3f95a93a4a9)
Definizione: Matrice doppiamente stocastica
Una matrice di probabilità di transizione è doppiamente stocastica se la somma degli elementi di ciascuna colonna è unitario; in tal caso, la distribuzione limite risulta essere
Esempio:
Si ha
![{\displaystyle {\underline {\underline {P}}}=\left[{\begin{matrix}{\frac {1}{4}}&{\frac {1}{4}}&{\frac {1}{2}}\\{\frac {1}{4}}&{\frac {1}{4}}&{\frac {1}{2}}\\{\frac {1}{2}}&{\frac {1}{2}}&0\end{matrix}}\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/eefb8d37b4cecd3f37a62516aad19974932553c8)
![{\displaystyle {\underline {\Pi }}=[{\underline {\pi _{1}}}\ {\underline {\pi _{2}}}\ \cdots \ {\underline {\pi _{3}}}]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b539e3592a095d7e04002bb1a179c9337448d70b)
da cui
![{\displaystyle \left\{{\begin{matrix}{\underline {\Pi }}\cdot {\underline {\underline {P}}}={\underline {\Pi }}\\{\underline {\Pi }}\cdot {\underline {e}}^{T}=1\end{matrix}}\right.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b7433b391d1fe01629781188a172a9015840ab97)
![{\displaystyle \left\{{\begin{aligned}{\frac {1}{4}}\pi _{1}+{\frac {1}{4}}\pi _{2}+{\frac {1}{2}}\pi _{3}&=\pi _{1}\\\cdots &=\pi _{2}\\{\frac {1}{2}}\pi _{1}+{\frac {1}{2}}\pi _{2}&=\pi _{3}\\\pi _{1}+\pi _{2}+\pi _{3}&=1\end{aligned}}\right.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/daa29b0d690ecdde568ef129474a51338ff57155)
si ottiene
![{\displaystyle {\underline {\Pi }}=\left[{\frac {1}{3}}\ {\frac {1}{3}}\ {\frac {1}{3}}\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a55b53fe64072295fd9dc646d0e9c3d1b89ff6f2)
che è una matrice stocastica.