Esercizio:
Siano le variabili casuali
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
e
![{\displaystyle Y}](https://wikimedia.org/api/rest_v1/media/math/render/svg/961d67d6b454b4df2301ac571808a3538b3a6d3f)
, entrambe distribuite come
![{\displaystyle U[0,1]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ef4a82b2a883d751cf53e5ac11ea12b9e36298f0)
. Studiare la variabile casuale data dalla relazione
Ergodicità dei processi casuali
[modifica]
Supponendo di avere un processo stocastico
stazionario (in senso lato), andiamo a cercare di dedurre qualcosa dalla sua densità di probabilità
generando una realizzazione nel tempo. Vedremo che se il processo è ergodico, medie d'insieme e temporali coincidono.
Consideriamo un processo
, con
definito sullo spazio di probabilità
. Fissato l'esito
, otteniamo una realizzazione
. Vogliamo capire se (e sotto quali condizioni) è possibile determinare delle caratteristiche di
, osservando un'unica realizzazione.
Se il processo è stazionario in senso lato, allora
![{\displaystyle \mu _{X}(t)=\mu _{X}\ \forall t\in \mathbb {R} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/6a5665edc2006bf9d29921265d656e98acc52b85)
Consideriamo la realizzazione
in una finestra
.
File:TFA realizzazione per ergodicita processi.jpg
Definizione: Stimatore del valor medio temporale
Si dice stimatore del valor medio temporale della realizzazione
![{\displaystyle X(\cdot ,s)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d369cab3f7f3476074b36135cf0e364bed23e868)
la grandezza
![{\displaystyle A_{X,T}(s)={\frac {1}{T}}\int _{-{\frac {T}{2}}}^{+{\frac {T}{2}}}X(t,s)dt}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3a9cc92577b7b06b360c774512c6f7aa9b8a940a)
che è la media temporale della realizzazione, sul periodo
![{\displaystyle T}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ec7200acd984a1d3a3d7dc455e262fbe54f7f6e0)
. In generale,
![{\displaystyle A_{X,T}(s)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7d321507203ff1dc323d109ce0f5d3ceab08aa57)
è una funzione dell'esito
![{\displaystyle s}](https://wikimedia.org/api/rest_v1/media/math/render/svg/01d131dfd7673938b947072a13a9744fe997e632)
, quindi può essere considerata a sua volta una variabile casuale.
La grandezza
è una stima, si riferisce ad una particolare realizzazione
.
Definizione: Stimatore non polarizzato
Lo stimatore
![{\displaystyle A_{X,T}(s)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7d321507203ff1dc323d109ce0f5d3ceab08aa57)
è non polarizzato se
![{\displaystyle E\left[A_{X,T}(s)\right]=\mu _{X}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/48c08d3648342d00b450b094f34bb467df355205)
ossia se
![{\displaystyle E\left[A_{X,T}(s)\right]={\frac {1}{T}}\int _{-{\frac {T}{2}}}^{\frac {T}{2}}E[X(t,s)]dt=\mu _{X}=E[X(t)]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6fee5fb3d7a4ea2a25602b1a977d2072db2b8340)
Il valor medio delle medie temporali coincide con il valor medio di insieme.
Definizione: Stimatore consistente
Uno stimatore
![{\displaystyle A_{X,T}(s)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7d321507203ff1dc323d109ce0f5d3ceab08aa57)
è detto consistente se
è non polarizzato
- la varianza
tende ad annullarsi all'aumentare del tempo di osservazione
![{\displaystyle \sigma _{A_{X,T}}\to _{T\to \infty }0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6896ce3f57ce4c1f52f093b6dd4f854e49ba936f)
- Questo equivale a dire che
tende, in maniera quadratica, al valor medio del processo, con un tempo di osservazione infinito si può ottenere il valore certo, senza incertezza.
Definizione: Processo ergodico
Se
![{\displaystyle A_{X,T}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3baf3ef92fe97c22219f77ffa99ed52bc4932ea0)
è uno stimatore consistente di
![{\displaystyle \mu _{X}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2bfe6d3f115b8d6cb595119ea9bc7962a11db65a)
, allora il processo
![{\displaystyle X(t)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/dfeb6663c0a903f587cd6d776c387370fc5c4ab7)
è ergodico.
Teorema: Teorema di Slutsky
Dato un processo
![{\displaystyle \{X(t),t\in \mathbb {R} \}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f01048d7146a118c99382ecf0f5e86ed21daeef7)
WSS (del second'ordine), allora
![{\displaystyle A_{X,T}\to _{{\mathcal {L}}^{2}}\mu _{x}\Leftrightarrow \lim _{T\to \infty }{\frac {1}{T}}\int _{0}^{T}C_{X}(\tau )d\tau =0\Rightarrow R_{X}(\tau )\to \mu _{X}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/927caac51cfdffc7cfc176139017134e8aea06c1)
dove
![{\displaystyle {\mathcal {L}}^{2}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e212255ffc118973a6a2a83d380004b12d46280f)
indica la convergenza in norma quadratica e
![{\displaystyle C_{X}(\tau )}](https://wikimedia.org/api/rest_v1/media/math/render/svg/01f63bdc50b2ed1b319509ae396a1873ba134fd0)
è la funzione di autocovarianza del processo.
Il teorema di Slutsky permette di facilitare il compito di verifica dell'ergodicità di un dato processo. Una condizione sufficiente (ma non necessaria) affinché
sia ergodico è che
![{\displaystyle C_{X}(\tau )\to _{\tau \to \infty }0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/76a8aabc67c1234eafeaa6af5324f10eb81771cd)
Esempio:
Sia un processo
![{\displaystyle X(t)=V}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bb6f8bd6740c6358710b04b720dc2e0d49914ee9)
, con
![{\displaystyle V}](https://wikimedia.org/api/rest_v1/media/math/render/svg/af0f6064540e84211d0ffe4dac72098adfa52845)
una variabile casuale stazionaria in senso lato. Si ha
![{\displaystyle C_{X}(\tau )=R_{X}(\tau )-\mu _{V}^{2}=E[V^{2}]-\mu _{V}^{2}=\sigma _{V}^{2}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/538b4309fa42d67162da54c4bda44664a80f162c)
Dal teorema di Slutsky, si ha
![{\displaystyle \lim _{t\to \infty }{\frac {1}{T}}\int _{0}^{T}\sigma _{V}^{2}d\tau \neq 0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/eb34e418e8217c2ff32d0ea1596e2cc3c7bca8c0)
quindi, il processo non è ergodico.
Esempio:
In modo alternativo, si può definire l'ergodicità del processo
nel seguente modo:
- se
è WSS di prim'ordine, allora
![{\displaystyle E[X(t)]=\mu _{X}(t)=\mu _{X}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/92ca89e61a152c86df0388e85d5cc855332aacdb)
- Di conseguenza, si ha che
è un processo ergodico rispetto al valor medio se è verificato
![{\displaystyle P(\{s\in \Omega \ |\ A_{X,T}(s)=\mu _{X}\})=1}](https://wikimedia.org/api/rest_v1/media/math/render/svg/67a3ddedeb415f77c3fb75ff6ba2ccd2c976cc09)
- Questa si dice convergenza in probabilità, o convergenza qox (per quasi ogni
). Se
è continuo, possono esistere alcuni
per cui non è verificata l'equazione, ma se questi punti sono isolati (concetto di qox), allora si ha comunque la convergenza cercata. La probabilità di un particolare
, infatti, è infinitesima (nel caso di processi a tempo continuo, lo stesso non vale per processi a tempo discreto).
WSS del second'ordine è ergodico rispetto alla sua funzione di autocorrelazione se vale
![{\displaystyle P(\{s\in \Omega \ |\ \varphi _{X,T}(\tau ,s)=R_{X}(\tau )\})=1}](https://wikimedia.org/api/rest_v1/media/math/render/svg/054ecdf245ab23a66ffa5d73899ed3ad328bdde5)
- Anche questa è una convergenza in probabilità, con
![{\displaystyle \varphi _{X,T}(\tau ,s)\lim _{T\to \infty }{\frac {1}{T}}\int _{-{\frac {T}{2}}}^{+{\frac {T}{2}}}X(t,s)X(t+\tau ,s)dt}](https://wikimedia.org/api/rest_v1/media/math/render/svg/23ba44e8633c8d23973458668b5fad5335539968)
- che è l'autocorrelazione temporale del processo. In termini pratici, questo equivale a dire che
![{\displaystyle R_{X}(t,t+\tau )=E[X(t)X(t+\tau )]=R_{X}(\tau )=\varphi _{X,T}(\tau ,s)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/03309e54eb13ec9da8cd9713d3619100106c206b)
dove
è la solita stima della funzione di autocorrelazione e
è l'autocorrelazione d'insieme, che viene a coincidere con l'autocorrelazione temporale
.
Consideriamo il processo
. Fissato
otteniamo una realizzazione che in generale rappresenta un segnale di potenza non periodico, quindi non è possibile dare una caratterizzazione frequenziale attraverso la trasformata di Fourier (in modo diretto). È tuttavia possibile caratterizzare i processi casuali almeno in termini di spettro di potenza. A questo proposito, consideriamo il processo
![{\displaystyle X_{T}(t,s)=X(t,s)\cdot rect\left({\frac {t}{T}}\right)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6fd5b5c23d784c9a46005b3fb479ff310fa31172)
Limitatamente al periodo
, il segnale diventa ad energia finita,
![{\displaystyle E=\int _{-\infty }^{+\infty }|X_{T}(t,s)|^{2}dt=\int _{-{\frac {T}{2}}}^{\frac {T}{2}}|X(t,s)|^{2}dt<\infty }](https://wikimedia.org/api/rest_v1/media/math/render/svg/b6ffafb21d89ce2d44a3d76979619519e2d2713d)
quindi si ha anche lo spettro di potenza finito,
![{\displaystyle {\frac {1}{T}}=\int _{-\infty }^{+\infty }|X_{T}(f,s)|^{2}df}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5831b573adf3e7e89c5aafc4dac62534c6212d1e)
Definizione: Densità spettrale di potenza
Di definisce densità spettrale di potenza del processo
![{\displaystyle \{X(t),t\in T\}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/99c9dbf9c57283578c6c0720600a8d0d897334ea)
la grandezza
![{\displaystyle S_{X}(f)=\lim _{T\to \infty }{\frac {1}{T}}E\left[\left|X_{T}(f,s)\right|^{2}\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/60b31597b3bc87a9a6456db47e998615a69211dc)
dove
è una variabile casuale ottenuta da
![{\displaystyle X_{T}(f,s)=\int _{-\infty }^{+\infty }X_{T}(t,s)e^{-j2\pi ft}dt}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4e8cdb77699f2fa5a07bb606bc27705d9e343302)
che è la trasformata di Fourier della variabile casuale
![{\displaystyle X_{T}(t,s)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7f9ee363eed8a6036a1ca68cb3f054f68a9285e9)
.
Proprietà della densità spettrale di potenza
[modifica]
- 1.
![{\displaystyle S_{X}(f)\geq 0\ \forall f}](https://wikimedia.org/api/rest_v1/media/math/render/svg/617324bde2a2c8994dead0a1aaa1a9024e8cbff1)
- 2.
è detto periodogramma del processo
- 3. Teorema di Wiener-Kinchine; se un processo stocastico è stazionario in senso lato (del second'ordine), allora si ha
![{\displaystyle S_{X}(f)=F[R_{X}(\tau )]=\int _{-\infty }^{+\infty }R_{X}(\tau )e^{-j2\pi f\tau }d\tau }](https://wikimedia.org/api/rest_v1/media/math/render/svg/98b6f65433bfd0a4b56a48117016f76bd0449093)
- 4. Se
è a valori reali, allora
è pari, di conseguenza si ha che
![{\displaystyle R_{X}\left(\tau \right)=R_{X}(-\tau )}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3cd61aecc416363e94fde9c96f52a673889f5756)
- 5.
che è la potenza del processo
- 6.
![{\displaystyle R_{X}(\tau )=F^{-1}\left[S_{X}(f)\right]=\int _{-\infty }^{+\infty }S_{X}(f)e^{j2\pi f\tau }df}](https://wikimedia.org/api/rest_v1/media/math/render/svg/dc8323e23c928318c206e600001abf0c5d90fc56)
Esempio:
Sia un processo stocastico
![{\displaystyle X(t)=V}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bb6f8bd6740c6358710b04b720dc2e0d49914ee9)
con
![{\displaystyle V}](https://wikimedia.org/api/rest_v1/media/math/render/svg/af0f6064540e84211d0ffe4dac72098adfa52845)
una variabile casuale con
![{\displaystyle f_{V}(v)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7b38b0957fa0fd8e4bd828051244ccf3094210d3)
qualsiasi. Si ha:
![{\displaystyle R_{X}(\tau )=E\left[X(t)X(t+\tau )\right]=E[V^{2}]=\sigma _{V}^{2}+\mu _{V}^{2}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/05c905302ce51d7b89262780d47efb97796144a7)
![{\displaystyle S_{X}(f)=(\sigma _{V}^{2}+\mu _{V}^{2})\cdot \delta (f)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ed55e57092218c3f5f1f947a15441e52c539b5a6)
cioè, l'autocorrelazione
![{\displaystyle R_{X}(\tau )}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2ee3e9ee435ff2d0d657003479abb1a84813efc1)
è costante, quindi la densità spettrale di potenza del processo è una
![{\displaystyle \delta }](https://wikimedia.org/api/rest_v1/media/math/render/svg/c5321cfa797202b3e1f8620663ff43c4660ea03a)
nell'origine.
Esempio:
Descrizione congiunta dei processi stocastici
[modifica]
Consideriamo
e
due processi definiti sullo stesso spazio di probabilità
. Se volessimo caratterizzare congiuntamente i due processi, dovremmo fare
![{\displaystyle f_{X,Y}(x_{1},x_{2},\cdots x_{n},y_{1},y_{2},\cdots y_{m};t_{1},t_{2},\cdots t_{n},t_{1}^{\prime },t_{2}^{\prime },\cdots t_{m}^{\prime })}](https://wikimedia.org/api/rest_v1/media/math/render/svg/57e29cf935cf391a55cc88b62901e7f5c9868a88)
e questo dovrebbe valere:
![{\displaystyle \forall t_{1}\ t_{2}<\cdots <t_{n}\in T}](https://wikimedia.org/api/rest_v1/media/math/render/svg/504f2f6d1072f17e82676be198d85f4eabc5dc9d)
![{\displaystyle \forall t_{1}^{\prime }\ t_{2}^{\prime }<\cdots <t_{n}^{\prime }\in T}](https://wikimedia.org/api/rest_v1/media/math/render/svg/505dc4bf053220e7e73678a0ad9b50f6368ab95e)
![{\displaystyle \forall m,n\in \mathbb {N} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/b7cf4c05bd396b0a3ab8e9e57b158380be7e9cec)
Questa è la densità congiunta finito-dimensionale; passando invece alle descrizioni sintetiche, si possono identificare:
![{\displaystyle \mu _{X}(t)=E[X(t)]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/52a941c8b898eb09a4557571ffeb722d94054634)
![{\displaystyle \mu _{Y}(t)=E[Y(t)]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/87706b91ec8f7ea5d29f99d5f7b09fdaaa8ff470)
- le funzioni di autocorrelazione
![{\displaystyle R_{X}(t_{1},t_{2})=E\left[X(t_{1})X(t_{2})\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/768107e0c44ef10811bebf152f63f783bad0cf96)
![{\displaystyle R_{Y}(t_{1},t_{2})=E\left[Y(t_{1})Y(t_{2})\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a27d345aa51487aa14ccee0a69eeab8bcf106791)
- le funzioni di covarianza
![{\displaystyle C_{X}(t_{1},t_{2})=E\left[\left(X(t_{1})-\mu _{X}(t1)\right)\left(X(t_{2})-\mu _{X}(t_{2})\right)\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b2b85c7203c174160c0ea9739ca0a5909d9f04b9)
![{\displaystyle C_{Y}(t_{1},t_{2})=E\left[\left(Y(t_{1})-\mu _{Y}(t1)\right)\left(Y(t_{2})-\mu _{Y}(t_{2})\right)\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5e9999373847279a66a4382830e533393e7c9fe2)
- le funzioni di crosscorrelazione
![{\displaystyle R_{XY}(t_{1},t_{2})=E[X(t_{1})Y(t_{2})]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d81b7d54e2b62ac7af05d4803798687962cc0130)
![{\displaystyle R_{YX}(t_{1},t_{2})=E[Y(t_{1})X(t_{2})]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/221bb8c7f8000a7e3cd414f25f9990c9a739ce63)
- le funzioni di crosscovarianza
![{\displaystyle {\begin{aligned}C_{XY}(t_{1},t_{2})&=E\left[\left(X(t_{1})-\mu _{X}(t1)\right)\left(Y(t_{2})-\mu _{Y}(t_{2})\right)\right]\\&=R_{XY}(t_{1},t_{2})-\mu _{X}(t_{1})\mu _{Y}(t_{2})\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/85c220877bb7861fd749e3a14ffcb914e25f7d4a)
![{\displaystyle {\begin{aligned}C_{YX}(t_{1},t_{2})&=E\left[\left(Y(t_{1})-\mu _{Y}(t1)\right)\left(X(t_{2})-\mu _{X}(t_{2})\right)\right]\\&=R_{YX}(t_{1},t_{2})-\mu _{Y}(t_{1})\mu _{X}(t_{2})\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1388efdbe5bceb1941eb562ce96d83476279d4da)
Definizione: Indipendenza dei processi
Due processi
![{\displaystyle \{X(t),t\in T\}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/99c9dbf9c57283578c6c0720600a8d0d897334ea)
e
![{\displaystyle Y(t),t\in T\}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3839bcc6e8745c970c97ec1f2f33b258c743693c)
definiti sullo stesso spazio di probabilità
![{\displaystyle (\Omega ,F,P)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3c6612687e4bdc3bdc02e47fe4c79316fc9e90e4)
sono indipendenti se
![{\displaystyle {\begin{aligned}f_{X,Y}&(x_{1},x_{2},\cdots x_{n},y_{1},y_{2},\cdots y_{m};t_{1},t_{2},\cdots t_{n},t_{1}^{\prime },t_{2}^{\prime },\cdots t_{m}^{\prime })\\&=f_{X}(x_{1},x_{2},\cdots x_{n},;t_{1},t_{2},\cdots t_{n})\cdot f_{Y}(y_{1},y_{2},\cdots y_{m};t_{1}^{\prime },t_{2}^{\prime },\cdots t_{m}^{\prime })\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/51f72019e3fb12c6769fa9cbc5cd3f35ed5453c4)
e questo deve valere:
![{\displaystyle \forall m,n\in \mathbb {N} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/b7cf4c05bd396b0a3ab8e9e57b158380be7e9cec)
![{\displaystyle \forall t_{1}<t_{2}<\cdots <t_{n}\in T}](https://wikimedia.org/api/rest_v1/media/math/render/svg/50dc414393bee5b5ae9bb440e962f95510b5e002)
Definizione: Processi incorrelati
Due processi
![{\displaystyle \{X(t),t\in T\}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/99c9dbf9c57283578c6c0720600a8d0d897334ea)
e
![{\displaystyle Y(t),t\in T\}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3839bcc6e8745c970c97ec1f2f33b258c743693c)
definiti sullo stesso spazio di probabilità
![{\displaystyle (\Omega ,F,P)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3c6612687e4bdc3bdc02e47fe4c79316fc9e90e4)
sono incorrelati se
Nel caso particolare in cui i processi siano delle variabili casuali gaussiane, allora si ha che
![{\displaystyle {\text{ incorrelazione }}\Leftrightarrow {\text{ indipendenza }}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/732c1cb3ac86bd09789305a71634a1bfc89fccfa)
mentre i tutti gli altri casi si ha
![{\displaystyle {\begin{aligned}{\text{ incorrelazione }}&\not \Leftrightarrow &{\text{ indipendenza }}\\{\text{ indipendenza }}&\Rightarrow &{\text{ incorrelazione }}\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b711e5cbfdce4244031e0d8cb8851f892cf0d37c)
Definizione: Processi congiuntamente gaussiani
Un processo
![{\displaystyle \{X(t),t\in T\}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/99c9dbf9c57283578c6c0720600a8d0d897334ea)
è congiuntamente gaussiano se tutte le densità di probabilità finito-dimensionali sono congiuntamente gaussiane.
Definizione: Processi congiuntamente stazionari in senso stretto
Due processi
![{\displaystyle \{X(t),t\in T\}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/99c9dbf9c57283578c6c0720600a8d0d897334ea)
e
![{\displaystyle \{Y(t),t\in T\}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3c6d2152efc6b3760f77a9b37231909bd6922ff1)
si dicono congiuntamente stazionari in senso stretto (SSS) se la densità di probabilità congiunta è invariante alla traslazione temporale.
Definizione: Processi congiuntamente stazionari in senso lato
Due processi
![{\displaystyle \{X(t),t\in T\}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/99c9dbf9c57283578c6c0720600a8d0d897334ea)
e
![{\displaystyle \{Y(t),t\in T\}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3c6d2152efc6b3760f77a9b37231909bd6922ff1)
si dicono congiuntamente stazionari in senso lato (WSS) se:
![{\displaystyle \left\{{\begin{matrix}\mu _{X}(t)=\mu _{X}\\\mu _{Y}(t)=\mu _{Y}\\R_{X}(t,t+\tau )=R_{X}(\tau )\\R_{Y}(t,t+\tau )=R_{Y}(\tau )\end{matrix}}\right.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/391a82f825136df2ed427d0a7b3ea8ab5203a45a)
![{\displaystyle R_{XY}(t,t+\tau )=R_{XY}(\tau )\ \forall t,\tau \in T}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2d10f4383680d6dad3f34a2cb9893096f472e652)
cioè, anche la crosscorrelazione deve essere funzione della sola distanza tra istanti temporali.
Nel caso di processi congiuntamente stazionari in senso lato (WSS), si ha
![{\displaystyle R_{YX}(t,t+\tau )=R_{YX}(0,\tau )=R_{XY}(\tau )\ \forall t,\tau \in T}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a0edae286e0da0b0f1255dd5e93dd4a5cbb5a6a2)
e vale
![{\displaystyle R_{YX}(\tau )=R_{XY}(-\tau )}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1e5fbf3dee6ae0a009250325e764f48f6aceffe5)
Inoltre, vale
![{\displaystyle |R_{XY}(0)|^{2}\leq R_{X}(0)R_{Y}(0)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a5a564fb12de3f61f913da84755b116abca22a3c)
Esempio:
Se
![{\displaystyle X(t)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/dfeb6663c0a903f587cd6d776c387370fc5c4ab7)
e
![{\displaystyle Y(t)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b160c901a32a90bdf180749f101db13c894cbed2)
sono congiuntamente WSS, l'autocorrelazione di
![{\displaystyle Z(t)=X(t)+Y(t)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a97567f6ae1d0f9e182f16d1237a7be4b993c3a2)
vale
![{\displaystyle {\begin{aligned}R_{Z}(t,t+\tau )&=E[((X(t_{1})+Y(t_{1}))\cdot (X(t_{2})+Y(t_{2}))]\\&=E[(X(t_{1})X(t_{2})+Y(t_{1})Y(t_{2})+X(t_{1})Y(t_{2})+Y(t_{1})X(t_{2}))]\\&=R_{X}(t_{1},t_{2})+R_{Y}(t_{1},t_{2})+R_{XY}(t_{1},t_{2})+R_{YX}(t_{1},t_{2})\\&=R_{X}(\tau )+R_{Y}(\tau )+R_{XY}(\tau )+R_{YX}(\tau )\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/23d1242a1c6ff21d0425134f72f27c09f2ad0350)
Esempio:
Se
![{\displaystyle X(t)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/dfeb6663c0a903f587cd6d776c387370fc5c4ab7)
e
![{\displaystyle Y(t)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b160c901a32a90bdf180749f101db13c894cbed2)
sono congiuntamente WSS e indipendenti, l'autocorrelazione di
![{\displaystyle Z(t)=X(t)Y(t)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4764b3569dfbb233b5f8bc142d5f8f7150d54a2f)
vale
![{\displaystyle \mu _{Z}(t)=E[X(t)Y(t)]=\mu _{X}\mu _{Y}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/985a6d6222f769908da8a506d199e2c28c0413fd)