In molti casi pratici interessa conoscere alcune caratteristiche sintetiche, dette momenti, di una variabile casuale. Queste caratteristiche possono essere calcolate dalla funzione di densità di probabilità.
Valor medio delle variabili casuali
[modifica]
Definizione: Valor medio
Sia
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
una variabile casuale con
![{\displaystyle f_{X}(x)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/29310a010e7f7dfa33ba69bcf1ef9ec166d461dd)
. Si definisce il valor medio (o valore atteso) di
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
la quantità
![{\displaystyle \mu _{X}=E[X]=\int _{-\infty }^{+\infty }xf_{X}(x)dx}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f5061ce8c7431c9fa5d763164dc14778a4dd15e7)
Nel caso di variabili casuali discrete, invece, è definito come
![{\displaystyle \mu _{X}=E[X]=\sum _{i}x_{i}p_{i}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e072953b9ceb22ae0f58b75890e15608a976d0fc)
visto che si ha
Esempio: Funzione indicatrice
Sia lo spazio di probabilità
![{\displaystyle \{\Omega ,F,P\}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/418f6a1a40efe7cbfec0983418f7530048ff538b)
, con
![{\displaystyle A\in F}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c282e52300c61f5c1390d740735f48fe220d8318)
e
![{\displaystyle X=I_{A}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8ffeebffd4de6fdc5ef1320354801e68775c6696)
la funzione indicatrice. Si ha
![{\displaystyle E[X]=0\cdot P(X=0)+1\cdot P(X=1)=0\cdot (1-P(A))+1\cdot P(A)=P(A)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b3047581d157ed48805d8c6f15f4b09ed0a915aa)
Quindi, il valor medio della funzione indicatrice è la probabilità di successo.
Si noti che il valor medio della funzione può non essere un risultato possibile per l'esperimento.
Esempio: Variabile casuale di Bernoulli
Si ha
![{\displaystyle f_{X}(x)=p\cdot \delta (x-1)+(1-p)\cdot \delta (x)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ffa6311dc64a7c458b3a6697c00ef9c99fedfd22)
da cui
Esempio: Variabile casuale di Poisson
Si ha
![{\displaystyle f_{X}(x)=\sum _{k=0}^{+\infty }e^{-\lambda }{\frac {\lambda ^{k}}{k!}}\delta (x-k)\ \lambda >0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ac7a440810e4aacb79843188beae364cde37fc37)
da cui si ha
![{\displaystyle E[X]=\sum _{k=0}^{\infty }ke^{-\lambda }{\frac {\lambda ^{k}}{k!}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ded6b28d9053b2f868db26dc5a72730afeddf3fa)
Siccome vale la proprietà
![{\displaystyle e^{\lambda }=\sum _{k=0}^{\infty }{\frac {\lambda ^{k}}{k!}}\cdot {\frac {de^{\lambda }}{d\lambda }}=e^{\lambda }=\sum _{k=0}^{\infty }k{\frac {\lambda ^{k-1}}{k!}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/91b29f52bd16643ecb78c40e076967c0567c21db)
allora si ottiene
Esempio: Variabile casuale uniforme
Si ha
![{\displaystyle f_{X}(x)=\left\{{\begin{matrix}{\frac {1}{b-a}}&x\in (a,b)\\0&{\text{altrove}}\end{matrix}}\right.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/937125193485acac91c81c8b82ce9c7d75b552be)
Allora, il valore atteso sarà
Esercizio per casa: La variabile casuale gaussiana
Trovare il valor medio
![{\displaystyle E[X]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e455a34363c03fc5df8208d8b81fa29e3cdd524e)
di una variabile casuale gaussiana,
Teorema: Teorema fondamentale del valore atteso
Data la variabile casuale
![{\displaystyle {\underline {X}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/795941c3bd441d39b514ee92a014d6dd031dde66)
n-dimensionale con funzione di densità di probabilità
![{\displaystyle f_{\underline {X}}(\cdot )}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f7b703170ead90a4dcb1b45cd6472675e535b295)
e la trasformazione
(una funzione di Borel)
si ha che, per la variabile casuale
![{\displaystyle Y=g({\underline {X}})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9d326543b594978e23f148de5f9a4985c8957104)
vale
Nel caso particolare in cui
e con una variabile casuale discreta, si ha
![{\displaystyle f_{X}(x)=\sum _{i}p_{i}\delta (x-x_{i})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1201d744833ec014a2b484acbe244078d24d36a4)
da cui
![{\displaystyle Y=g(X)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/84fd834147d6175f13477acff6567727265d0000)
ha
![{\displaystyle f_{Y}(y)=\sum _{i}p_{i}\delta (y-g(x_{i}))=\sum _{j}\left(\sum _{i\ |\ g(x_{i})=y_{j}}p_{i}\right)\delta (y-y_{j})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/be5be83629e9224b25eced0ef21af326e11519cc)
da cui si ottiene
![{\displaystyle {\begin{aligned}E[Y]&=\int _{-\infty }^{+\infty }yf_{Y}(y)dy\\&=\sum _{j}y_{j}\left(\sum _{i\ |\ g(x_{i})=y_{j}}p_{i}\right)\\&=\sum _{i}g(x_{i})p_{i}\\&=\int _{-\infty }^{+\infty }g(x)f_{X}(x)dx\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/940fb9ac7593f406073a135281dc69d6da517015)
Proprietà: Proprietà di linearità
Una variabile casuale n-dimensionale può essere vista come combinazione lineare di
![{\displaystyle n}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a601995d55609f2d9f5e233e36fbe9ea26011b3b)
variabili casuali monodimensionali pesate
![{\displaystyle Y=a_{1}g_{1}(x)+a_{2}g_{2}(x)+\cdots +a_{n}g_{n}(x)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/501b3dde35a987733eebf13bd4737dd7ad7cbddb)
Questo porta alla proprietà
![{\displaystyle E[Y]=\sum _{i=1}^{n}a_{i}E[g_{i}(x)]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/831296cb407d0992ec228d9d176d80a7c9ae282b)
se poi si impone
, allora si ha che
e vale
![{\displaystyle Y=X_{1}+X_{2}+\cdots +X_{n}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c5daaf8f027f99b4500fde43681070696648308c)
da cui
Varianza delle variabili casuali
[modifica]
Definizione: Varianza di una variabile casuale
Data una variabile casuale
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
con una funzione di densità di probabilità
![{\displaystyle f_{X}(x)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/29310a010e7f7dfa33ba69bcf1ef9ec166d461dd)
, si dice varianza la grandezza
![{\displaystyle \sigma _{X}^{2}=\int _{-\infty }^{+\infty }(x-\mu _{X})^{2}f_{X}(x)dx}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9c39689a73309a3df026d91f8e1d1d93852d33d5)
con
![{\displaystyle \mu _{X}=E[X]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cdbe466af0841e3c0771b27642e8cd3b12767fb4)
La varianza si può definire anche come
![{\displaystyle \sigma _{X}^{2}=E[(x-\mu _{X})^{2}]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cb4d7dec199310d3aee93229431936ac0cab2701)
Se la variabile casuale è discreta anziché continua, allora si ha
![{\displaystyle \sigma _{X}^{2}=\sum _{i}p_{i}(x_{i}-\mu _{X})^{2}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/43f36cee729e857a8fd1ccf99063ab29247d1a42)
con
Esempio: Variabile casuale binomiale
Si ha:
![{\displaystyle {\begin{aligned}\sigma _{X}^{2}&=E[(X-\mu _{X})^{2}]\\&=E[(X^{2}-2\mu _{X}X+\mu _{X}^{2})]\\&=E[X^{2}]-\mu _{X}^{2}+2E[X]\mu _{X}\mu _{X}\\&=E[X^{2}]-\mu _{X}^{2}=E[X^{2}]-E^{2}[X]\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9e9dc621bd4be3674f6bb64d711a87fec7841525)
Esempio: Variabile casuale di Bernoulli
Si ha
![{\displaystyle f_{X}(x)=p\delta (x-1)+q\delta (x)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ad6384150770422a3f610d2c3bbf5267c8490261)
da cui
![{\displaystyle E[X]=p}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d32213b996dd3698047b46061b65a10ca75d93b9)
![{\displaystyle E[X^{2}]=1^{2}\cdot p+0\cdot q=p}](https://wikimedia.org/api/rest_v1/media/math/render/svg/48c3d27af04a97939d6ff78d02ef7fb41cf1bd47)
di conseguenza
Esempio: Variabile casuale uniforme
Sia
![{\displaystyle X~U(a,b)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6298a116439724c70733e0f28a7ee27111db95a8)
. Allora:
![{\displaystyle E[X]={\frac {b+a}{2}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cae3c0f8fff83dac42d27c15efbefe170fe90812)
![{\displaystyle {\begin{aligned}E[X^{2}]&=\int _{a}^{b}{\frac {1}{b-a}}x^{2}dx\\&={\frac {1}{b-a}}\left[{\frac {x^{3}}{3}}\right]_{a}^{b}\\&=\cdots \\&={\frac {1}{3}}(b^{2}+ab+a^{2})\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/28ad7464e5ff0df7985cdaac8f1ca879b9d88217)
da cui si ottiene
Esempio: Variabile casuale gaussiana
Momenti delle variabili casuali
[modifica]
Definizione: Momenti di una variabile casuale
Sia
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
una variabile casuale con funzione di densità di probabilità
![{\displaystyle f_{X}(x)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/29310a010e7f7dfa33ba69bcf1ef9ec166d461dd)
. Si dice momento di ordine
![{\displaystyle n}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a601995d55609f2d9f5e233e36fbe9ea26011b3b)
della variabile casuale
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
la quantità
Definizione: Momento centrale di una variabile casuale
Data una variabile casuale
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
con funzione di densitù di probabilità
![{\displaystyle f_{X}(x)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/29310a010e7f7dfa33ba69bcf1ef9ec166d461dd)
, si dice momento centrale di ordine
![{\displaystyle n}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a601995d55609f2d9f5e233e36fbe9ea26011b3b)
di
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
la quantità
Il valore atteso di una funzione di due variabili casuali
e
, con
- densità di probabilità
![{\displaystyle f_{X,Y}(x,y)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f2e305446e0fee9c51aee21bc81fb7136f1151e6)
(funzione di Borel)
è dato da
![{\displaystyle E[g(X,Y)]=\int _{-\infty }^{+\infty }\int _{-\infty }^{+\infty }g(\alpha ,\beta )f_{X,Y}(\alpha ,\beta )d\alpha d\beta }](https://wikimedia.org/api/rest_v1/media/math/render/svg/4b88e5d6e043a4c69f1b967a306c84502f8d77cb)
Inoltre, se vale
![{\displaystyle g(\alpha ,\beta )=ag_{1}(\alpha ,\beta )+bg_{2}(\alpha ,\beta )}](https://wikimedia.org/api/rest_v1/media/math/render/svg/57c35b7dc7ca1a45dd34074b0dee5dc21daf9059)
allora
![{\displaystyle E[g(X,Y)]=aE[g_{1}(\alpha ,\beta )]+bE[g_{2}(\alpha ,\beta )]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6824edd526d44763e44cd8698aa4ecdaa5673672)
Siano
e
due variabili casuali. Allora il valore atteso è
![{\displaystyle E[X+Y]=E[X]+E[Y]=\mu _{X}+\mu _{Y}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/823d6ee919f5f88ea4ff0fb9cc0a80a4eff70196)
mentre la varianza è
![{\displaystyle E[((X+Y)-(\mu _{X}+\mu _{Y}))^{2}]=E[(X-\mu _{X})^{2}]+E[(Y-\mu _{Y})^{2}]+2E[(X-\mu _{X})(Y-\mu _{Y})]=\sigma _{X}^{2}+\sigma _{Y}^{2}+2E[(X-\mu _{X})(Y-\mu _{Y})]\neq \sigma _{X}^{2}+\sigma _{Y}^{2}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/53efdf3edd6490bc8e38f7df2302ea1bf2fbaa38)
nel caso di indipendenza, si ha
![{\displaystyle E[(X+Y-(\mu _{X}+\mu _{Y}))^{2}]=\sigma _{X}^{2}+\sigma _{Y}^{2}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5e9cbd9a6571cfef0251544e4bf78d8e3cb2f040)
Siano
e
due variabili casuali. Allora il valore atteso del loro prodotto è
![{\displaystyle E[XY]=\int _{-\infty }^{+\infty }\int _{-\infty }^{+\infty }\alpha \beta f_{XY}(\alpha ,\beta )d\alpha d\beta \neq E[X]\cdot E[Y]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8a037625a5dad6e6f339b5e99c1f461570ef3a3c)
Se poi
e
sono indipendenti, allora si ha
![{\displaystyle E[XY]=E[X]\cdot E[Y]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b2d631331b7fbb4b8018dd571bec28fc89866da1)
La varianza, invece, è
![{\displaystyle \sigma _{XY}^{2}=\mathbb {E} {\Big [}{\big (}XY-\mathbb {E} [XY]{\big )}^{2}{\Big ]}=\mathbb {E} [X^{2}Y^{2}]-\mathbb {E} [XY]^{2}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d4de35887d38820a89d089b441fd16927b594dd4)
Ancora una volta, nel caso di indipendenza, si ha
![{\displaystyle \sigma _{XY}^{2}=\mathbb {E} {\Big [}{\big (}XY-\mathbb {E} [XY]{\big )}^{2}{\Big ]}=\mathbb {E} [X^{2}Y^{2}]-\mathbb {E} [XY]^{2}=\sigma _{X}^{2}\cdot \sigma _{Y}^{2}+\mathbb {E} [Y]^{2}\cdot \sigma _{X}^{2}+\mathbb {E} [X]^{2}\cdot \sigma _{Y}^{2}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/90246b832f711eed824016b66d9d54824dc1366d)
Definizione: Variabili casuali incorrelate
Due variabili casuali
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
e
![{\displaystyle Y}](https://wikimedia.org/api/rest_v1/media/math/render/svg/961d67d6b454b4df2301ac571808a3538b3a6d3f)
con densità di probabilità
![{\displaystyle f_{XY}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ae001a335e2c4b18bd8d91f3956a5086cd01ee5c)
si dicono incorrelate se
Si ha
![{\displaystyle {\begin{aligned}X,Y{\text{ indipendenti }}&\Rightarrow &{\text{ incorrelate }}\\X,Y{\text{ incorrelate }}&\not \Rightarrow &{\text{ indipendenti }}\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c5494c2b03519a4b187499f7040ff719d5e4d1d0)
Si ricordano le definizioni:
- incorrelazione
![{\displaystyle \Rightarrow \ E[XY]=E[X]\cdot E[Y]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6f8ba524d3f252c063427f27037d1d0e9491a44f)
- indipendenza
![{\displaystyle \Rightarrow \ f_{XY}(\alpha ,\beta )=f_{X}(\alpha )\cdot f_{Y}(\beta )}](https://wikimedia.org/api/rest_v1/media/math/render/svg/402aee711fdb9b74b66714b6b42a8aa063d9342b)
Esempio:
Siano
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
e
![{\displaystyle Y}](https://wikimedia.org/api/rest_v1/media/math/render/svg/961d67d6b454b4df2301ac571808a3538b3a6d3f)
due variabili casuali con
![{\displaystyle f_{XY}(\alpha ,\beta )=\left\{{\begin{matrix}{\frac {1}{4}}&(\alpha ,\beta )=(1,1){\text{ oppure }}(\alpha ,\beta )=(-1,1)\\{\frac {1}{2}}&(\alpha ,\beta )=(0,0)\\0&{\text{ altrimenti }}\end{matrix}}\right.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/30b4e7676aa6b80961f4d270f4eddd108c3424b4)
Allora, si ha
![{\displaystyle E[XY]=\int _{-\infty }^{+\infty }\int _{-\infty }^{+\infty }\alpha \beta f_{X,Y}(\alpha ,\beta )d\alpha d\beta =(-1)\cdot (-1)\cdot {\frac {1}{4}}+0\cdot 0\cdot {\frac {1}{2}}+(-1)\cdot (1)\cdot {\frac {1}{4}}=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/336966d9f806473a8d77eb0d99d727264d8b73bc)
![{\displaystyle f_{X}(\alpha )=\int _{-\infty }^{+\infty }f_{XY}(\alpha ,\beta )d\beta =\cdots =\left\{{\begin{matrix}1/4&x=-1\\1/2&x=0\\1/4&x=1\\0&{\text{ altrove }}\end{matrix}}\right.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7f7f8df0196524780d3677526f11c3b8079a53e6)
Allo stesso modo, si ha
![{\displaystyle f_{Y}(\beta )=\left\{{\begin{matrix}1/2&y=0\\1/2&y=1\\0&{\text{ altrove }}\end{matrix}}\right.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2dcadc8da1a5332389d09b323f7c5d46713921cd)
Si ha
![{\displaystyle E[X]=\int _{-\infty }^{+\infty }xf_{X}(x)dx=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c81d4c9acfec07c3fb0a7c100a654ace8056d9fe)
![{\displaystyle E[Y]=\int _{-\infty }^{+\infty }yf_{Y}(y)dy={\frac {1}{2}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3f5259cdc88b7d098eb197bd9e3577a59da74ef3)
da cui si deduce che le due variabili casuali sono incorrelate. Non si può dire, però che vi sia indipendenza.
Se due variabili casuali sono congiuntamente gaussiane e sono incorrelate, allora sono anche indipendenti; vale il viceversa.
Definizione: Variabili casuali ortogonali
Due variabili casuali
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
e
![{\displaystyle Y}](https://wikimedia.org/api/rest_v1/media/math/render/svg/961d67d6b454b4df2301ac571808a3538b3a6d3f)
con funzione di denstità di probabilità congiunta
![{\displaystyle f_{XY}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ae001a335e2c4b18bd8d91f3956a5086cd01ee5c)
si dicono ortogonali se
![{\displaystyle E[XY]=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4f505d1088836f55bf351cb76eec05a6b8e14ebc)
e si indicano con
![{\displaystyle X\perp Y}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e0214f32baeaae3f2ac4b70f2a0f05a30217ad1b)
.
Si ha:
![{\displaystyle X,Y{\text{ incorrelate }}\not \Rightarrow X\perp Y}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5c85a06c7d8ee257c63ac048e36f7b51230e4de7)
![{\displaystyle X\perp Y\not \Rightarrow X,Y{\text{ incorrelate}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a368cf40620c239f8d7684412eec63a839e0bbaa)
![{\displaystyle \left\{{\begin{matrix}X,Y{\text{ incorrelate}}\\\mu _{X}=0{\text{ e/o }}\mu _{Y}=0\end{matrix}}\right.\Rightarrow X\perp Y}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9b9431be314a78d273dfc33c54d7d02d1604ba24)
![{\displaystyle \left\{{\begin{matrix}X\perp Y\\\mu _{X}=0{\text{ e/o }}\mu _{Y}=0\end{matrix}}\right.\Rightarrow X,Y{\text{ incorrelate}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5febc2562327cac532acc5c3039a5a2d689552c1)
![{\displaystyle X,Y{\text{ indipendenti}}\not \Rightarrow X\perp Y}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5cf52d250aaee96bfe96f1bcb12ae1ca0ee0e514)
![{\displaystyle \left\{{\begin{matrix}X,Y{\text{ indipendenti}}\\\mu _{X}=0{\text{ e/o }}\mu _{Y}=0\end{matrix}}\right.\Rightarrow X\perp Y}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c13ce2307c129d9b3600bcc4151dfeca712e22a0)
![{\displaystyle X,Y{\text{ indipendenti}}\Rightarrow (X-\mu _{X})\perp (Y-\mu _{Y})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/04314d8d5f82ebe4414644e871aa1b79322769e1)
Definizione: Covarianza di variabili casuali
Siano
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
e
![{\displaystyle Y}](https://wikimedia.org/api/rest_v1/media/math/render/svg/961d67d6b454b4df2301ac571808a3538b3a6d3f)
due variabili casuali con funzione di densità di probabilità congiunta
![{\displaystyle f_{XY}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ae001a335e2c4b18bd8d91f3956a5086cd01ee5c)
. Si definisce la covarianza come
![{\displaystyle C_{X,Y}=\int _{-\infty }^{+\infty }\int _{-\infty }^{+\infty }(x-\mu _{X})(y-\mu _{Y})f_{XY}(x,y)dxdy}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b9ac77b3c70dcc833fb8d356f5d77a42eb718023)
dove si ha
![{\displaystyle \mu _{X}=E[X]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cdbe466af0841e3c0771b27642e8cd3b12767fb4)
![{\displaystyle \mu _{Y}=E[Y]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/190d260baf9f404fe4b4fbeed0cbc65d41db35ab)
Una definizione alternativa è
Si ha che due variabili casuali
e
sono incorrelate quando
.
Definizione: Coefficiente di correlazione
Date
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
e
![{\displaystyle Y}](https://wikimedia.org/api/rest_v1/media/math/render/svg/961d67d6b454b4df2301ac571808a3538b3a6d3f)
due variabili casuali con funzione di densità di probabilità congiunta
![{\displaystyle f_{XY}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ae001a335e2c4b18bd8d91f3956a5086cd01ee5c)
, si dice coefficiente di correlazione di
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
e
![{\displaystyle Y}](https://wikimedia.org/api/rest_v1/media/math/render/svg/961d67d6b454b4df2301ac571808a3538b3a6d3f)
la grandezza
Esempio:
Sia
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
una variabile casuale con funzione di densità di probabilità
![{\displaystyle f_{X}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/17fd6605a04f97c6bedb0a9632f9f023cb18dd40)
e sia
![{\displaystyle Y=aX+b}](https://wikimedia.org/api/rest_v1/media/math/render/svg/15aad86ca14a646d56156b130debb5d815d0e383)
Mostrare che
se
e
se
.
Soluzione:
Il coefficiente di correlazione è una misura della forza della relazione lineare che intercorre tra
![{\displaystyle x}](https://wikimedia.org/api/rest_v1/media/math/render/svg/87f9e315fd7e2ba406057a97300593c4802b53e4)
e
![{\displaystyle Y}](https://wikimedia.org/api/rest_v1/media/math/render/svg/961d67d6b454b4df2301ac571808a3538b3a6d3f)
. Si ha
![{\displaystyle r=0\Rightarrow X,Y{\text{ incorrelate}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d449fb6aa62b3f56a6d19e4e11a980ffe59a8a87)
![{\displaystyle r=1\Rightarrow X,Y{\text{ non incorrelate}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/23a421c756181e8d3e5254fa4aa9aad2bed04b72)
Si ha
![{\displaystyle C_{XY}=E[(X-\mu _{X})(Y-\mu _{Y})]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b52bebbddf7f1a917e58de32d916a1a4a56a31fa)
dove
![{\displaystyle \mu _{Y}=E[Y]=E[aX+b]=a\mu _{X}+b}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3c59b9ec87ed39eb49ea99562b20fa9e80f8183b)
da cui
![{\displaystyle {\begin{aligned}C_{XY}&=E[(X-\mu _{X})(aX+\not b-(a\mu _{X}+\not b))]\\&=E[(X-\mu _{X})a(X-\mu _{X})]\\&=aE[(X-\mu _{X})^{2}]\\&=a\cdot \sigma _{X}^{2}\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4de02884a229ac7a98244830bfc3f18f5dc0e9f3)
Si ha
![{\displaystyle \sigma _{Y}^{2}=E[(Y-\mu _{Y})^{2}]=E[a^{2}(X-\mu _{X})^{2}]=a^{2}\sigma _{X}^{2}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5f0bbd1a3470200e0a6cd85f1f5850629170fd75)
da cui si può calcolare il coefficiente di correlazione