In molti casi pratici interessa conoscere alcune caratteristiche sintetiche, dette momenti, di una variabile casuale. Queste caratteristiche possono essere calcolate dalla funzione di densità di probabilità.
Valor medio delle variabili casuali
[modifica]
Definizione: Valor medio
Sia

una variabile casuale con

. Si definisce il valor medio (o valore atteso) di

la quantità
![{\displaystyle \mu _{X}=E[X]=\int _{-\infty }^{+\infty }xf_{X}(x)dx}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f5061ce8c7431c9fa5d763164dc14778a4dd15e7)
Nel caso di variabili casuali discrete, invece, è definito come
![{\displaystyle \mu _{X}=E[X]=\sum _{i}x_{i}p_{i}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e072953b9ceb22ae0f58b75890e15608a976d0fc)
visto che si ha
Esempio: Funzione indicatrice
Sia lo spazio di probabilità

, con

e

la funzione indicatrice. Si ha
![{\displaystyle E[X]=0\cdot P(X=0)+1\cdot P(X=1)=0\cdot (1-P(A))+1\cdot P(A)=P(A)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b3047581d157ed48805d8c6f15f4b09ed0a915aa)
Quindi, il valor medio della funzione indicatrice è la probabilità di successo.
Si noti che il valor medio della funzione può non essere un risultato possibile per l'esperimento.
Esempio: Variabile casuale di Bernoulli
Si ha

da cui
Esempio: Variabile casuale di Poisson
Si ha

da cui si ha
![{\displaystyle E[X]=\sum _{k=0}^{\infty }ke^{-\lambda }{\frac {\lambda ^{k}}{k!}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ded6b28d9053b2f868db26dc5a72730afeddf3fa)
Siccome vale la proprietà

allora si ottiene
Esempio: Variabile casuale uniforme
Si ha

Allora, il valore atteso sarà
Esercizio per casa: La variabile casuale gaussiana
Trovare il valor medio
![{\displaystyle E[X]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e455a34363c03fc5df8208d8b81fa29e3cdd524e)
di una variabile casuale gaussiana,
Teorema: Teorema fondamentale del valore atteso
Data la variabile casuale

n-dimensionale con funzione di densità di probabilità

e la trasformazione
(una funzione di Borel)
si ha che, per la variabile casuale

vale
Nel caso particolare in cui
e con una variabile casuale discreta, si ha

da cui

ha

da cui si ottiene
![{\displaystyle {\begin{aligned}E[Y]&=\int _{-\infty }^{+\infty }yf_{Y}(y)dy\\&=\sum _{j}y_{j}\left(\sum _{i\ |\ g(x_{i})=y_{j}}p_{i}\right)\\&=\sum _{i}g(x_{i})p_{i}\\&=\int _{-\infty }^{+\infty }g(x)f_{X}(x)dx\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/940fb9ac7593f406073a135281dc69d6da517015)
Proprietà: Proprietà di linearità
Una variabile casuale n-dimensionale può essere vista come combinazione lineare di

variabili casuali monodimensionali pesate

Questo porta alla proprietà
![{\displaystyle E[Y]=\sum _{i=1}^{n}a_{i}E[g_{i}(x)]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/831296cb407d0992ec228d9d176d80a7c9ae282b)
se poi si impone
, allora si ha che
e vale

da cui
Varianza delle variabili casuali
[modifica]
Definizione: Varianza di una variabile casuale
Data una variabile casuale

con una funzione di densità di probabilità

, si dice varianza la grandezza

con
![{\displaystyle \mu _{X}=E[X]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cdbe466af0841e3c0771b27642e8cd3b12767fb4)
La varianza si può definire anche come
![{\displaystyle \sigma _{X}^{2}=E[(x-\mu _{X})^{2}]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cb4d7dec199310d3aee93229431936ac0cab2701)
Se la variabile casuale è discreta anziché continua, allora si ha

con
Esempio: Variabile casuale binomiale
Si ha:
![{\displaystyle {\begin{aligned}\sigma _{X}^{2}&=E[(X-\mu _{X})^{2}]\\&=E[(X^{2}-2\mu _{X}X+\mu _{X}^{2})]\\&=E[X^{2}]-\mu _{X}^{2}+2E[X]\mu _{X}\mu _{X}\\&=E[X^{2}]-\mu _{X}^{2}=E[X^{2}]-E^{2}[X]\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9e9dc621bd4be3674f6bb64d711a87fec7841525)
Esempio: Variabile casuale di Bernoulli
Si ha

da cui
![{\displaystyle E[X]=p}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d32213b996dd3698047b46061b65a10ca75d93b9)
![{\displaystyle E[X^{2}]=1^{2}\cdot p+0\cdot q=p}](https://wikimedia.org/api/rest_v1/media/math/render/svg/48c3d27af04a97939d6ff78d02ef7fb41cf1bd47)
di conseguenza
Esempio: Variabile casuale uniforme
Sia

. Allora:
![{\displaystyle E[X]={\frac {b+a}{2}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cae3c0f8fff83dac42d27c15efbefe170fe90812)
![{\displaystyle {\begin{aligned}E[X^{2}]&=\int _{a}^{b}{\frac {1}{b-a}}x^{2}dx\\&={\frac {1}{b-a}}\left[{\frac {x^{3}}{3}}\right]_{a}^{b}\\&=\cdots \\&={\frac {1}{3}}(b^{2}+ab+a^{2})\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/28ad7464e5ff0df7985cdaac8f1ca879b9d88217)
da cui si ottiene
Esempio: Variabile casuale gaussiana
Momenti delle variabili casuali
[modifica]
Definizione: Momenti di una variabile casuale
Sia

una variabile casuale con funzione di densità di probabilità

. Si dice momento di ordine

della variabile casuale

la quantità
Definizione: Momento centrale di una variabile casuale
Data una variabile casuale

con funzione di densitù di probabilità

, si dice momento centrale di ordine

di

la quantità
Il valore atteso di una funzione di due variabili casuali
e
, con
- densità di probabilità

(funzione di Borel)
è dato da
![{\displaystyle E[g(X,Y)]=\int _{-\infty }^{+\infty }\int _{-\infty }^{+\infty }g(\alpha ,\beta )f_{X,Y}(\alpha ,\beta )d\alpha d\beta }](https://wikimedia.org/api/rest_v1/media/math/render/svg/4b88e5d6e043a4c69f1b967a306c84502f8d77cb)
Inoltre, se vale

allora
![{\displaystyle E[g(X,Y)]=aE[g_{1}(\alpha ,\beta )]+bE[g_{2}(\alpha ,\beta )]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6824edd526d44763e44cd8698aa4ecdaa5673672)
Siano
e
due variabili casuali. Allora il valore atteso è
![{\displaystyle E[X+Y]=E[X]+E[Y]=\mu _{X}+\mu _{Y}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/823d6ee919f5f88ea4ff0fb9cc0a80a4eff70196)
mentre la varianza è
![{\displaystyle E[((X+Y)-(\mu _{X}+\mu _{Y}))^{2}]=E[(X-\mu _{X})^{2}]+E[(Y-\mu _{Y})^{2}]+2E[(X-\mu _{X})(Y-\mu _{Y})]=\sigma _{X}^{2}+\sigma _{Y}^{2}+2E[(X-\mu _{X})(Y-\mu _{Y})]\neq \sigma _{X}^{2}+\sigma _{Y}^{2}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/53efdf3edd6490bc8e38f7df2302ea1bf2fbaa38)
nel caso di indipendenza, si ha
![{\displaystyle E[(X+Y-(\mu _{X}+\mu _{Y}))^{2}]=\sigma _{X}^{2}+\sigma _{Y}^{2}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5e9cbd9a6571cfef0251544e4bf78d8e3cb2f040)
Siano
e
due variabili casuali. Allora il valore atteso del loro prodotto è
![{\displaystyle E[XY]=\int _{-\infty }^{+\infty }\int _{-\infty }^{+\infty }\alpha \beta f_{XY}(\alpha ,\beta )d\alpha d\beta \neq E[X]\cdot E[Y]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8a037625a5dad6e6f339b5e99c1f461570ef3a3c)
Se poi
e
sono indipendenti, allora si ha
![{\displaystyle E[XY]=E[X]\cdot E[Y]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b2d631331b7fbb4b8018dd571bec28fc89866da1)
La varianza, invece, è
![{\displaystyle \sigma _{XY}^{2}=\mathbb {E} {\Big [}{\big (}XY-\mathbb {E} [XY]{\big )}^{2}{\Big ]}=\mathbb {E} [X^{2}Y^{2}]-\mathbb {E} [XY]^{2}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d4de35887d38820a89d089b441fd16927b594dd4)
Ancora una volta, nel caso di indipendenza, si ha
![{\displaystyle \sigma _{XY}^{2}=\mathbb {E} {\Big [}{\big (}XY-\mathbb {E} [XY]{\big )}^{2}{\Big ]}=\mathbb {E} [X^{2}Y^{2}]-\mathbb {E} [XY]^{2}=\sigma _{X}^{2}\cdot \sigma _{Y}^{2}+\mathbb {E} [Y]^{2}\cdot \sigma _{X}^{2}+\mathbb {E} [X]^{2}\cdot \sigma _{Y}^{2}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/90246b832f711eed824016b66d9d54824dc1366d)
Definizione: Variabili casuali incorrelate
Due variabili casuali

e

con densità di probabilità

si dicono incorrelate se
Si ha

Si ricordano le definizioni:
- incorrelazione
![{\displaystyle \Rightarrow \ E[XY]=E[X]\cdot E[Y]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6f8ba524d3f252c063427f27037d1d0e9491a44f)
- indipendenza

Esempio:
Siano

e

due variabili casuali con

Allora, si ha
![{\displaystyle E[XY]=\int _{-\infty }^{+\infty }\int _{-\infty }^{+\infty }\alpha \beta f_{X,Y}(\alpha ,\beta )d\alpha d\beta =(-1)\cdot (-1)\cdot {\frac {1}{4}}+0\cdot 0\cdot {\frac {1}{2}}+(-1)\cdot (1)\cdot {\frac {1}{4}}=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/336966d9f806473a8d77eb0d99d727264d8b73bc)

Allo stesso modo, si ha

Si ha
![{\displaystyle E[X]=\int _{-\infty }^{+\infty }xf_{X}(x)dx=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c81d4c9acfec07c3fb0a7c100a654ace8056d9fe)
![{\displaystyle E[Y]=\int _{-\infty }^{+\infty }yf_{Y}(y)dy={\frac {1}{2}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3f5259cdc88b7d098eb197bd9e3577a59da74ef3)
da cui si deduce che le due variabili casuali sono incorrelate. Non si può dire, però che vi sia indipendenza.
Se due variabili casuali sono congiuntamente gaussiane e sono incorrelate, allora sono anche indipendenti; vale il viceversa.
Definizione: Variabili casuali ortogonali
Due variabili casuali

e

con funzione di denstità di probabilità congiunta

si dicono ortogonali se
![{\displaystyle E[XY]=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4f505d1088836f55bf351cb76eec05a6b8e14ebc)
e si indicano con

.
Si ha:







Definizione: Covarianza di variabili casuali
Siano

e

due variabili casuali con funzione di densità di probabilità congiunta

. Si definisce la covarianza come

dove si ha
![{\displaystyle \mu _{X}=E[X]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cdbe466af0841e3c0771b27642e8cd3b12767fb4)
![{\displaystyle \mu _{Y}=E[Y]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/190d260baf9f404fe4b4fbeed0cbc65d41db35ab)
Una definizione alternativa è
Si ha che due variabili casuali
e
sono incorrelate quando
.
Definizione: Coefficiente di correlazione
Date

e

due variabili casuali con funzione di densità di probabilità congiunta

, si dice coefficiente di correlazione di

e

la grandezza
Esempio:
Sia

una variabile casuale con funzione di densità di probabilità

e sia

Mostrare che
se
e
se
.
Soluzione:
Il coefficiente di correlazione è una misura della forza della relazione lineare che intercorre tra

e

. Si ha


Si ha
![{\displaystyle C_{XY}=E[(X-\mu _{X})(Y-\mu _{Y})]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b52bebbddf7f1a917e58de32d916a1a4a56a31fa)
dove
![{\displaystyle \mu _{Y}=E[Y]=E[aX+b]=a\mu _{X}+b}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3c59b9ec87ed39eb49ea99562b20fa9e80f8183b)
da cui
![{\displaystyle {\begin{aligned}C_{XY}&=E[(X-\mu _{X})(aX+\not b-(a\mu _{X}+\not b))]\\&=E[(X-\mu _{X})a(X-\mu _{X})]\\&=aE[(X-\mu _{X})^{2}]\\&=a\cdot \sigma _{X}^{2}\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4de02884a229ac7a98244830bfc3f18f5dc0e9f3)
Si ha
![{\displaystyle \sigma _{Y}^{2}=E[(Y-\mu _{Y})^{2}]=E[a^{2}(X-\mu _{X})^{2}]=a^{2}\sigma _{X}^{2}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5f0bbd1a3470200e0a6cd85f1f5850629170fd75)
da cui si può calcolare il coefficiente di correlazione