Definizione: Distribuzione condizionata
Data una variabile casuale
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
definita su
![{\displaystyle (\Omega ,F,P)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3c6612687e4bdc3bdc02e47fe4c79316fc9e90e4)
con
![{\displaystyle A\in F}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c282e52300c61f5c1390d740735f48fe220d8318)
e con
![{\displaystyle P(A)\neq 0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7a846684685a97029690058ce0df193c0479f3be)
, si dice distribuzione di
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
condizionata all'evento
![{\displaystyle A}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7daff47fa58cdfd29dc333def748ff5fa4c923e3)
la funzione
![{\displaystyle F_{X|A}:\mathbb {R} \to [0,1]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9a11d9e9cf337e71e8a206ead1d5898f51187e50)
definita come
![{\displaystyle F_{X|A}=P(X\leq x|A)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a2c2bbeeaa47496388a0e7615a0388a637e8a00d)
dove
Nota:
può essere vista come la funzione di distribuzione definita su
con
.
Definizione: Funzione di densità di probabilità condizionata
Sia
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
una variabile casuale su
![{\displaystyle (\Omega ,F,P)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3c6612687e4bdc3bdc02e47fe4c79316fc9e90e4)
con
![{\displaystyle A\in F}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c282e52300c61f5c1390d740735f48fe220d8318)
e
![{\displaystyle P(A)\neq 0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7a846684685a97029690058ce0df193c0479f3be)
. Se esiste la funzione
![{\displaystyle f_{X|A}:\mathbb {R} \to \mathbb {R} ^{+}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a54de25e3aa33d8d93cf58e5748ec572ad2a6abe)
tale che
![{\displaystyle F_{X|A}(x|A)=\int _{-\infty }^{x}f_{X|A}(\alpha |A)d\alpha \ \ \forall x\in \mathbb {R} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/1a794ef00fdafd4d6a7b0fb0fa31f0fb7cfcb51a)
allora si dice che
![{\displaystyle F_{X|A}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0013da5e017738c0e777b196e87d57f2f29877fd)
ammette densità e
![{\displaystyle f_{X|A}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0277a9443b27fb1729515e9df7e01de4d3621fab)
è la funzione di densità di probabilità condizionata di
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
dato l'evento
![{\displaystyle A}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7daff47fa58cdfd29dc333def748ff5fa4c923e3)
.
Teorema: Teorema della probabilità totale
Sia
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
una variabile casuale su
![{\displaystyle (\Omega ,F,P)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3c6612687e4bdc3bdc02e47fe4c79316fc9e90e4)
con
![{\displaystyle \Omega =\bigcup _{i=1}^{n}A_{i}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/02871f5367b70b6d7f548ee607827098762221a2)
con gli
disgiunti a coppie. Allora, la probabilità dell'evento
![{\displaystyle \{s\in \Omega \ |\ X(s)\leq x\}\in \Omega }](https://wikimedia.org/api/rest_v1/media/math/render/svg/0e62a152c27787dcfa561b8c654b6e8dc474c2bd)
è data da
![{\displaystyle P(X\leq x)=P(X\leq x|A_{1})+P(X\leq x|A_{2})+\cdots +P(X\leq x|A_{n})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bc8b1f3e18fec84ba117a14f7c03e8b672acf744)
ossia
![{\displaystyle F_{X}(x)=F_{X|A_{1}}(x|A_{1})\cdot P(A_{1})+F_{X|A_{2}}(x|A_{2})\cdot P(A_{2})+\cdots +F_{X|A_{n}}(x|A_{n})\cdot P(A_{n})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e498ee22a51b50c028b6e957b62f1722cdd1147c)
Se poi la variabile casuale
ammette densità, allora si ha
Esempio:
Sia
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
una variabile casuale con funzione di densità di probabilità
![{\displaystyle f_{X}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/17fd6605a04f97c6bedb0a9632f9f023cb18dd40)
definita su
![{\displaystyle (a,b)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d7e5710198f33b00695903460983021e75860e2c)
. Siano gli
![{\displaystyle A_{i}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1aed3b5def921afbe6cc48aaf8f9b11c6f1c1e2d)
una partizione dell'insieme
![{\displaystyle (a,b)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d7e5710198f33b00695903460983021e75860e2c)
. Data
![{\displaystyle Y=g(X)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/84fd834147d6175f13477acff6567727265d0000)
si ha
Esercizio: Calcolo della densità di probabilità dell'errore di quantizzazione
Sia
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
una variabile casuale con funzione di densità di probabilità
![{\displaystyle f_{X}~U(a,b)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/80db42339b8983ace69c584c196b7fd12ad96503)
. Sia
![{\displaystyle E}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4232c9de2ee3eec0a9c0a19b15ab92daa6223f9b)
la variabile casuale errore, calcolare la sua
![{\displaystyle f_{E}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3d89c6f721934c4eb29d905b8a11abe79a47f9aa)
con
![{\displaystyle E=X-Z=X-h(X)=g(X)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a46ed954a998a447f7de194fc5cd60bfc49d3767)
dove
![{\displaystyle g(x)=\left\{{\begin{matrix}x-z_{1}&x\in (x_{1},x_{2}]\\x-z_{2}&x\in (x_{2},x_{3}]\\x-z_{3}sex\in (x_{3},x_{4}]\\x-z_{4}&x\in (x_{4},x_{5}]\end{matrix}}\right.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e1e47c758d214343674cf35d268491af92f1d82e)
In generale, per determinare la
si deve conoscere lo spazio di probabilità
su cui è definita la variabile casuale
, dal momento che bisogna calcolare la probabilità
![{\displaystyle P(X\leq x|A)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5958dedc6bb7e585b04bf64f05e36256207584e0)
con
. Se però
è espresso in funzione di
, per esempio
![{\displaystyle A=\{s\in \Omega \ |\ X(s)\in B\}{\text{ con }}B\in \mathbb {B(R)} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/9d199804b3e41dd3e3ffba3efb823b13a1155097)
allora la
può essere calcolata a partire da
.
Esempio:
Sia
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
una variabile casuale con distribuzione di probabilità
![{\displaystyle F_{X}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/062f285db773e329f6c270cb6b65fa076996c941)
e sia
![{\displaystyle A=\{s\in \Omega \ |\ a<X(s)<b\}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6ec94fe4a93223da5055a791ecfbbc1d63e49c14)
Allora, si ha
![{\displaystyle F_{X|A}(x|A)=F_{X|A}(x|a<X\leq b)=P(X\leq x|a<X\leq b)={\frac {P(X\leq x\cap a<X\leq b)}{P(a<X\leq b)}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0b275cfbfaa949e035675746241ceeeb0a90d01e)
Si ha
![{\displaystyle F_{X|A}(x\ |\ a<X\leq b)=\left\{{\begin{matrix}0&x<a\\{\frac {F_{X}(x)-F_{X}(a)}{F_{X}(b)-F_{X}(a)}}&x\in [a,b)\\1&x\geq b\end{matrix}}\right.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b5d46efb50e5e93631a6b80675d3d96400661ff1)
Se la
ammette anche densità, allora
Esercizio:
Sia
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
una variabile casuale con
![{\displaystyle F_{X}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/062f285db773e329f6c270cb6b65fa076996c941)
e
![{\displaystyle f_{X}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/17fd6605a04f97c6bedb0a9632f9f023cb18dd40)
. Calcolare la
![{\displaystyle F_{X|x>a}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/513f6d212dd48e4f4eba00cd9ccfcbf76689b447)
e la
![{\displaystyle f_{X|x>a}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8d814dd6055f05482e6e77f4ec0660f3b19ef61d)
.
Valore atteso condizionato ad un evento
[modifica]
Siano
con
e con
. Data la variabile casuale
definita su
che ammette densità condizionata
, allora
![{\displaystyle E[X|A]=\int _{-\infty }^{+\infty }xf_{X|A}(x|A)dx}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1e7dd135da9c4ecc4b061c061b0219b73b5c660f)
Se esiste una funzione
per cui
, con
funzione di Borel, allora si ha
![{\displaystyle E[Y|A]=\int _{-\infty }^{+\infty }g(x)f_{X|A}(x|A)dx}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a71d68bcccc2b1b0480a8eb3531d97c510952bf2)
Teorema: Teorema di Bayes
Sia data una variabile casuale
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
definita su uno spazio di probabilità
![{\displaystyle (\Omega ,F,P)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3c6612687e4bdc3bdc02e47fe4c79316fc9e90e4)
, con
![{\displaystyle A\in F}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c282e52300c61f5c1390d740735f48fe220d8318)
e con
![{\displaystyle x\in \mathbb {R} \ |P(X\leq x)\neq 0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/489397f018dccd57f4f802db64294fa201ad0101)
. Allora, si ha
![{\displaystyle P(A|X\leq x)={\frac {P(X\leq x|A)P(A)}{P(X\leq x)}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/36690d30db02b8884852bcddb0830f7cca9a93f1)
Esempio:
Sia
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
una variabile casuale con distribuzione
![{\displaystyle F_{X}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/062f285db773e329f6c270cb6b65fa076996c941)
definita su
![{\displaystyle (\Omega ,F,P)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3c6612687e4bdc3bdc02e47fe4c79316fc9e90e4)
, con
![{\displaystyle A\in F}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c282e52300c61f5c1390d740735f48fe220d8318)
. Si ha
Vediamo ora come è possibile calcolare la probabilità di un evento, condizionata ad una variabile casuale. Se si ha
come variabile casuale discreta, si ha
![{\displaystyle P(A|X=x)={\frac {P(X=x|A)\cdot P(A)}{P(X=x)}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/59dacf919e75dac80950c379769dbb5ccd5827d9)
con
. Se
è una variabile casuale continua, al contrario, si ha che
; osserviamo che vale
![{\displaystyle \int _{B}f_{X|A}(x|A)P(A)dx=P(x\in B,A)\ \forall B\in \mathbb {B(R)} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/ff8697a1c157dd48350839058ebeda93b8e2d3d4)
La probabilità di un evento
condizionata a
è definita come quella funzione
![{\displaystyle g_{A}:\mathbb {R} \to \mathbb {R} ^{+}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0f66d636a280fb3adb8dfe7baab642a1be0f884b)
tale per cui
![{\displaystyle \int _{B}g_{A}(x)f_{X}(x)=P(x\in B,A)\ \forall B\in \mathbb {B(R)} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/ff9490298257afa237d34bd2a95bc97b5f5d3d0a)
La grandezza
può essere calcolata da
![{\displaystyle P(A|X=x)=\left\{{\begin{matrix}{\frac {f_{X|A}P(A)}{f_{X}(x)}}&f_{X}(x)\neq 0\\0&{\text{altrimenti}}\end{matrix}}\right.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/52393f170866e712bcd9ae12ff07401e181f8056)
Teorema: Teorema della probabilità totale
Data una variabile casuale
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
definita su
![{\displaystyle (\Omega ,F,P)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3c6612687e4bdc3bdc02e47fe4c79316fc9e90e4)
, con
![{\displaystyle A\in F}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c282e52300c61f5c1390d740735f48fe220d8318)
e con funzione di densità di probabilità
![{\displaystyle f_{X}(x)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/29310a010e7f7dfa33ba69bcf1ef9ec166d461dd)
, allora si ha che
![{\displaystyle P(A)=\int _{-\infty }^{+\infty }P(A|X=x)f_{X}(x)dx}](https://wikimedia.org/api/rest_v1/media/math/render/svg/316dd675a113eaaab2e9e199e3a1c49e242bea83)
Teorema: Teorema di Bayes per funzioni di densità di probabilità
Si ha lo spazio di probabilità
![{\displaystyle (\Omega ,F,P)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3c6612687e4bdc3bdc02e47fe4c79316fc9e90e4)
, con
![{\displaystyle a\in F}](https://wikimedia.org/api/rest_v1/media/math/render/svg/130d30b75a5437ad01787d25462043ac3a9aee3c)
come
![{\displaystyle \sigma }](https://wikimedia.org/api/rest_v1/media/math/render/svg/59f59b7c3e6fdb1d0365a494b81fb9a696138c36)
-algebra, e con
![{\displaystyle P(A)\neq 0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7a846684685a97029690058ce0df193c0479f3be)
. Si ha una variabile casuale
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
con funzione di densità di probabilità
![{\displaystyle f_{X}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/17fd6605a04f97c6bedb0a9632f9f023cb18dd40)
. Allora, vale
![{\displaystyle f_{X|A}(x|A)={\frac {P(A|X=x)f_{X}(x)}{\int _{-\infty }^{+\infty }P(A|X=x)f_{X}(x)dx}}={\frac {P(A|X=x)f_{X}(x)}{P(A)}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/144fe416e5f81206dae6577308aecbd7ff52ba08)
Dimostrazione:
È lasciata allo studente...
Densità condizionata di variabile casuale, data un'altra variabile casuale
[modifica]
Sappiamo calcolare la probabilità
![{\displaystyle P(Y\in B|X=x)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/fcf67480ba640b950940b77ca6601307a7785c44)
come un caso particolare di
. In altri termini, si ha
![{\displaystyle P(Y\in B|X=x)=\left\{{\begin{matrix}{\frac {f_{X|Y\in B}(x|Y\in B)P(Y\in B)}{f_{X}(x)}}&\forall x|f_{X}(x)\neq 0\\0&{\text{altrimenti}}\end{matrix}}\right.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/73e5f0ac0b258a48527957882e665fe020df9a00)
Definizione:
Distribuzione di
condizionata a ![{\displaystyle X=x}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0661396d873679039ffe8e908a39f02402d4912d)
Data la variabile casuale
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
con funzione di probabilità
![{\displaystyle F_{X}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/062f285db773e329f6c270cb6b65fa076996c941)
, si ha
![{\displaystyle F_{Y,X=x}(y|X=x)=P(Y\leq y|X=x)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5fbbef50918159b0f1850405399cd68fb6955337)
Questa è la funzione di distribuzione (se
) perché la funzione
![{\displaystyle m_{X}:F\to [0,1]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/31dcbbebd8f59e889104b22d6d302763a8423e48)
definita da
![{\displaystyle m_{X}(A)=P(A|X=x)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/88af482ecffeab31833cb872d0994602d06cddfb)
è una misura di probabilità se esiste la funzione di densità di probabilità
tale per cui
![{\displaystyle F_{Y|X=x}(y|X=x)=\int _{-\infty }^{+\infty }P_{Y|X}(B|x)dB}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9fae57d0e323635d7adc0fc1408c142384004cda)
da cui si ha che la
![{\displaystyle f_{Y|X}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bd04c54a91ebcceb7fe09878322084ad31ab8c75)
è una densità.
Proposizione:
![{\displaystyle f_{Y|X}=\left\{{\begin{matrix}{\frac {f_{XY}(x,y)}{f_{X}(x)}}&f_{X}(x)\neq 0\\0&{\text{altrimenti}}\end{matrix}}\right.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8da690af0426b9941e78f5cc4bf15dbfbcb7dacd)
Questo risultato assomiglia alla probabilità condizionata di un evento, che è
![{\displaystyle P(A|B)={\frac {P(B|A)P(A)}{P(B)}}={\frac {P(A,B)}{P(B)}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/fcf0bc93005dc5e338eb19e58f3c28f688d8c84c)
cioè, la dentistà di probabilità congiunta non è altro che l'intersezione delle due variabili casuali di partenza.
Teorema:
Si ha
![{\displaystyle P(y\in C|X=x)=\int _{C}f_{Y|X}(y,x)dy\ \forall C\in \mathbb {B(R)} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/0f1a94a4eb70876a1a0d4583b4f70b05e376a159)
con
dato dalla proposizione precedente.
Dimostrazione:
Per definizione,
![{\displaystyle \int _{B}P(Y\in C|X=x)f_{X}(x)dx=P(Y\in C,X\in B)\ \forall B\in \mathbb {B(R)} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/a6d64f6faabdd1600dc39b9ccd7cdfd4795d40b2)
Si ha
Osservazioni:
è la sezione di
con il piano
;
- se
e
sono variabili casuali indipendenti, allora si ha
![{\displaystyle f_{Y|X}(y|x)=f_{Y}(y)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ae519bd3ee814c183e45dd6b4fc3aed8d8fd3a7c)
- Infatti, se le due variabili sono indipendenti, la conoscenza di
non è in alcun mondo influenzata dalla conoscenza di
.
Definizione: Valore atteso condizionato
Date due variabili casuali
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
e
![{\displaystyle Y}](https://wikimedia.org/api/rest_v1/media/math/render/svg/961d67d6b454b4df2301ac571808a3538b3a6d3f)
, con funzione di densità di probabilità
![{\displaystyle f_{X,Y}(x,y)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f2e305446e0fee9c51aee21bc81fb7136f1151e6)
, si definisce il valore atteso di
![{\displaystyle Y}](https://wikimedia.org/api/rest_v1/media/math/render/svg/961d67d6b454b4df2301ac571808a3538b3a6d3f)
condizionato da
![{\displaystyle X=x}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0661396d873679039ffe8e908a39f02402d4912d)
la quantità
Anche qui, vale il teorema del valore atteso che dice che, data una variabile casuale
, si ha
![{\displaystyle E[Z|X=x]=E[g(Y)|X=x]=\int _{-\infty }^{+\infty }g(y)\cdot f_{Y|X}(y|x)dy}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5e1ce829dcff1f11fcbef57da76ecf61f101936a)
Proprietà: Proprietà del valore atteso condizionato:
- Se le variabili casuali
e
sono indipendenti, allora
, da cui si ha
![{\displaystyle E[Y|X=x]=\int yf_{Y|X}(y|x)dy=\int yf_{Y}(y)dy=E[Y]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d3bc9c77af38dd63efe39ccd1dfa5e3c55585611)
- Se
, allora si ha dipendenza totale e vale
![{\displaystyle E[Y|X=x]=E[g(X)|X=x]=\int _{-\infty }^{+\infty }y\delta (y-g(x))dy=E[g(x)]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6c36e98b129a74afaecdc9b3e4e67ab82f3f298b)
- Questo è abbastanza intuitivo: se si ha dipendenza completa
, allora vale
![{\displaystyle f_{Y|X}(y|x)=\delta (y-g(x))}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1ca8cd7e77a07778a14a04872c7afddbf02f7710)
- cioè, si ha una
quando
, non si ha alcuna incertezza sul risultato.
![{\displaystyle E[g(X,Y)|X=x]=E[g(x,Y)|X=x]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c0e520a440ed02a42c4eaf2b12d7cde09284c4fb)
- Se poi
è separabile, cioè
![{\displaystyle g(x,Y)=g_{1}(x)\cdot g_{2}(Y)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/52294fb2b2488db053008ac29148676acec48f68)
- allora si ha
Consideriamo il solito spazio di probabilità
con le variabili casuali
e con un'altra variabile casuale
tale che
![{\displaystyle Z(s)=E[Y|X=X(s)]\ \forall s\in \Omega }](https://wikimedia.org/api/rest_v1/media/math/render/svg/30df232029cb3a461e6cacf93170c423b0716d32)
La variabile casuale
ha un valore atteso condizionato; in generale, la variabile casuale
rappresenta il valore atteso condizionato
![{\displaystyle E\left[Y|X\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/aff6bd429331f068aa22878da9a5d0883c07546b)
Teorema:
Si ha
![{\displaystyle E[Z]=E\left[E[Y|X]\right]=E[Y]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cfade44039d3d1534dabb18c45aafc0f6f03ac1b)
Dimostrazione:
Si ha
![{\displaystyle E[Z]=\int _{-\infty }^{+\infty }E[Y|X=x]f_{X}(x)dx}](https://wikimedia.org/api/rest_v1/media/math/render/svg/42638a17f81c3146ce95d457e0ee2430d72bd7bc)
Applicando il teorema del valore atteso, si ha
Stima con la massima probabilità a posteriori (MPP) e con la massima verosimiglianza (MV)
[modifica]
Dato lo spazio di probabilità
con
e
, si definisce la variabile casuale
![{\displaystyle X~f_{X}(x)=f_{X|A}(x|A)\cdot P(A)+f_{X|{\bar {A}}}(x|{\bar {A}})\cdot P({\bar {A}})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f29b52858767184478b6a77db82e8e3099afd856)
Quello che vogliamo fare è, dato
, capire a quale delle due popolazioni
oppure
appartiene. Se si prende l'esempio delle molecole di gas, la funzione di densità di probabilità dell'energia è una combinazione lineare di altre funzioni di densità di probabilità; qui è la stessa cosa, si vuole calcolare la densità di uscita come mixture di altre densità.
Esempio: Canale discreto gaussiano
Si ha un canale discreto con rumore gaussiano.
I simboli di partenza possono essere
oppure
, il rumore è di tipo gaussiano
e la variabile casuale di interesse è la
di uscita. Se si trasmette il segnale
, la funzione di densità di probabilità sarà la
; al contrario, se si trasmette
, allora la densità sarà
.
Si ha
![{\displaystyle A\Rightarrow f_{X|A}(x|A)=N(\mu +A,\sigma )}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b1e972fe3b17bc8d17a0711bf33058e345f78f2d)
![{\displaystyle {\bar {A}}\Rightarrow f_{X|{\bar {A}}}(x|{\bar {A}})=N(\mu +{\bar {A}},\sigma )}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a1df929c759cd9639365af4413c2b97eb60a67bf)
Da qui, si ha che la
![{\displaystyle f_{X}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/17fd6605a04f97c6bedb0a9632f9f023cb18dd40)
sarà una combinazione lineare di
![{\displaystyle f_{X|A}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0277a9443b27fb1729515e9df7e01de4d3621fab)
e
![{\displaystyle f_{X|{\bar {A}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7006e603234e0a3bb503cb7d816bbb8a5361e67e)
. In questo esempio, la somma sarà pesata con le probabilità dei due simboli,
![{\displaystyle P(A)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4f264d19e21604793c6dc54f8044df454db82744)
e
![{\displaystyle P({\bar {A}})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/142671932435e4f05a2af93e30946ad684c24dca)
. Lo scopo finale di questo lavoro è osservare il risultato della variabile casuale
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
per capire se è stato trasmesso
![{\displaystyle A}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7daff47fa58cdfd29dc333def748ff5fa4c923e3)
o
Esempio:
Data un'altezza umana, si tratta dell'altezza di un uomo o di una donna?
Massima probabilità a posteriori
[modifica]
La massima probabilità a posteriori è definita come
![{\displaystyle P(A|X=x)=\left\{{\begin{matrix}>P({\bar {A}}|X=x)&A\\<P({\bar {A}}|X=x)&{\bar {A}}\end{matrix}}\right.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/be598b4eb270c97c521719fbbafa99ceae077dbf)
Se vale
, allora decidiamo che è stato trasmesso
e non
.
Il criterio a massima probabilità a posteriori, quindi, è
![{\displaystyle f_{X|A}(x|A)\cdot P(A)\left({\begin{matrix}<\\>\end{matrix}}\right)f_{X|{\bar {A}}}(x|{\bar {A}})\cdot P({\bar {A}})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/716c76476d51b3158a93689ffcb4c9f9ff6b8345)
Nel caso in cui
, il criterio di massima probabilità a posteriori diventa un criterio di massima verosimiglianza.
![{\displaystyle f_{X|A}(x|A)\cdot P(A)\left({\begin{matrix}<\\>\end{matrix}}\right)f_{X|{\bar {A}}}(x|{\bar {A}})\cdot P({\bar {A}})=f_{X|A}(x|A)\left({\begin{matrix}<\\>\end{matrix}}\right)f_{X|{\bar {A}}}(x|{\bar {A}})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/eb402a251b136267ee73f71d8abc2d3bfaedd811)
Il criterio a massima verosimiglianza è meno potente di quello a massima probabilità a posteriori, perché quest'ultimo sfrutta la conoscenza della probabilità dei simboli prima di essere trasmessi, mentre il secondo metodo si limita ad osservare il risultato finale e la funzione di densità di probabilità, considerando tutti i simboli equiprobabili. Quindi, il criterio a massima verosimiglianza è meno potente, perché sfrutta meno informazioni.
Esercizio al calcolatore:
Stimare la MPP e la MV del sistema dell'esempio, con sorgente
![{\displaystyle A~U[0,1]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5a035ef65b55fbe1c1560765b9739881e4f41b69)
e rumore