Da Wikiversità, l'apprendimento libero.
Definizione : Eventi indipendenti
Dato uno spazio di probabilità
(
Ω
,
F
,
P
)
{\displaystyle (\Omega ,F,P)}
, gli eventi
A
{\displaystyle A}
e
B
{\displaystyle B}
si dicono indipendenti se
P
(
A
∩
B
)
=
P
(
A
)
⋅
P
(
B
)
{\displaystyle P(A\cap B)=P(A)\cdot P(B)}
Teorema :
È importante notare la differenza tra i due concetti di eventi indipendenti ed eventi disgiunti.
Definizione : Eventi mutuamente esclusivi
Quando l'intersezione tra due eventi
A
{\displaystyle A}
e
B
{\displaystyle B}
è vuota, i due eventi si dicono mutuamente esclusivi.
Esempio :
Caso con
A
{\displaystyle A}
e
B
{\displaystyle B}
disgiunti
Con
A
{\displaystyle A}
e
B
{\displaystyle B}
disgiunti si ha che l'intersezione tra i due insiemi è vuota,
A
∩
B
=
∅
{\displaystyle A\cap B=\varnothing }
In questo caso, si ha
P
(
A
∩
B
)
=
P
(
{
∅
}
)
=
0
≠
P
(
A
)
P
(
B
)
{\displaystyle P(A\cap B)=P(\{\varnothing \})=0\neq P(A)P(B)}
Perché sia
P
(
A
)
{\displaystyle P(A)}
che
P
(
B
)
{\displaystyle P(B)}
possono essere non impossibili ovverosia
P
(
A
)
>
0
{\displaystyle P(A)>0}
e
P
(
B
)
>
0
{\displaystyle P(B)>0}
Esempio :
Caso con
A
∩
B
≠
{
∅
}
{\displaystyle A\cap B\neq \{\varnothing \}}
In questo caso, a priori non si può dire nulla, perché potrebbe esserci indipendenza come potrebbe non esserci.
Esempio :
A
=
500
,
B
=
200
,
Ω
=
1000
{\displaystyle A=500,\ B=200,\ \Omega =1000}
Definiamo il valore dell'intersezione dei due insiemi come
P
(
A
∩
B
)
=
1
10
{\displaystyle P(A\cap B)={\frac {1}{10}}}
mentre le probabilità dei singoli insiemi sono
P
(
A
)
=
1
2
{\displaystyle P(A)={\frac {1}{2}}}
P
(
B
)
=
1
5
{\displaystyle P(B)={\frac {1}{5}}}
Allora, il prodotto delle due probabilità coincide con la probabilità dell'intersezione
P
(
A
)
P
(
B
)
=
1
2
⋅
1
5
=
1
10
{\displaystyle P(A)P(B)={\frac {1}{2}}\cdot {\frac {1}{5}}={\frac {1}{10}}}
quindi i due eventi sono indipendenti.
Esempio : Lancio ripetuto di una moneta
Lanciamo due volte una moneta. Si ha
Ω
=
{
T
T
,
T
C
,
C
T
,
C
C
}
{\displaystyle \Omega =\left\{TT,TC,CT,CC\right\}}
F
=
2
Ω
{\displaystyle F=2^{\Omega }}
insieme delle parti
P
(
{
T
T
}
)
=
P
(
{
T
C
}
)
=
P
(
{
C
T
}
)
=
P
(
{
C
C
}
)
{\displaystyle P(\left\{TT\right\})=P(\{TC\})=P(\{CT\})=P(\{CC\})}
Definiamo i due eventi
A
=
esce testa al primo lancio
=
{
{
T
C
}
,
{
T
T
}
}
{\displaystyle A={\text{ esce testa al primo lancio }}=\left\{\{TC\},\{TT\}\right\}}
B
=
esce testa al secondo lancio
=
{
{
C
T
}
,
{
T
T
}
}
{\displaystyle B={\text{ esce testa al secondo lancio }}=\left\{\{CT\},\{TT\}\right\}}
Si ha
A
∩
B
=
{
T
T
}
{\displaystyle A\cap B=\left\{TT\right\}}
Vogliamo sapere se i due eventi
A
{\displaystyle A}
e
B
{\displaystyle B}
sono indipendenti. Si ha
P
(
A
)
=
P
(
{
T
T
}
)
+
P
(
{
T
C
}
)
=
1
4
+
1
4
=
1
2
=
P
(
B
)
{\displaystyle P(A)=P(\{TT\})+P(\{TC\})={\frac {1}{4}}+{\frac {1}{4}}={\frac {1}{2}}=P(B)}
P
(
B
)
=
P
(
{
T
T
}
)
+
P
(
{
C
T
}
)
=
1
4
+
1
4
=
1
2
=
P
(
B
)
{\displaystyle P(B)=P(\{TT\})+P(\{CT\})={\frac {1}{4}}+{\frac {1}{4}}={\frac {1}{2}}=P(B)}
P
(
A
∩
B
)
=
P
(
{
T
T
}
)
=
1
4
{\displaystyle P(A\cap B)=P(\{TT\})={\frac {1}{4}}}
P
(
A
)
P
(
B
)
=
1
2
⋅
1
2
=
1
4
{\displaystyle P(A)P(B)={\frac {1}{2}}\cdot {\frac {1}{2}}={\frac {1}{4}}}
Da questo, si ha che i due eventi sono effettivamente indipendenti tra loro.
Cosa cambia se usiamo una moneta truccata?
Cosa cambia se i lanci non sono indipendenti?
Sia
P
(
{
T
T
}
)
=
P
(
{
T
C
}
)
=
P
(
{
C
T
}
)
=
1
6
{\displaystyle P(\{TT\})=P(\{TC\})=P(\{CT\})={\frac {1}{6}}}
P
(
{
C
C
}
)
=
3
6
{\displaystyle P(\{CC\})={\frac {3}{6}}}
In questo caso, le tabelle di probabilità non rispettano più l'indipendenza tra eventi, quindi
A
{\displaystyle A}
e
B
{\displaystyle B}
non sono indipendenti. Si verifichi per esercizio.
Definizione : Eventi multipli indipendenti
Dati
(
Ω
,
F
,
P
)
{\displaystyle (\Omega ,F,P)}
e gli eventi
A
1
,
A
2
,
⋯
,
A
n
∈
F
{\displaystyle A_{1},A_{2},\cdots ,A_{n}\in F}
gli eventi
A
i
{\displaystyle A_{i}}
si dicono indipendenti se
P
(
⋂
i
∈
I
A
i
)
=
∏
i
∈
I
P
(
A
i
)
∀
sottoinsieme di indici
I
{\displaystyle P\left(\bigcap _{i\in I}A_{i}\right)=\prod _{i\in I}P(A_{i})\ \forall {\text{ sottoinsieme di indici }}I}
Nota: dalla definizione si deduce che non basta verificare
P
(
A
1
∩
A
2
∩
⋯
∩
A
n
)
=
∏
i
=
1
n
P
(
A
i
)
{\displaystyle P\left(A_{1}\cap A_{2}\cap \cdots \cap A_{n}\right)=\prod _{i=1}^{n}P(A_{i})}
ma bisogna controllare che questo sia vero per ogni sottoinsieme di indici
I
{\displaystyle I}
.
Esempio : Lancio della moneta
Siano gli eventi
A
=
testa al primo lancio
{\displaystyle A={\text{ testa al primo lancio}}}
B
=
croce al primo lancio
{\displaystyle B={\text{ croce al primo lancio}}}
C
=
∅
{\displaystyle C=\varnothing }
Si ha
P
(
A
∩
B
∩
C
)
=
P
(
∅
)
=
0
=
P
(
A
)
P
(
B
)
P
(
C
)
{\displaystyle P(A\cap B\cap C)=P(\varnothing )=0=P(A)P(B)P(C)}
Da questa prima verifica, potrebbe sembrare che i tre eventi siano indipendenti, ma in realtà non lo sono, perché
P
(
A
∩
B
)
=
P
(
∅
)
=
0
≠
P
(
A
)
P
(
B
)
=
1
2
⋅
1
2
=
1
4
{\displaystyle P(A\cap B)=P(\varnothing )=0\neq P(A)P(B)={\frac {1}{2}}\cdot {\frac {1}{2}}={\frac {1}{4}}}
Quindi,
A
{\displaystyle A}
,
B
{\displaystyle B}
e
C
{\displaystyle C}
non sono indipendenti.
Definizione : Probabilità condizionata
Dato lo spazio di probabilità
(
Ω
,
F
,
P
)
{\displaystyle (\Omega ,F,P)}
si considerino
A
,
B
∈
F
{\displaystyle A,B\in F}
con
P
(
B
)
≠
0
{\displaystyle P(B)\neq 0}
. Si definisce probabilità condizionata di
A
{\displaystyle A}
dato
B
{\displaystyle B}
come la probabilità
P
(
A
|
B
)
=
P
(
A
∩
B
)
P
(
B
)
{\displaystyle P(A|B)={\frac {P(A\cap B)}{P(B)}}}
Teorema :
Fissato
B
∈
F
{\displaystyle B\in F}
con
P
(
B
)
≠
0
{\displaystyle P(B)\neq 0}
, la funzione
P
(
⋅
|
B
)
:
F
→
[
0
,
1
]
{\displaystyle P(\cdot |B):F\rightarrow [0,1]}
definisce una misura di probabilità di
F
{\displaystyle F}
.
Dimostrazione :
1. Siano
A
1
,
A
2
,
⋯
,
A
k
∈
F
{\displaystyle A_{1},A_{2},\cdots ,A_{k}\in F}
disgiunti a coppie. Allora
P
(
⋃
k
A
k
|
B
)
=
P
(
⋃
k
A
k
∩
B
)
P
(
B
)
=
∑
k
P
(
A
k
∩
B
)
P
(
B
)
{\displaystyle P\left(\bigcup _{k}A_{k}|B\right)={\frac {P\left(\bigcup _{k}A_{k}\cap B\right)}{P(B)}}=\sum _{k}{\frac {P(A_{k}\cap B)}{P(B)}}}
2. Si ha
P
(
Ω
|
B
)
=
P
(
Ω
∩
B
)
P
(
B
)
=
P
(
B
)
P
(
B
)
=
1
{\displaystyle P(\Omega |B)={\frac {P(\Omega \cap B)}{P(B)}}={\frac {P(B)}{P(B)}}=1}
Teorema :
Siano gli eventi
A
,
B
1
,
B
2
∈
F
{\displaystyle A,B_{1},B_{2}\in F}
e sia
P
(
B
1
∩
B
2
)
≠
0
{\displaystyle P(B_{1}\cap B_{2})\neq 0}
. Si ha
P
(
A
|
B
1
,
B
2
)
=
P
(
A
|
B
1
∩
B
2
)
=
P
(
A
∩
B
1
∩
B
2
)
P
(
B
1
∩
B
2
)
{\displaystyle P(A|B_{1},B_{2})=P(A|B_{1}\cap B_{2})={\frac {P(A\cap B_{1}\cap B_{2})}{P(B_{1}\cap B_{2})}}}
Teorema :
Se gli eventi
A
{\displaystyle A}
e
B
{\displaystyle B}
sono indipendenti, si ha
P
(
A
|
B
)
=
P
(
A
)
P
(
B
)
P
(
B
)
=
P
(
A
)
{\displaystyle P(A|B)={\frac {P(A)P(B)}{P(B)}}=P(A)}
cioè, la probabilità a priori e a posteriori sono identiche.
Esempio : Il lancio del dado
Calcolare la probabilità che sia uscito il
6
{\displaystyle 6}
, sapendo che è uscito un numero pari. Si ha
Ω
=
{
1
,
2
,
3
,
4
,
5
,
6
}
{\displaystyle \Omega =\left\{1,2,3,4,5,6\right\}}
F
=
2
Ω
{\displaystyle F=2^{\Omega }}
P
(
k
)
=
1
6
∀
k
=
1
,
2
,
⋯
,
6
{\displaystyle P(k)={\frac {1}{6}}\ \forall k=1,2,\cdots ,6}
Si ha
P
(
A
|
B
)
=
P
(
A
∩
B
)
P
(
B
)
=
1
6
1
2
=
1
3
{\displaystyle P(A|B)={\frac {P(A\cap B)}{P(B)}}={\frac {\frac {1}{6}}{\frac {1}{2}}}={\frac {1}{3}}}
Si noti che si è ottenuto
P
(
A
|
B
)
=
1
3
>
P
(
A
)
=
1
6
{\displaystyle P(A|B)={\frac {1}{3}}>P(A)={\frac {1}{6}}}
. Si dice che l'evento
A
{\displaystyle A}
è attratto dall'evento
B
{\displaystyle B}
. Al contrario, con l'evento
C
=
{
1
}
{\displaystyle C=\left\{1\right\}}
, si ha
P
(
C
|
B
)
=
P
(
C
∩
B
)
P
(
B
)
=
0
{\displaystyle P(C|B)={\frac {P\left(C\cap B\right)}{P(B)}}=0}
In questo caso, si è ottenuto che
P
(
C
)
>
P
(
C
|
B
)
{\displaystyle P(C)>P(C|B)}
, quindi si dice che
C
{\displaystyle C}
è respinto da
B
{\displaystyle B}
.
Esempio : Esempio di applicazione della probabilità condizionata
Legge della probabilità composta[ modifica ]
Definizione :
Dati
(
Ω
,
F
,
P
)
{\displaystyle (\Omega ,F,P)}
e
A
,
B
∈
F
{\displaystyle A,B\in F}
, si ha
P
(
A
∩
B
)
=
P
(
A
|
B
)
P
(
B
)
=
P
(
B
|
A
)
P
(
A
)
{\displaystyle P\left(A\cap B\right)=P(A|B)P(B)=P(B|A)P(A)}
La relazione vale anche se una delle due probabilità è nulla ovverosia, infatti
P
(
A
∩
B
)
≤
min
(
P
(
A
)
,
P
(
B
)
)
{\displaystyle P(A\cap B)\leq \min(P(A),P(B))}
Teorema : Regola della catena
Dati
(
Ω
,
F
,
P
)
{\displaystyle (\Omega ,F,P)}
e gli eventi
A
k
∈
F
,
k
=
1
,
2
,
⋯
,
n
{\displaystyle A_{k}\in F,\ k=1,2,\cdots ,n}
si ha
P
(
A
1
∩
A
2
∩
⋯
∩
A
n
)
=
P
(
A
n
|
A
n
−
1
∩
A
n
−
2
∩
⋯
∩
A
2
∩
A
1
)
⋅
P
(
A
n
−
1
|
A
n
−
2
∩
A
n
−
3
∩
⋯
∩
A
2
∩
A
1
)
⋯
P
(
A
2
|
A
1
)
⋅
P
(
A
1
)
{\displaystyle {\begin{aligned}P&\left(A_{1}\cap A_{2}\cap \cdots \cap A_{n}\right)\\&=P(A_{n}|A_{n-1}\cap A_{n-2}\cap \cdots \cap A_{2}\cap A_{1})\cdot P(A_{n-1}|A_{n-2}\cap A_{n-3}\cap \cdots \cap A_{2}\cap A_{1})\cdots P(A_{2}|A_{1})\cdot P(A_{1})\end{aligned}}}
Dimostrazione :
Coincide con l'imporre che
B
=
(
A
n
−
1
∩
A
n
−
2
∩
⋯
∩
A
1
)
{\displaystyle B=(A_{n-1}\cap A_{n-2}\cap \cdots \cap A_{1})}
e dire
P
(
A
n
,
B
)
=
P
(
A
n
|
B
)
P
(
B
)
{\displaystyle P\left(A_{n},B\right)=P(A_{n}|B)P(B)}
iterativamente. L'equazione finale si ricava per passi successivi.
Teorema : Teorema della probabilità totale
Sia
(
Ω
,
F
,
P
)
{\displaystyle (\Omega ,F,P)}
e siano
A
1
,
A
2
,
⋯
,
A
n
∈
F
{\displaystyle A_{1},A_{2},\cdots ,A_{n}\in F}
eventi mutuamente esclusivi (o disgiunti a coppie,
A
i
∩
A
j
=
∅
∀
i
≠
j
{\displaystyle A_{i}\cap A_{j}=\varnothing \ \forall i\neq j}
) di una
σ
{\displaystyle \sigma }
-algebra. Sia
B
∈
F
{\displaystyle B\in F}
un evento tale che
B
⊆
⋃
i
=
1
n
A
i
{\displaystyle B\subseteq \bigcup _{i=1}^{n}A_{i}}
Allora, si ha
P
(
B
)
=
∑
i
=
1
n
P
(
B
|
A
i
)
⋅
P
(
A
i
)
{\displaystyle P(B)=\sum _{i=1}^{n}P(B|A_{i})\cdot P(A_{i})}
Definizione degli eventi.
Nota: non è necessario, per il teorema della probabilità totale, che
⋃
i
=
1
n
A
i
=
Ω
{\displaystyle \bigcup _{i=1}^{n}A_{i}=\Omega }
Teorema :
Teorema di Bayes
Sia
(
Ω
,
F
,
P
)
{\displaystyle (\Omega ,F,P)}
uno spazio di probabilità,
A
,
B
∈
F
{\displaystyle A,B\in F}
con
P
(
B
)
≠
0
{\displaystyle P(B)\neq 0}
. Allora si ha
P
(
A
|
B
)
=
P
(
B
|
A
)
P
(
A
)
P
(
B
)
{\displaystyle P(A|B)={\frac {P(B|A)P(A)}{P(B)}}}
Se consideriamo
A
1
,
A
2
,
⋯
,
A
n
∈
F
{\displaystyle A_{1},A_{2},\cdots ,A_{n}\in F}
eventi disgiunti a coppie e tali che
B
⊆
i
=
1
n
A
i
{\displaystyle B\subseteq _{i=1}^{n}A_{i}}
allora, si ha
P
(
A
i
|
B
)
=
P
(
B
|
A
i
)
P
(
A
i
)
∑
j
=
1
n
P
(
B
|
A
j
)
P
(
A
j
)
{\displaystyle P(A_{i}|B)={\frac {P(B|A_{i})P(A_{i})}{\sum _{j=1}^{n}P(B|A_{j})P(A_{j})}}}
Esempio : Scatole e palline
Ci sono due scatole
A
{\displaystyle A}
e
B
{\displaystyle B}
:
in
A
{\displaystyle A}
ci sono due palline bianche ed una pallina nera;
in
B
{\displaystyle B}
ci sono una pallina bianca ed una pallina nera.
Esercizio con palline bianche e nere nelle scatole
Studiare il sistema; qual è la probabilità di pescare una pallina bianca?
Per la soluzione, si veda la pagina di soluzione .
Indipendenza condizionata tra eventi [ modifica ]
Definizione : Eventi condizionatamente indipendenti
Dato
(
Ω
,
F
,
P
)
{\displaystyle (\Omega ,F,P)}
, gli eventi
A
,
B
∈
F
{\displaystyle A,B\in F}
si dicono condizionatamente indipendenti da un evento
C
∈
F
{\displaystyle C\in F}
se, dato
P
(
C
)
≠
0
{\displaystyle P(C)\neq 0}
si ha
P
(
A
∩
B
|
C
)
=
P
(
A
|
C
)
⋅
P
(
B
|
C
)
{\displaystyle P(A\cap B|C)=P(A|C)\cdot P(B|C)}
È da notare che l'indipendenza condizionale non implica l'indipendenza tra
A
{\displaystyle A}
e
B
{\displaystyle B}
; vale anche il viceversa. Banalmente, si verifica se
C
=
Ω
{\displaystyle C=\Omega }
.
Esempio :
Si hanno due lanci consecutivi di una moneta. Vediamo che
A
,
B
indipendenti
⇏
A
,
B
indipendenti
|
C
{\displaystyle A,B{\text{ indipendenti }}\not \Rightarrow A,B{\text{ indipendenti }}|C}
Si ha:
Ω
=
{
T
C
,
C
T
,
T
T
,
C
C
}
{\displaystyle \Omega =\{TC,CT,TT,CC\}}
F
=
2
Ω
{\displaystyle F=2^{\Omega }}
P
(
{
s
}
)
=
1
4
∀
s
∈
Ω
{\displaystyle P(\{s\})={\frac {1}{4}}\ \forall s\in \Omega }
Si ha
A
=
{
T
C
,
T
T
}
{\displaystyle A=\{TC,TT\}}
testa al primo lancio
B
=
{
C
T
,
T
T
}
{\displaystyle B=\{CT,TT\}}
testa al secondo lancio
Allora,
P
(
A
∩
B
)
=
P
(
{
T
T
}
)
=
1
4
{\displaystyle P(A\cap B)=P(\{TT\})={\frac {1}{4}}}
P
(
A
)
=
1
2
=
P
(
B
)
{\displaystyle P(A)={\frac {1}{2}}=P(B)}
da cui si ha che A e B sono statisticamente indipendenti,
(
1
2
⋅
1
2
=
1
4
)
{\displaystyle \left({\frac {1}{2}}\cdot {\frac {1}{2}}={\frac {1}{4}}\right)}
.
Sia
C
=
{
T
C
,
C
T
}
{\displaystyle C=\{TC,CT\}}
evento in cui esce una sola testa. Si ha
P
(
C
)
=
1
2
{\displaystyle P(C)={\frac {1}{2}}}
Verifichiamo se
P
(
A
∩
B
|
C
)
=
P
(
A
|
C
)
P
(
B
|
C
)
{\displaystyle P(A\cap B|C)=P(A|C)P(B|C)}
. Si ha
P
(
A
∩
B
|
C
)
=
P
(
A
∩
B
∩
C
)
P
(
C
)
=
P
(
∅
)
1
/
2
=
0
{\displaystyle P(A\cap B|C)={\frac {P(A\cap B\cap C)}{P(C)}}={\frac {P(\varnothing )}{1/2}}=0}
P
(
A
|
C
)
=
P
(
A
∩
C
)
P
(
C
)
=
1
/
4
1
/
2
=
1
2
≠
0
{\displaystyle P(A|C)={\frac {P(A\cap C)}{P(C)}}={\frac {1/4}{1/2}}={\frac {1}{2}}\neq 0}
P
(
B
|
C
)
=
P
(
B
∩
C
)
P
(
C
)
=
1
/
4
1
/
2
=
1
2
≠
0
{\displaystyle P(B|C)={\frac {P(B\cap C)}{P(C)}}={\frac {1/4}{1/2}}={\frac {1}{2}}\neq 0}
Quindi, concludendo,
P
(
A
|
C
)
P
(
B
|
C
)
=
1
4
≠
0
=
P
(
A
∩
B
∩
C
)
{\displaystyle P(A|C)P(B|C)={\frac {1}{4}}\neq 0=P(A\cap B\cap C)}
Ne risulta che A e B non sono indipendenti dato C.
Definizione : Spazio misurabile prodotto
Dati gli spazi misurabili
(
Ω
k
,
F
k
)
{\displaystyle (\Omega _{k},F_{k})}
,
k
=
1
,
2
,
⋯
,
n
{\displaystyle k=1,2,\cdots ,n}
, si dice spazio misurabile prodotto lo spazio
(
Ω
1
×
Ω
2
×
⋯
×
Ω
n
,
F
1
⊗
F
2
⊗
⋯
⊗
F
n
)
{\displaystyle \left(\Omega _{1}\times \Omega _{2}\times \cdots \times \Omega _{n},F_{1}\otimes F_{2}\otimes \cdots \otimes F_{n}\right)}
dove
1. il prodotto diretto
Ω
1
×
Ω
2
×
⋯
×
Ω
n
{\displaystyle \Omega _{1}\times \Omega _{2}\times \cdots \times \Omega _{n}}
è l'insieme delle n-uple
(
s
1
,
⋯
,
s
n
)
|
s
k
∈
Ω
k
,
k
=
1
,
⋯
,
n
{\displaystyle (s_{1},\cdots ,s_{n})|s_{k}\in \Omega _{k},k=1,\cdots ,n}
2. il prodotto diretto
(
F
1
⊗
F
2
⊗
⋯
⊗
F
n
)
{\displaystyle (F_{1}\otimes F_{2}\otimes \cdots \otimes F_{n})}
è la più piccolo
σ
{\displaystyle \sigma }
-algebra definita sull'insieme
Ω
1
×
Ω
2
×
⋯
×
Ω
n
{\displaystyle \Omega _{1}\times \Omega _{2}\times \cdots \times \Omega _{n}}
che contiene tutti gli insiemi nella forma
A
1
×
A
2
×
⋯
×
A
n
=
{
(
s
2
,
⋯
,
s
n
)
|
s
k
∈
A
k
}
{\displaystyle A_{1}\times A_{2}\times \cdots \times A_{n}=\{(s_{2},\cdots ,s_{n})|s_{k}\in A_{k}\}}
con
A
k
∈
F
k
{\displaystyle A_{k}\in F_{k}}
e
k
=
1
,
2
,
⋯
,
n
{\displaystyle k=1,2,\cdots ,n}
.
Esempio :
Considero
(
R
n
,
B
(
R
n
)
)
{\displaystyle (\mathbb {R} ^{n},\mathbb {B(R} ^{n}))}
dove
R
n
=
R
×
R
×
⋯
×
R
{\displaystyle \mathbb {R} ^{n}=\mathbb {R} \times \mathbb {R} \times \cdots \times \mathbb {R} }
n volte e
B
(
R
n
)
=
B
(
R
)
⊗
B
(
R
)
⊗
⋯
⊗
B
(
R
)
{\displaystyle \mathbb {B(R} ^{n})=\mathbb {B(R} )\otimes \mathbb {B(R)} \otimes \cdots \otimes \mathbb {B(R)} }
n volte
Nel caso
n
=
2
{\displaystyle n=2}
, si ha
R
2
=
{
(
α
,
β
)
|
α
∈
R
,
β
∈
R
}
{\displaystyle \mathbb {R} ^{2}=\{(\alpha ,\beta )\ |\ \alpha \in \mathbb {R} ,\beta \in \mathbb {R} \}}
B
(
R
2
)
=
B
(
R
)
⊗
B
(
R
)
{\displaystyle \mathbb {B(R} ^{2})=\mathbb {B(R)} \otimes \mathbb {B(R)} }
è la più piccolo
σ
{\displaystyle \sigma }
-algebra che contiene tutti i rettangoli i cui lati sono dei borelliani.
I
=
(
a
1
,
b
1
]
×
(
a
2
,
b
2
]
{\displaystyle I=(a_{1},b_{1}]\times (a_{2},b_{2}]}
Definizione : Misura prodotto
Si considerino gli spazi dotati di misura
σ
{\displaystyle \sigma }
-finita
(
Ω
k
,
F
,
m
k
)
,
k
=
1
,
2
,
⋯
,
n
{\displaystyle (\Omega _{k},F_{,}m_{k}),\ k=1,2,\cdots ,n}
Sia
(
Ω
1
×
Ω
2
×
⋯
×
Ω
n
,
F
1
⊗
F
2
⊗
⋯
⊗
F
n
)
{\displaystyle (\Omega _{1}\times \Omega _{2}\times \cdots \times \Omega _{n},F_{1}\otimes F_{2}\otimes \cdots \otimes F_{n})}
lo spazio misurabile prodotto. Definiamo su di esso la misura prodotto
m
=
m
1
⋅
m
2
⋅
m
3
⋯
m
n
{\displaystyle m=m_{1}\cdot m_{2}\cdot m_{3}\cdots m_{n}}
Consideriamo il caso
n
=
2
{\displaystyle n=2}
per semplicità. Sia
G
{\displaystyle G}
l'algebra generata dagli insiemi ottenuti come unione finita di insiemi disgiunti di forma
A
1
×
A
2
con
A
1
∈
F
1
,
A
2
∈
F
2
{\displaystyle A_{1}\times A_{2}{\text{ con }}A_{1}\in F_{1},A_{2}\in F_{2}}
Allora
A
i
∈
G
⇒
σ
(
G
)
=
⋃
k
=
1
P
(
A
1
k
×
A
2
k
)
,
A
1
k
∈
F
1
,
A
2
k
∈
F
2
,
k
=
1
,
⋯
,
P
{\displaystyle A_{i}\in G\Rightarrow \sigma (G)=\bigcup _{k=1}^{P}(A_{1k}\times A_{2k}),\ A_{1k}\in F_{1},\ A_{2k}\in F_{2},\ k=1,\cdots ,P}
Inoltre,
(
A
1
i
×
A
2
i
)
∩
(
A
1
j
×
A
2
j
)
=
0
∀
i
≠
j
{\displaystyle (A_{1i}\times A_{2i})\cap (A_{1j}\times A_{2j})=0\ \forall i\neq j}
Si ha
σ
(
G
)
=
F
{\displaystyle \sigma (G)=F}
, perché
A
1
×
A
2
∈
σ
(
G
)
{\displaystyle A_{1}\times A_{2}\in \sigma (G)}
F
1
⊗
A
2
{\displaystyle F_{1}\otimes A_{2}}
è la più piccola che contiene insiemi della forma
A
1
×
A
2
{\displaystyle A_{1}\times A_{2}}
Consideriamo
m
0
:
G
→
[
0
,
+
∞
]
|
m
0
(
A
)
=
∑
k
=
1
P
m
1
(
A
1
k
)
⋅
m
2
(
A
2
k
)
{\displaystyle m_{0}:G\rightarrow [0,+\infty ]\ |\ m_{0}(A)=\sum _{k=1}^{P}m_{1}(A_{1k})\cdot m_{2}(A_{2k})}
Si può dimostrare che questa è una premisura
σ
{\displaystyle \sigma }
-finita su
G
{\displaystyle G}
. L'estensione di
m
0
{\displaystyle m_{0}}
sulla
σ
{\displaystyle \sigma }
-algebra
F
1
⊗
F
2
=
σ
(
G
)
{\displaystyle F_{1}\otimes F_{2}=\sigma (G)}
è detta misura prodotto ed è indicata con
m
1
×
m
2
{\displaystyle m_{1}\times m_{2}}
.
Definizione : Spazio prodotto dotato di misura
Dati
n
{\displaystyle n}
spazi dotati di misura
σ
{\displaystyle \sigma }
-finita,
(
Ω
k
,
F
k
,
m
k
)
,
k
=
1
,
⋯
,
n
{\displaystyle (\Omega _{k},F_{k},m_{k}),\ k=1,\cdots ,n}
lo spazio prodotto dotato di misura e definito come
(
Ω
1
×
Ω
2
×
⋯
×
Ω
n
,
F
1
⊗
F
2
⊗
⋯
⊗
F
n
,
m
1
×
m
2
×
⋯
×
m
k
)
{\displaystyle (\Omega _{1}\times \Omega _{2}\times \cdots \times \Omega _{n},\ F_{1}\otimes F_{2}\otimes \cdots \otimes F_{n},\ m_{1}\times m_{2}\times \cdots \times m_{k})}
Spazio di probabilità prodotto come modello probabilistico per eventi indipendenti[ modifica ]
Teorema :
Consideriamo due esperimenti casuali
(
Ω
1
,
F
1
,
P
1
)
{\displaystyle (\Omega _{1},F_{1},P_{1})}
e
(
Ω
2
,
F
2
,
P
2
)
{\displaystyle (\Omega _{2},F_{2},P_{2})}
. Per descrivere congiuntamente i due esperimenti, consideriamo lo spazio di probabilità prodotto
(
Ω
1
×
Ω
2
,
F
1
⊗
F
2
,
P
1
×
P
2
)
{\displaystyle (\Omega _{1}\times \Omega _{2},F_{1}\otimes F_{2},P_{1}\times P_{2})}
. Tale spazio è adatto a descrivere congiuntamente eventi indipendenti.
Dimostrazione :
Consideriamo
A
1
×
Ω
2
,
Ω
1
×
A
2
∈
F
1
⊗
F
2
{\displaystyle A_{1}\times \Omega _{2},\ \Omega _{1}\times A_{2}\ \in \ F_{1}\otimes F_{2}}
Dimostriamo che sono indipendenti, il che equivale a dire
P
(
(
A
1
×
Ω
2
)
∩
(
Ω
1
×
A
2
)
)
=
P
(
(
A
1
×
Ω
2
)
)
⋅
P
(
(
Ω
1
×
A
2
)
)
{\displaystyle P((A_{1}\times \Omega _{2})\cap (\Omega _{1}\times A_{2}))=P((A_{1}\times \Omega _{2}))\cdot P((\Omega _{1}\times A_{2}))}
Si ha:
P
(
A
1
×
Ω
2
)
=
P
(
A
1
)
⋅
P
(
Ω
2
)
=
P
(
A
1
)
{\displaystyle P(A_{1}\times \Omega _{2})=P(A_{1})\cdot P(\Omega _{2})=P(A_{1})}
P
(
Ω
1
×
A
2
)
=
P
(
A
2
)
⋅
P
(
Ω
1
)
=
P
(
A
2
)
{\displaystyle P(\Omega _{1}\times A_{2})=P(A_{2})\cdot P(\Omega _{1})=P(A_{2})}
P
(
(
A
1
×
Ω
2
)
∩
(
Ω
1
×
A
2
)
)
=
P
(
A
1
×
A
2
)
=
P
(
A
1
)
⋅
P
(
A
2
)
{\displaystyle P((A_{1}\times \Omega _{2})\cap (\Omega _{1}\times A_{2}))=P(A_{1}\times A_{2})=P(A_{1})\cdot P(A_{2})}
Questo verifica che i due eventi sono indipendenti, infatti soltanto con l'indipendenza si può calcolare la probabilità totale a partire dalle sole marginali.