Geometria analitica > Forme bilineari
- Indice delle lezioni di:
- Torna al corso:
In questa lezione comincia il nostro studio degli spazi euclidei, cioè spazi in cui sono definiti i classici concetti metrici quali angolo, distanza, perpendicolarità, ecc... che non abbiamo mai affrontato (e non hanno senso) in uno spazio vettoriale normale.
Sia
uno spazio vettoriale su un campo
. Una applicazione
![{\displaystyle b:V\times V\to \mathbb {K} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/3c22018c8ed1b6a85794bcc08d422e6b52947a34)
si dice forma bilineare su
se gode delle seguenti proprietà:
![{\displaystyle b(\mathbf {v} +\mathbf {v} ',\mathbf {w} )=b(\mathbf {v} ,\mathbf {w} )+b(\mathbf {v} ',\mathbf {w} )}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7ac2a4cd13b72abc6444eda793309c8eab0734dc)
![{\displaystyle b(\mathbf {v} ,\mathbf {w} +\mathbf {w} ')=b(\mathbf {v} ,\mathbf {w} )+b(\mathbf {v} ,\mathbf {w} ')}](https://wikimedia.org/api/rest_v1/media/math/render/svg/27152877a71ea1c2c5cc2f9e314ba4e1131b66dd)
![{\displaystyle b(k\mathbf {v} ,\mathbf {w} )=b(\mathbf {v} ,k\mathbf {w} )=kb(\mathbf {v} ,\mathbf {w} )}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e458c4d083ca52e3ae412dadffde47adfe2dad6d)
Inoltre
si dice simmetrica se
![{\displaystyle b(\mathbf {v} ,\mathbf {w} )=b(\mathbf {w} ,\mathbf {v} )}](https://wikimedia.org/api/rest_v1/media/math/render/svg/707a70f5fea87d0b28333574c96047febe3de8dd)
mentre si dice antisimmetrica se
![{\displaystyle b(\mathbf {v} ,\mathbf {w} )=-b(\mathbf {w} ,\mathbf {v} )}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f3ba9879e7b4dd5d3ea30e1a29f0758655f32e91)
sempre per ogni
.
Vediamo alcuni esempi di forme bilineari.
- La forma bilineare nulla
è una forma bilineare simmetrica e antisimmetrica.
- Il prodotto riga per colonna usuale nel calcolo matriciale è una forma bilineare. Infatti, sia
e consideriamo i vettori colonna
, abbiamo ![{\displaystyle b(\mathbf {x} ,\mathbf {y} )=\ ^{t}\mathbf {x} A\mathbf {y} =\sum _{i,j=1}^{n}x_{i}a_{ij}y_{j}\in \mathbb {K} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/929497650761ba3680fa4bfda96bd12d906e1688)
Dimostrate per esercizio che si tratta effettivamente di una forma bilineare.
- Se la matrice dell'esempio 2
è la matrice identità, otteniamo la cosiddetta forma simmetrica standard su
definita come
![{\displaystyle b(\mathbf {x} ,\mathbf {y} )=\ ^{t}\mathbf {x} \cdot \mathbf {y} =\sum _{i,j=1}^{n}x_{i}y_{i}=x_{1}y_{1}+x_{2}y_{2}+\dots +x_{n}y_{n}\in \mathbb {K} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/23cdd36d8f7aff20ebf219fc25b557adfab0efb1)
Vediamo ora la matrice associata ad una applicazione bilineare.
Sia
un
-spazio vettoriale di dimensione
e sia
una sua base. Sia inoltre
una forma bilineare su
. Allora la matrice di
rispetto alla base appena definita è
![{\displaystyle A=(a_{ij})\in M_{n}(\mathbb {K} )\ :\ a_{ij}=b(\mathbf {v} _{i},\mathbf {v} _{j}),\ \forall i,j=1,\dots ,n}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e281a0c74cab1aad7b454c902c05e08694563f2c)
Sia
un campo ordinato. Una forma bilineare simmetrica su
si dice prodotto scalare se
![{\displaystyle b(\mathbf {v} ,\mathbf {v} )=0\Leftrightarrow \mathbf {v} =0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9401e5c7067ce65cbaa37c4486bae5b53968236c)
Il prodotto scalare si indica con il simbolo
.
Con lo stesso simbolo viene denotato anche il prodotto scalare definito positivo, ossia un prodotto scalare tale che:
.
Quel prodotto scalare tale che
![{\displaystyle <\mathbf {v} ,\mathbf {w} >=\mathbf {v} _{1}\mathbf {w} _{1}+\mathbf {v} _{2}\mathbf {w} _{2}+\dots +\mathbf {v} _{n}\mathbf {w} _{n}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/176ab0cd6ba62083ae52173ca92764adb645b849)
si indica con
e si chiama prodotto scalare standard.
Uno spazio vettoriale
![{\displaystyle V}](https://wikimedia.org/api/rest_v1/media/math/render/svg/af0f6064540e84211d0ffe4dac72098adfa52845)
nel quale è definita l'operazione di prodotto scalare, si indica con
![{\displaystyle (V,<,>)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/afe5762f7b020eef8af917b06caa448d1ec3b913)
e prende il nome di
spazio vettoriale euclideo.
Teorema (Disuguaglianza di Schwarz)
[modifica]
Supponiamo i vettori diversi da zero, altrimenti il teorema è banale.
Sia
un vettore combinazione lineare di
e
, quindi
. Per la definizione di prodotto scalare:
![{\displaystyle 0\leq \ <\mathbf {w} ,\mathbf {w} >=<x_{1}\mathbf {v} _{1}+x_{2}\mathbf {v} _{2},x_{1}\mathbf {v} _{1}+x_{2}\mathbf {v} _{2}>=x_{1}^{2}<\mathbf {v} _{1},\mathbf {v} _{1}>+2x_{1}x_{2}<\mathbf {v} _{1},\mathbf {v} _{2}>+x_{2}^{2}<\mathbf {v} _{2},\mathbf {v} _{2}>}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a3953da4085fbd5dc2d2bb08409cf30a937c0e4c)
.
Prendendo
tale che
e
otteniamo al secondo membro
![{\displaystyle <\mathbf {v} _{2},\mathbf {v} _{2}>^{2}<\mathbf {v} _{1},\mathbf {v} _{1}>-2<\mathbf {v} _{2},\mathbf {v} _{2}><\mathbf {v} _{1},\mathbf {v} _{2}>^{2}+<\mathbf {v} _{1},\mathbf {v} _{2}>^{2}<\mathbf {v} _{2},\mathbf {v} _{2}>}](https://wikimedia.org/api/rest_v1/media/math/render/svg/36a8eb45efa2a24227f48821ed334ad37aca809f)
.
Dividendo ambo i membri per
, che è strettamente positivo perché abbiamo supposto
non nullo, otteniamo
![{\displaystyle 0\leq \ <\mathbf {v} _{2},\mathbf {v} _{2}><\mathbf {v} _{1},\mathbf {v} _{1}>-<\mathbf {v} _{1},\mathbf {v} _{2}>^{2}\Longleftrightarrow <\mathbf {v} _{1},\mathbf {v} _{2}>^{2}\leq \ <\mathbf {v} _{2},\mathbf {v} _{2}><\mathbf {v} _{1},\mathbf {v} _{1}>}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e6be6ec89e1613189ee686bd87d3ae4c57224b29)
L'eguaglianza vale se e solo se:
, cioè
e
sono linearmente dipendenti.
![{\displaystyle \Box }](https://wikimedia.org/api/rest_v1/media/math/render/svg/029b77f09ebeaf7528fc831fe57848be51f2240b)
Si definisce in uno spazio vettoriale euclideo la norma di un vettore
come
![{\displaystyle ||\mathbf {v} ||={\sqrt {<\mathbf {v} ,\mathbf {v} >}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3306d06ca85e055e0048913358b1356bba8ac26b)
Utilizzando la norma, si può esprimere la disuguaglianza di Schwartz come
.
La norma di un vettore gode delle seguenti proprietà:
![{\displaystyle ||\mathbf {v} ||\geq 0,\ \mathbf {v} \neq 0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/be05fa0095f139d209e7ed27ffa6c172878319b1)
![{\displaystyle ||x\mathbf {v} ||=|x|\ ||\mathbf {v} ||,\ \forall x\in \mathbb {K} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/89e24a92c6b6000d25620a4bd796e90d56e87a53)
e vale l'uguaglianza se e solo se
e
sono paralleli.
La proprietà 3 è la nota disuguaglianza triangolare che dimostriamo nel seguente modo:
![{\displaystyle ||\mathbf {v} +\mathbf {w} ||^{2}=<\mathbf {v} +\mathbf {w} ,\mathbf {v} +\mathbf {w} >=||\mathbf {v} ||^{2}+2<\mathbf {v} ,\mathbf {w} >+||\mathbf {w} ||^{2}\leq ||\mathbf {v} ||^{2}+2||\mathbf {v} ||\ ||\mathbf {w} ||+||\mathbf {w} ||^{2}=(||\mathbf {v} ||+||\mathbf {w} ||)^{2}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0664ab190e695755c174251cd953cc2d032872a3)
![{\displaystyle \Box }](https://wikimedia.org/api/rest_v1/media/math/render/svg/029b77f09ebeaf7528fc831fe57848be51f2240b)
Due vettori
si dicono ortogonali (o perpendicolari) se e solo se
.
Sia
un insieme di vettori non nulli di
. Tale insieme si dice ortogonale se sono ortogonali tutti i vettori dell'insieme presi due a due, cioè se
![{\displaystyle <\mathbf {v} _{i},\mathbf {v} _{j}>=0\,\ \forall i,j=1,\dots ,n\ ,\ i\neq j}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bc0fe3b8f38db50b057c5bdaf5332661a87a6696)
.
Nel caso
, cioè
, allora l'insieme si dice ortonormale. Equivalentemente, un insieme ortonormale è un insieme ortogonale i cui vettori sono dei versori.
Se un insieme ortogonale od ortonormale è una base di una spazio vettoriale, si dice semplicemente che tale base è una base ortogonale o ortonormale.
Sia
un insieme ortogonale. Allora
- i
sono linearmente indipendenti;
- Se
,
è una base (ortogonale) di
;
, il vettore
è ortogonale a ciascuno di essi.
1. Basta dimostrare che se due vettori non nulli sono ortogonali, allora sono indipendenti.
Siano
e
due vettori non nulli, e tali che
. Sia
un qualunque vettore combinazione lineare di
e
, ossia
.
Devo dimostrare che
implica che
.
Sia
. Allora deve succedere che
![{\displaystyle 0=<\mathbf {w} ,\mathbf {w} >=<x_{1}\mathbf {v} _{1}+x_{2}\mathbf {v} _{2},x_{1}\mathbf {v} _{1}+x_{2}\mathbf {v} _{2}>=x_{1}^{2}<\mathbf {v} _{1},\mathbf {v} _{1}>+x_{2}^{2}<\mathbf {v} _{2},\mathbf {v} _{2}>+2x_{1}x_{2}<\mathbf {v} _{1},\mathbf {v} _{2}>=x_{1}^{2}<\mathbf {v} _{1},\mathbf {v} _{1}>+x_{2}^{2}<\mathbf {v} _{2},\mathbf {v} _{2}>}](https://wikimedia.org/api/rest_v1/media/math/render/svg/52dcba5af3e8a596c5466e403d8ffe216639d42f)
Quindi
.
I due vettori sono non nulli, quindi i due prodotti scalari sono positivi, e quindi, affinché l'eguaglianza valga, deve essere che
e
devono essere nulli, da cui segue la tesi.
2. Dalla 1. segue che un insieme di
vettori indipendenti in uno spazio
di dimensione
è una base.
3. Fissiamo un indice
, e sia
un vettore della base ortogonale. Prendiamo un vettore
, e sia
il vettore definito nell'enunciato. Ecco cosa succede:
Visto che stiamo in una base ortogonale,
, e quindi la sommatoria si riduce al termine
.
In definitiva:
.
Tutto ciò è vero, qualunque sia
e qualunque sia
, ossia la tesi.
![{\displaystyle \Box }](https://wikimedia.org/api/rest_v1/media/math/render/svg/029b77f09ebeaf7528fc831fe57848be51f2240b)
Procedimento di ortogonalizzazione di Gram-Schmidt
[modifica]
Sia
una base di
. Allora
costituito dai vettori
![{\displaystyle \mathbf {w} _{1}=\mathbf {v} _{1}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2e00239c51d90d4d4c218759274fd8f9ab3b279a)
![{\displaystyle \mathbf {w} _{2}=\mathbf {v} _{2}-{\frac {<\mathbf {v} _{2},\mathbf {w} _{1}>}{<\mathbf {w} _{1},\mathbf {w} _{1}>}}\mathbf {w} _{1}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b319a277ca7ece53c4a6c54c132b034d236b8460)
![{\displaystyle \vdots }](https://wikimedia.org/api/rest_v1/media/math/render/svg/f8039d9feb6596ae092e5305108722975060c083)
![{\displaystyle \mathbf {w} _{n}=\mathbf {v} _{n}-\sum _{i=1}^{n-1}{\frac {<\mathbf {v} _{n},\mathbf {w} _{i}>}{<\mathbf {w} _{i},\mathbf {w} _{i}>}}\mathbf {w} _{i}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/af38766167b8fa2a793684b79d0850d54fce3fea)
è una base ortogonale.
Osserviamo che
e che ogni
è non nullo. Infatti, se per assurdo un qualche
fosse nullo, avremmo
e questo contraddice l'ipotesi che
sia una base.
Per il Lemma precedente, sappiamo che ogni
è ortogonale al vettore
che lo precede nella n-upla
, dunque
è un insieme ortogonale.
Sempre per il Lemma deduciamo che i
sono linearmente indipendenti e pertanto costituiscono una base.
![{\displaystyle \Box }](https://wikimedia.org/api/rest_v1/media/math/render/svg/029b77f09ebeaf7528fc831fe57848be51f2240b)
Questo algoritmo ci permette di ottenere una base ortogonale a partire da una base di partenza data.
Proposizione (esistenza di una base ortonormale)
[modifica]
Dunque tutti i vettori
sono ortonormali.
![{\displaystyle \Box }](https://wikimedia.org/api/rest_v1/media/math/render/svg/029b77f09ebeaf7528fc831fe57848be51f2240b)
- Sia
di dimensione 4 e sia
una base di
ortonormale (è la base canonica). Consideriamo poi i vettori
![{\displaystyle \mathbf {v} _{1}=(0,1,0,1),\ \mathbf {v} _{2}=(2,1,0,1),\ \mathbf {v} _{3}=(-1,0,0,1),\ \mathbf {v} _{4}=(0,0,1,0)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/107d7d96ac5ed95b5fe8cb30a0906b00e073a0e7)
.
- Applichiamo il procedimento di Gram-Schmidt per ottenere una base ortogonale.
![{\displaystyle \mathbf {w} _{1}=\mathbf {v} _{1}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2e00239c51d90d4d4c218759274fd8f9ab3b279a)
![{\displaystyle \mathbf {w} _{2}=\mathbf {v} _{2}-{\frac {<\mathbf {w} _{1},\mathbf {w} _{2}>}{<\mathbf {w} _{1},\mathbf {w} _{1}>}}\mathbf {w} _{1}=\mathbf {v} _{2}-{\frac {2}{2}}\mathbf {w} _{1}=\mathbf {v} _{2}-\mathbf {v} _{1}=2\mathbf {e} _{1}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c794ea2671813f5878d8ea0c0a19b5fb87469860)
![{\displaystyle \mathbf {w} _{3}=\mathbf {v} _{3}-\sum _{i=1}^{2}{\frac {<\mathbf {v} _{3},\mathbf {w} _{i}>}{<\mathbf {w} _{i},\mathbf {w} _{i}>}}\mathbf {w} _{i}=}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ab12716c75d4236a85d3c6c31dae67014ef55fa4)
![{\displaystyle \mathbf {v} _{3}-{\frac {<\mathbf {v} _{3},\mathbf {v} _{1}>}{<\mathbf {v} _{1},\mathbf {v} _{1}>}}\mathbf {v} _{1}-{\frac {<\mathbf {v} _{3},2\mathbf {e} _{1}>}{<2\mathbf {e} _{1},2\mathbf {e} _{1}>}}2\mathbf {e} _{1}=}](https://wikimedia.org/api/rest_v1/media/math/render/svg/24ad9c3fb6289fa37e18c25fef7e0741e98d2055)
![{\displaystyle \mathbf {v} _{3}-{\frac {1}{2}}\mathbf {v} _{1}-{\frac {-2}{4}}2\mathbf {e} _{1}=-{\frac {1}{2}}\mathbf {e} _{2}+{\frac {1}{2}}\mathbf {e} _{4}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/efda71d6427577be57d303ebec973926b00503e7)
![{\displaystyle \mathbf {w} _{4}=\mathbf {v} _{4}-\sum _{i=1}^{3}{\frac {<\mathbf {v} _{4},\mathbf {w} _{i}>}{<\mathbf {w} _{i},\mathbf {w} _{i}>}}\mathbf {w} _{i}=\dots =\mathbf {v} _{4}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0f5df63c1f32940cd7f0b4676ca99e3078cc754c)
Dunque
è una base ortogonale di
.
![{\displaystyle \Box }](https://wikimedia.org/api/rest_v1/media/math/render/svg/029b77f09ebeaf7528fc831fe57848be51f2240b)