Matrice ortogonale

Da testwiki.
Vai alla navigazione Vai alla ricerca

In matematica, e più precisamente in algebra lineare, una matrice ortogonale è una matrice invertibile tale che la sua trasposta coincide con la sua inversa.

Nel campo complesso, una matrice invertibile la cui trasposta coniugata coincide con l'inversa è detta matrice unitaria.

Definizione

Data una matrice invertibile G, indicando con GT la sua trasposta si definisce G ortogonale se:

GGT=GTG=In

laddove In è la matrice identità, ovvero la trasposta è l'inversa.

In modo equivalente, una matrice ortogonale è una matrice che rappresenta una isometria dello spazio euclideo, oppure è una matrice di cambiamento di base fra due basi ortonormali.

Si può ricavare che il numero di parametri indipendenti in una matrice ortogonale di dimensione N è N(N1)/2.

Proprietà

Basi ortonormali

Una matrice quadrata è ortogonale se e solo se le sue colonne formano una base ortonormale dello spazio euclideo n con l'ordinario prodotto scalare. Questa proprietà è semplicemente la rilettura della relazione GTG=In.

Rileggendo similmente la relazione GGT=In, si ricava l'enunciato duale del precedente: una matrice quadrata reale è ortogonale se e solo se le sue righe formano una base ortonormale di n.

Isometrie

Geometricamente, le matrici ortogonali descrivono le trasformazioni lineari di n che sono anche isometrie. Queste preservano il prodotto scalare dello spazio, e quindi gli angoli e le lunghezze. Ad esempio, le rotazioni e le riflessioni sono isometrie.

Viceversa, se V è un qualsiasi spazio vettoriale di dimensione finita dotato di un prodotto scalare definito positivo, e f:VV è un'applicazione lineare con:

f(x),f(y)=x,y

per tutti gli elementi x, y di V, allora f è una isometria ed è rappresentata in ogni base ortonormale di V da una matrice ortogonale.

In uno spazio euclideo di dimensione 2 e 3, ogni matrice ortogonale esprime una rotazione intorno ad un punto o un asse, o una riflessione, o una composizione di queste due trasformazioni.

Gruppo ortogonale

Template:Vedi anche Dalla definizione segue subito che l'inversa di ogni matrice ortogonale, cioè la sua trasposta, è anch'essa ortogonale.

Analogamente, il prodotto di due matrici ortogonali è una matrice ortogonale. Infatti:

(GH)(GH)T=GHHTGT=GGT=I

Questo dimostra che l'insieme delle matrici ortogonali n×n forma un gruppo rispetto all'operazione "moltiplicazione tra matrici/composizione di funzioni lineari", il gruppo ortogonale, che è un gruppo di Lie e viene indicato con O(n).

La sua dimensione è n(n1)/2. Intuitivamente, la dimensione è calcolata nel modo seguente: gli n2 numeri di una matrice ortogonale sono vincolati dalle n2 uguaglianze della definizione, ciascuna delle quali è caratterizzata da una coppia di indici (i,j) che vanno da 1 a n, ma l'equazione relativa a (i,j) con i<j equivale a quella relativa a (j,i) e quindi ci sono solo n(n+1)/2 equazioni indipendenti, e quindi n(n1)/2 gradi di libertà.

Matrice ortogonale speciale

Il determinante di ogni matrice ortogonale è 1 o 1. Questo si può dimostrare come segue:

1=det(I)=det(GGT)=det(G)det(GT)=(det(G))2

Una matrice ortogonale con determinante positivo si dice matrice ortogonale speciale.

L'insieme di tutte le matrici ortogonali speciali formano un sottogruppo di O(n) di indice 2, chiamato gruppo ortogonale speciale e denotato SO(n).

Autovalori e decomposizioni

Autovalori

Tutti gli autovalori di una matrice ortogonale, anche quelli complessi, hanno valore assoluto 1. Autospazi relativi a differenti autovalori sono ortogonali tra loro.

Decomposizioni lungo piani

Data una matrice ortogonale Q, esiste una matrice ortogonale P, tale che:

P1QP=(R1R2Rk±1±1)

dove R1,,Rk denotano matrici di rotazione 2×2. Intuitivamente, questo risultato dice che ogni matrice ortogonale descrive una combinazione di rotazioni e riflessioni su piani ortogonali. Le matrici R1,,Rk corrispondono alle coppie di autovalori complessi coniugati di Q.

Decomposizione QR

Template:Vedi anche Se A è una arbitraria matrice di tipo m×n di rango n (cioè mn), si può sempre scrivere:

A=Q(R0)

dove Q è una matrice ortogonale di tipo m×n e R è una matrice triangolare superiore di tipo n×n con valori positivi sulla diagonale principale. La decomposizione QR può essere dimostrata applicando l'ortogonalizzazione di Gram-Schmidt alle colonne di A.

Questa decomposizione risulta utile per risolvere numericamente i sistemi di equazioni lineari e i problemi di minimi quadrati.

Matrici ortogonali e rappresentazione delle algebre di Clifford

Template:Vedi anche Alle matrici ortogonali si può attribuire un secondo significato geometrico che si collega alla rappresentazione matriciale delle algebre di Clifford. Ad esempio, i vettori della base canonica di 2 sono e1=[1,0] e e2=[0,1] e un generico vettore [x,y] di questo piano cartesiano si può scrivere:

[x,y]=x[1,0]+y[0,1]

La matrice ortogonale:

E1:=[0110]

rappresenta la riflessione rispetto alla bisettrice y=x, poiché scambia le due componenti di ogni vettore piano:

[xy]×[0110]=[yx]

La matrice ortogonale:

E2:=[1001]

rappresenta invece la riflessione rispetto all'asse x, poiché il punto [xy] ha come immagine [x,y]:

[xy]×[1001]=[xy]

Per i due prodotti di queste matrici si trova:

E1×E2=[0110]×[1001]=[0110]
E2×E1=[1001]×[0110]=[0110]

Si tratta delle due rotazioni nel piano di π/2 e di π/2, rotazioni opposte: quindi le due matrici Ei anticommutano. In formule:

E12=E22=IE1E2=E2E1

Si considerino ora E1 ed E2 come vettori di base del piano bidimensionale delle loro combinazioni lineari:

(x,y):=xE1+yE2=[yxxy]

sfruttando la composizione:

AB:=12(AB+BA)

si trova:

[yxxy][vuuv]=12([xu+yvyuxvxvyuxu+yv]+[xu+yvxvyuyuxvxu+yv])=[xu+yv00xu+yv]

Per il quadrato di una di queste entità in particolare:

[yxxy][yxxy]=[x2+y200x2+y2]

Si può quindi definire come prodotto interno di A e B la precedente composizione, a meno della matrice unità I2. Questo è lecito in quanto chiaramente si tratta di una forma bilineare simmetrica positiva. Il prodotto interno di una entità matriciale e vettoriale con sé stessa fornisce il quadrato della sua norma.

Dato che le entità base anticommutano si vede che:

E1E2=0

Le entità E1 ed E2 sono ortogonali secondo entrambe le loro interpretazioni: sono matrici ortogonali e rappresentano vettori di base ortogonali in quanto matrici anticommutative.

Matrici ortogonali trigonometriche

Matrice ortogonale 2×2

[cos(α)sin(α)sin(α)±cos(α)]

Matrice ortogonale 3×3

[cos(α)cos(γ)sin(α)sin(β)sin(γ)sin(α)cos(β)cos(α)sin(γ)sin(α)sin(β)cos(γ)cos(α)sin(β)sin(γ)+sin(α)cos(γ)cos(α)cos(β)cos(α)sin(β)cos(γ)sin(α)sin(γ)cos(β)sin(γ)sin(β)cos(β)cos(γ)]

Queste matrici sono anche matrici di rotazione di coordinate. Utilizzando le equazioni di rotazione di uno spazio n-dimensionale si possono costruire matrici ortogonali trigonometriche di dimensione n×n.

Bibliografia

  • Template:En A.I. Mal'tsev, Foundations of linear algebra , Freeman (1963) (Translated from Russian)
  • Template:En W. Noll, Finite dimensional spaces , M. Nijhoff (1987) pp. Sect. 43
  • Template:En H.W. Turnball, A.C. Aitken, An introduction to the theory of canonical matrices , Blackie & Son (1932)
  • Template:En Persi Diaconis, Mehrdad Shahshahani. The subgroup algorithm for generating uniform random variables. Prob. in Eng. and Info. Sci., vol. 1, 15–32, 1987. ISSN 0269-9648.
  • Template:En Augustin A. Dubrulle. Frobenius Iteration for the Matrix Polar Decomposition. HP Labs Technical Report HPL-94-117. December 16, 1994. [1] Template:Webarchive
  • Template:En Gene H. Golub, Charles F. Van Loan. Matrix Computations, 3/e. Johns Hopkins University Press, Baltimore, 1996. ISBN 978-0-8018-5414-9.
  • Template:En Nicholas Higham. Computing the Polar Decomposition—with Applications. SIAM Journal on Scientific and Statistical Computing, 7(4):1160–1174, 1986. ISSN 0196-5204. [2] Template:Webarchive

Voci correlate

Collegamenti esterni

Template:Algebra lineare Template:Portale