Trasformazione lineare

Da testwiki.
Versione del 28 ott 2024 alle 15:53 di imported>Simone Biancolilla (Voci correlate: Aggiunto i template "Div col" e "Div col end")
(diff) ← Versione meno recente | Versione attuale (diff) | Versione più recente → (diff)
Vai alla navigazione Vai alla ricerca

In matematica, e più precisamente in algebra lineare, una trasformazione lineare, detta anche applicazione lineare o mappa lineare, è una funzione lineare tra due spazi vettoriali sullo stesso campo, cioè una funzione che conserva le operazioni di somma di vettori e di moltiplicazione per uno scalare. In altre parole, una trasformazione lineare preserva le combinazioni lineari. Nel linguaggio dell'algebra astratta, una trasformazione lineare è un omomorfismo di spazi vettoriali, in quanto conserva le operazioni che caratterizzano gli spazi vettoriali.

In analisi funzionale una trasformazione lineare è spesso detta operatore lineare. In tale contesto, particolare importanza rivestono gli operatori lineari continui tra spazi vettoriali topologici, come ad esempio spazi di Banach.

Definizione

Siano V e W due spazi vettoriali sullo stesso campo K. Una funzione f:VW è una trasformazione lineare se soddisfa le seguenti proprietà:[1][2]

  • f(𝐱+𝐲)=f(𝐱)+f(𝐲),
  • f(a𝐱)=af(𝐱),

per ogni coppia di vettori 𝐱 e 𝐲 in V e per ogni scalare a in K. La prima proprietà è detta additività, la seconda omogeneità di grado 1.

Equivalentemente, f è lineare se "preserva le combinazioni lineari" (principio di sovrapposizione), ossia se:

f(a1𝐱1++am𝐱m)=a1f(𝐱1)++amf(𝐱m),

per ogni intero positivo m e ogni scelta dei vettori 𝐱1,,𝐱m e degli scalari a1,,am.

Se f:VW è una applicazione lineare e 𝟎V e 𝟎W sono i vettori nulli di V e W rispettivamente, allora:[3]

f(𝟎V)=f(𝟎V+𝟎V)=f(𝟎V)+f(𝟎V),

e togliendo f(𝟎V) da ambo i membri si ottiene

𝟎W=f(𝟎V).

Sostituendo allo zero una combinazione lineare di vettori linearmente dipendenti si dimostra che un'applicazione lineare iniettiva manda sottoinsiemi del dominio linearmente indipendenti in sottoinsiemi del codominio linearmente indipendenti.[4]

Un'applicazione lineare è descritta completamente attraverso la sua azione sui vettori di una base qualsiasi del dominio.[5] Poiché la scrittura di un vettore in una data base è unica, la linearità dell'applicazione determina l'unicità del vettore immagine.

Un'applicazione lineare biunivoca (o invertibile) è inoltre un isomorfismo tra spazi vettoriali.[6]

Esistenza e unicità dell'applicazione lineare

Siano V e W due spazi vettoriali di dimensione finita. Sia BV=(𝐯1,,𝐯n) una base di V e siano 𝐰1,,𝐰n vettori di W. Allora esiste un'unica applicazione lineare da V in W tale che:[7]

f(𝐯i)=𝐰i, i=1,,n.

Nel caso non si conosca la forma esplicita dell'applicazione è comunque possibile stabilirne l'esistenza e l'unicità attraverso la conoscenza dell'azione dell'applicazione su un insieme di vettori dati {𝐯i}, dei quali si conosce quindi l'immagine. Se l'insieme di vettori è una base del dominio allora l'applicazione è univocamente determinata, mentre se i vettori dati non costituiscono una base ci sono due casi:

  • I vettori di cui si conosce l'immagine sono linearmente indipendenti: in tal caso l'applicazione esiste ma non è unica.
  • I vettori di cui si conosce l'immagine sono linearmente dipendenti: in tal caso uno o più vettori sono combinazione lineare dei restanti. Si ha:
𝐯j=i=1nai𝐯i.

L'applicazione esiste (ma non è unica) se e solo se:

f(𝐯j)=i=1naif(𝐯i).

Matrice associata

Template:Vedi anche Siano V e W due spazi vettoriali di dimensione finita. Scelte due basi BV e BW per V e W, ogni trasformazione lineare da V a W è rappresentabile come una matrice. Si ponga:

BV=(𝐯1,,𝐯n),
BW=(𝐰1,,𝐰m).

Ogni vettore 𝐯 in V è univocamente determinato dalle sue coordinate c1,,cn, definite in modo che:

𝐯=c1𝐯1++cn𝐯n.

Se f:VW è una trasformazione lineare si ha:

f(𝐯)=f(c1𝐯1++cn𝐯n)=c1f(𝐯1)++cnf(𝐯n).

Quindi la funzione f è determinata dai vettori f(𝐯1),,f(𝐯n). Ciascuno di questi è scrivibile come:

f(𝐯j)=a1j𝐰1++amj𝐰m.

La funzione f è dunque interamente determinata dai valori di ai,j, che formano la matrice associata a f nelle basi BV e BW.[8]

La matrice associata A è di tipo m×n, e può essere usata agevolmente per calcolare l'immagine f(𝐯) di ogni vettore di V grazie alla relazione seguente:

A[𝐯]BV=[𝐰]BW,

dove [𝐯]BV e [𝐰]BW sono le coordinate di 𝐯 e 𝐰 nelle rispettive basi.

Si nota che la scelta delle basi è essenziale: la stessa matrice, usata su basi diverse, può rappresentare applicazioni lineari diverse.

Struttura di spazio vettoriale

L'insieme Hom(V,W) delle applicazioni lineari da V in W è un sottospazio vettoriale dello spazio vettoriale sul campo K formato da tutte le funzioni da V in W, infatti:[9]

  • se f:VW e g:VW sono lineari, allora è lineare la loro somma f+g, definita dalla relazione
(f+g)(𝐯)=f(𝐯)+g(𝐯);
  • se f:VW è lineare e a è un elemento del campo K, allora la funzione af, definita da (af)(𝐯)=a(f(𝐯)), è anch'essa lineare.

Nel caso finito-dimensionale, dopo aver fissato delle basi, le operazioni di somma e prodotto di una funzione per uno scalare di applicazioni lineari corrispondono rispettivamente a somma di matrici e moltiplicazione di matrici per uno scalare. Le basi definiscono quindi un isomorfismo Hom(V,W)M(n,m) tra gli spazi vettoriali delle applicazioni lineari e delle matrici n×m, dove m e n sono le dimensioni rispettivamente di V e W.

Nucleo e immagine

Template:Vedi anche Se f:VW è lineare, il nucleo di f è l'insieme:[10]

Ker(f)={𝐱V:f(𝐱)=0},

mentre l'immagine di f è l'insieme:[11]

Im(f)={f(𝐱)W:𝐱V}.

L'insieme Ker(f) è un sottospazio di V, mentre Im(f) è un sottospazio di W. Se V e W hanno dimensione finita, il teorema della dimensione asserisce che:[12]

dim(Ker(f))+dim(Im(f))=dim(V).

Questo teorema fornisce un criterio necessario e sufficiente al fine di stabilire l'esistenza di una trasformazione lineare.

Endomorfismi e automorfismi

Una trasformazione lineare f:VV è un endomorfismo di V. L'insieme di tutti gli endomorfismi End(V) insieme a addizione, composizione e moltiplicazione per uno scalare come descritti sopra formano un'algebra associativa con unità sul campo K: in particolare formano un anello e uno spazio vettoriale su K. L'elemento identità di questa algebra è la trasformazione identità di V.

Un endomorfismo biiettivo di V viene chiamato automorfismo di V. La composizione di due automorfismi è di nuovo un automorfismo, e l'insieme di tutti gli automorfismi di V forma un gruppo, il gruppo generale lineare di V, chiamato Aut(V) o GL(V).

Se la dimensione di V è finita basterà che f sia iniettiva per poter affermare che sia anche suriettiva (per il teorema della dimensione). Inoltre l'isomorfismo

End(V)M(n)

fra gli endomorfismi e le matrici quadrate n×n descritto sopra è un isomorfismo di algebre. Il gruppo degli automorfismi di V è isomorfo al gruppo lineare generale GL(n,K) di tutte le matrici n×n invertibili a valori in K.

Pull-Back di funzioni ed applicazione trasposta

Template:Vedi anche Siano A, B e C insiemi e siano F(A,C) e F(B,C) le famiglie di funzioni da A in C e da B in C rispettivamente. Ogni ϕ:AB determina univocamente una corrispondenza ϕ*:F(B,C)F(A,C) chiamata pull-back tramite ϕ, che manda F in Fϕ.

Se nello specifico si considerano A=V e B=W due spazi vettoriali su un campo K=C e anziché prendere interamente F(V,K) e F(W,K) si considerano gli spazi duali V* e W* si ha che ad ogni trasformazione lineare ϕ:VW si può associare l'opportuna restrizione del pull-back tramite ϕ, ovvero la funzione ϕ*:W*V* che prende il nome di trasposta di ϕ.

Segue direttamente da come sono definite le operazioni in V* e W* che ϕ* è a sua volta lineare. Con un semplice calcolo si vede che fissate delle basi per V e W e le rispettive duali in V* e W*, la matrice di trasformazione associata a ϕ* è la trasposta di quella di ϕ.

Segue dalla definizione che un funzionale λW* viene mandato in zero da ϕ* solo se l'immagine di ϕ è contenuta nel nucleo di λ cioè, indicando con U il sottospazio dei funzionali che annullano UW, si ha Ker(ϕ*)(ϕ). Inoltre dalla stessa definizione si deduce che un funzionale μV* è immagine di un funzionale ηW* (vale a dire μ=ϕ*(η) solo se η annulla il nucleo di ϕ, ossia (ϕ*)(Kerϕ) . Nel caso in cui V e W siano di dimensione finita si deduce dal teorema della dimensione e dalle relazioni dimV=Kerϕ+(Kerϕ) e dimW*=dimW=ϕ+(ϕ) che le due inclusioni precedenti sono a tutti gli effetti uguaglianze.

Esempi

  • La moltiplicazione f(v)=av, in qualsiasi spazio vettoriale su K, per una costante fissata aK.
  • Una rotazione del piano euclideo rispetto all'origine di un angolo fissato.
  • Una riflessione del piano euclideo rispetto ad una retta passante per l'origine.
  • La proiezione di uno spazio vettoriale V decomposto in somma diretta:
    V=UW
    su uno dei due sottospazi U o W.
  • Una matrice A di tipo m×n con valori reali definisce una trasformazione lineare:
    LA:nm,LA(v)=Av,
    dove Av è il prodotto di A e v. Ogni trasformazione lineare tra spazi vettoriali di dimensione finita è essenzialmente di questo tipo: si veda la sezione seguente.
  • L'integrale di una funzione reale su un intervallo definisce una mappa lineare dallo spazio vettoriale delle funzioni continue definite sull'intervallo nello spazio vettoriale .
  • La derivata definisce una mappa lineare dallo spazio vettoriale di tutte le funzioni derivabili in qualche intervallo aperto di nello spazio di tutte le funzioni.
  • Lo spazio dei numeri complessi ha una struttura di spazio vettoriale complesso di dimensione 1, e anche di spazio vettoriale reale di dimensione 2. La coniugazione
    f:,f(z)=z¯
    è una mappa -lineare ma non -lineare: infatti la proprietà di omogeneità vale solo per scalari reali.

Note

Bibliografia

Voci correlate

Template:Div col

Template:Div col end

Altri progetti

Template:Interprogetto

Collegamenti esterni

Template:Algebra lineare Template:Controllo di autorità Template:Portale