Teorema di Hartman-Grobman

Da testwiki.
Vai alla navigazione Vai alla ricerca

In matematica, in particolare nello studio dei sistemi dinamici, il teorema di Hartman-Grobman o teorema di linearizzazione è un importante teorema che descrive il comportamento di un sistema dinamico nell'intorno di un punto di equilibrio iperbolico.

Fondamentalmente il teorema afferma che il comportamento di un sistema dinamico nei pressi di un punto di equilibrio iperbolico è qualitativamente simile a quello della sua linearizzazione intorno a quel punto. Quindi utilizzando la sua linearizzazione se ne possono studiare più agevolmente alcune caratteristiche.

Il teorema

Sia f:nn una funzione liscia con un punto di equilibrio iperbolico p, cioè tale che f(p)=0 e tale che nessun autovalore della matrice jacobiana A=[fi/xj] di f al punto p abbia parte reale pari a 0. Allora esistono un intorno U di p e un omeomorfismo h:Un tale che h(p)=0, e tale che in U il flusso di f è topologicamente coniugato da h al flusso della sua linearizzazione U=AU.[1][2][3]

In generale, anche se la funzione f è infinitamente differenziabile, l'omeomorfismo h non deve necessariamente essere una funzione liscia e nemmeno localmente lipschitziana. Tuttavia deve soddisfare la condizione di Hölder, con un esponente che dipende dalla costante di iperbolicità di A.

Esempio

Si consideri un sistema in due dimensioni nelle variabili u=(y,z) che evolve secondo la legge data delle equazioni:

dy/dt=3y+yz
dz/dt=z+y2

Vi è un punto di equilibrio nell'origine; in prossimità di esso la trasformazione data da:

yY+YZ+142Y3+12YZ2
zZ17Y213Y2Z

è una funzione liscia tra le coordinate di partenza u=(y,z) e le nuove U=(Y,Z). Nelle nuove coordinate il sistema si trasforma nella sua linearizzazione:

dY/dt=3YdZ/dt=Z

Note

Bibliografia

Voci correlate

Template:Portale