Teoria di campo medio

Da testwiki.
Vai alla navigazione Vai alla ricerca

In fisica e teoria della probabilità, la teoria di campo medio (nota anche con l'acronimo inglese MFT o anche come teoria del campo molecolare) studia il comportamento di modelli di sistemi fisici aventi tanti gradi di libertà (dimensioni) di tipo stocastico (casuale), che vengono semplificati considerando solo la media dei gradi di libertà, quindi gli effetti complessivi di tutti gli elementi del sistema su un singolo elemento sono approssimati a un singolo effetto medio, riducendo così un problema a molti corpi a un problema a un corpo. Tale effetto medio o efficace, a volte è chiamato campo molecolare, da cui il nome alternativo di teoria del campo molecolare[1]

La teoria di campo medio si applica anche a una vasta gamma di campi non prettamente fisici, tra cui inferenza statistica, modelli grafici, neuroscienze,[2] intelligenza artificiale, modelli epidemici,[3] teoria delle code,[4] prestazioni di reti di computer e teoria dei giochi,[5] ad esempio nel caso di equilibrio a risposta discreta.

Storia

L'idea è apparsa per la prima volta in fisica, nell'ambito della meccanica statistica, nei lavori di Pierre Curie del 1895[6][7] e Pierre Weiss del 1907[8], per descrivere le transizioni di fase.[9] È stata utilizzata nell'approssimazione di Bragg-Williams, nei modelli sul reticolo di Bethe, nella teoria di Landau, nell'approssimazione di Pierre-Weiss, nella teoria delle soluzioni di Flory-Huggins e nella teoria di Scheutjens-Fleer. .

Molto spesso, MFT fornisce un comodo punto di partenza per studiare le fluttuazioni di ordine superiore. Ad esempio, quando si calcola la funzione di partizione, lo studio della combinatoria dei termini di interazione nell'Hamiltoniana può a volte al massimo produrre risultati perturbativi o diagrammi di Feynman che correggono l'approssimazione del campo medio.

Validità

In generale, la dimensionalità gioca un ruolo importante nel determinare se l'approccio di campo medio funzionerà per un certo problema. A volte c'è una dimensione critica, al di sopra della quale la teoria è valida e al di sotto della quale non lo è.

Quando il sistema è caratterizzato da molte interazioni di tipo casuale, esse tendono ad annullarsi vicendevolmente, quindi, procedendo in maniera euristica, possono essere sostituite da un'unica interazione efficace, pur mantenendo comunque un risultato significativo. Questo è ancor più vero nei casi di sistemi a molte dimensioni (gradi di libertà), quando entrano in gioco forze a lungo raggio o quando le particelle che costituiscono il sistema sono estese (ad esempio polimeri). Il criterio di applicabilità della teoria è dato dal cosiddetto criterio di Ginzburg che è l'espressione formale di come le fluttuazioni del sistema possano rendere più o meno valida l'approssimazione e spesso dipendente dal numero di dimensioni spaziali nel sistema stesso.

Approccio formale (Hamiltoniano)

La base di partenza è la disuguaglianza di Bogoliubov, secondo cui l'energia libera di un sistema con hamiltoniana

=0+Δ

ha il seguente limite superiore:

FF0 =def 0TS0,

dove S0 è l'entropia, e F e F0 sono energie libere di Helmholtz. La media è presa dall'ensemble di equilibrio del sistema di riferimento con hamiltoniano 0. Nel caso particolare che l'Hamiltoniana di riferimento sia quella di un sistema non interagente e quindi si possa scrivere come

0=i=1Nhi(ξi),

dove ξi sono i gradi di libertà dei singoli componenti del nostro sistema statistico (atomi, spin e così via), si può considerare di affinare il limite superiore minimizzando il lato destro della disuguaglianza. Il sistema di riferimento minimizzato è quindi l'approssimazione "migliore" al sistema reale utilizzando gradi di libertà non correlati ed è noto come approssimazione del campo medio .

Nel caso più comune in cui l'Hamiltoniana finale contiene solo interazioni a coppie, cioè,

=(i,j)𝒫Vi,j(ξi,ξj),

dove 𝒫 è l'insieme delle coppie che interagiscono, la procedura di minimizzazione può essere eseguita formalmente.

Si definisce Trif(ξi) come somma generalizzata dell'osservabile f sui gradi di libertà della singola componente (somma per le variabili discrete, integrali per quelle continue). L'approssimazione dell'energia libera è data da

F0=Tr1,2,,N(ξ1,ξ2,,ξN)P0(N)(ξ1,ξ2,,ξN)+kTTr1,2,,NP0(N)(ξ1,ξ2,,ξN)logP0(N)(ξ1,ξ2,,ξN),

dove P0(N)(ξ1,ξ2,,ξN) è la probabilità di trovare il sistema di riferimento nello stato specificato dalle variabili (ξ1,ξ2,,ξN) . Questa probabilità è data dal fattore di Boltzmann normalizzato

P0(N)(ξ1,ξ2,,ξN)=1Z0(N)eβ0(ξ1,ξ2,,ξN)=i=1N1Z0eβhi(ξi) =def i=1NP0(i)(ξi),

dove Z0 è la funzione di partizione . Così

F0=(i,j)𝒫Tri,jVi,j(ξi,ξj)P0(i)(ξi)P0(j)(ξj)+kTi=1NTriP0(i)(ξi)logP0(i)(ξi).

Per minimizzare, si prenda la derivata rispetto alle probabilità a un grado di libertà P0(i) utilizzando un moltiplicatore di Lagrange per garantire una corretta normalizzazione. Il risultato finale è l'insieme delle equazioni di autoconsistenza

P0(i)(ξi)=1Z0eβhiMF(ξi),i=1,2,,N,

dove il campo medio è dato da

hiMF(ξi)={j(i,j)𝒫}TrjVi,j(ξi,ξj)P0(j)(ξj).

Applicazioni

La teoria del campo medio può essere applicata a numerosi sistemi fisici in modo da studiare fenomeni come le transizioni di fase.[10]

Oppure, mediante la disuguaglianza di Bogoliubov sopra indicata, si può trovare la magnetizzazione in un modello di campo medio di un modello di Ising bidimensionale.[11]

Allo stesso modo può essere utilizzata nei seguenti casi:

Estensione ai campi medi dipendenti dal tempo

Nella teoria del campo medio, tale campo appare come una quantità scalare o vettoriale indipendente dal tempo e in un singolo sito. Tuttavia, esiste una variante della teoria chiamata teoria dinamica del campo medio (DMFT), in cui il campo diventa una quantità dipendente dal tempo. Ad esempio la DMFT può essere applicata al modello di Hubbard utilizzato per studiare la transizione da conduttore a isolante di Mott.

Note

Voci correlate