Gaianews

Cos’è l’intelligenza? Risponde il secondo principio della termodinamica

Scritto da Annalisa Arci il 23.04.2013

L’ultimo numero della rivista Physical Review Letters  pubblica un ambizioso articolo che si intitola “Causal Entropic Forces” in cui si dimostra una relazione stretta tra l’entropia e lo sviluppo di un insieme di comportamenti complessi che gli autori chiamano “nicchia cognitiva”. La relazione ha la forma di una generalizzazione causale: il punto di partenza è infatti dato dai recenti progressi in vari campi, dalla cosmologia alla computer science, in cui si accenna ad un possibile legame tra la massimizzazione dell’entropia e l’intelligenza. Fino ad oggi, però, nessuno ha ancora stabilito una precisa relazione fisica tra i due. Lo studio cerca di colmare questa lacuna.  

bambina_sopresa

Gli autori dell’articolo suggeriscono un modello termodinamico potenzialmente generale capace di spiegare il comportamento adattativo come un processo di  non equilibrio tra sistemi aperti. Gli studiosi hanno fatto appello all’entropia per ispirare un nuovo formalismo che ha dimostrato di avere una grandissima e sorprendente potenza di fare previsioni; hanno sviluppato un particolare software di nome Entropica che, se viene applicato ad una vasta classe di esempi rudimentali, esemplifica comportamenti complessi. 

Estendendo le tradizionali definizioni di forza entropica, è stato possibile dimostrare l’incidenza dell’entropia – per osa solo simulata – su diverse azioni: l’uso di strumento, la cooperazione e anche la stabilizzazione in verticale di un pendolo. Il software riesce ad arrivare a complesse soluzioni come imparare a giocare, stabilizzare cose in equilibrio, vendere e comprare azioni sul mercato globale, imparare a camminare eretta, etc., tutto senza ricevere nessuna istruzione o input, ma decidendo in maniera autonoma qual è la soluzione migliore; sembrerebbe che arrivi da solo a soluzioni altamente complesse.

La causal entropic forcing  in azione. L’entropia insegna che i sistemi tendono ad evolversi verso uno stato di maggiore disordine, ma non specifica esattamente in che modo avvenga questa evoluzione. Recentemente, però, i fisici hanno iniziato ad esplorare l’idea che ci siano molte diverse strade per arrivare al risultato, arrivando ad una conclusione: il passaggio tra ordine e disordine non sempre è diretto. Vanno studiati gli stadi intermedi di questo processo. 

Più in generale, gli autori della ricerca suggeriscono che i sistemi dotati di intelligenza massimizzano uniformemente l’entropia totale prodotta lungo l’arco della loro esistenza. In accordo con il principio di Fermat, dato che la luce viaggia in un mezzo costante, per massimizzare il tempo lo sviluppo del sistema avrebbe dovuto percorrere una linea retta; se il percorso è diverso e il sistema è più complesso allora la “traiettoria” seguita è calcolabile in base all’indice refrattario della luce (il tutto fa ovviamente riferimento al percorso totale e non allo stato corrente del sistema).

L’autore principale della ricerca, Alex Wissner-Gross, descrive il comportamento intelligente come un modo per massimizzare la cattura delle storie future e possibili di un sistema. Iniziando da un formalismo conosciuto come “complesso canonico” (una semplice distribuzione probabilistica di stati), gli studiosi sono riusciti a misurare la causal entropic forcing: seguendo un determinato percorso, l’entropia cresce non a causa degli arrangiamenti interni accessibili al sistema in un tempo dato, ma piuttosto sul numero di arrangiamenti attraverso cui potrebbe passare nei suoi possibili stati futuri.

Esperimenti con particelle, dischi e pendoli. Per chiarire l’idea si può pensare a cosa accade a una particella chiusa in una scatola e sottoposta alla causal entropic forcing. La particella si posiziona al centro della scatola. Questo significa che il sistema massimizza in questo modo la varietà di percorsi casuali all’interno della scatola resi possibili dal moto browniano. Un altro esempio proposto dall’articolo concerne il comportamento di dischi di diverse dimensioni in una geometria a 2D. Qui la causal entropic forcing  causa un fenomeno strano: i sistemi rapidamente producono comportamenti in cui i dischi più grandi “usano” dischi più piccoli per liberare i dischi intrappolati. In termini più generali, il senso di questi esperimenti è che i singoli elementi del sistema cooperano per raggiungere risultati improbabili all’apparenza. 

La simulazione più elaborata che hanno creato riguarda un pendolo invertito, rigido, stabilizzato su un carretto in movimento. Secondo gli autori, grazie al causal entropic forcing, questo sistema ricorda vagamente una camminata di un soggetto bipede (l’esempio è rilevante per la scoperta di nuovi metodi per far muovere i robot).  Molti dei comportamenti esemplificati dai primi due esperimenti potrebbero essere paragonati alle reazioni biochimiche che si verificano nelle cellule. Per esempio, gli enzimi usano anche cambiamenti complessi nella conformazione  per manipolare proteine e altre molecole: la velocità e l’efficienza a cui le macchine biologiche, come i ribosomi e l’RNA polimerici operano, suggerisce che, oltre al semplice moto Browniano, esistono altri effetti che sono responsabili del loro comportamento. 

L’emergenza spontanea di comportamenti complessi adesso ha un nuovo strumento su cui può fare affidamento per sondare le sue possibili origini. Non solo: se si pensa agli sviluppi nel campo dell’Intelligenza Artificiale,  macchine in grado di programmarsi da sole e partecipare a complessi giochi cognitivi non esisteranno più solo nei libri di fantascienza. 

Causal Entropic Forces, in “Physical Review Letters 110, 168702 (2013). 

 

 

 

© RIPRODUZIONE RISERVATA