Nel post precedente mi sono occupato delle radici storiche del concetto di caos nella scienza moderna. Il legame fra gas e caos non è (soltanto) etimologico, come abbiamo visto. Ma se il termine "caos" ha acquistato nell'ultimo mezzo secolo l'importanza e anche la popolarità di cui gode, il motivo è un altro.
I gas centrano, certo. Soprattutto un particolare corpo gassoso: la nostra atmosfera. Nei primi anni '60 del secolo mscorso, Edward Norton Lorenz stava studiando la possibilità di migliorare le previsioni meteorologiche: un'impresa che richiede grandi capacità matematiche e computer molto potenti, mica retini per farfalle! Eppure fu proprio una specie di farfalla che Lorenz scoprì, una farfalla delicatissima e indistruttibile, una farfalla matematica. Il nome tecnico è attrattore di Lorenz, ma se lo osservate, nel grafico in 3D realizzato da un computer, assomiglia un po' a una farfalla con le ali aperte. Ali che possono scatenare una tempesta.
L'effetto farfalla
Nell'articolo di Lorenz del 1963, che è all'origine delle moderne teorie del caos, non c'è nessuna farfalla. C'è invece un gabbiano che, sbattendo le ali, può creare una piccola perturbazione nell'atmosfera: una perturbazione dalla quale può nascere altrove un tornado. Più tardi Lorenz preferì al gabbiano l'ancora più esile farfalla. E nel 1972 il suo intervento al convegno dell'Associazione Americana per il Progresso della Scienza prese un titolo destinato a diventare famoso: "Does the flap of a butterfly’s wings in Brazil set off a tornado in Texas?". Il battito delle ali di una farfalla in Brasile è all'origine di un tornado in Texas?
Quando fece la sua scoperta, Lorenz stava lavorando alla risoluzione di complicate equazioni legate al comportamento dell'atmosfera. Dato che non è possibile risolvere equazioni simili esattamente, in questi casi si ricorre al computer per calcolare una soluzione approssimata. Il computer spezza l'evoluzione temporale dell'atmosfera in intervalli molto brevi e calcola, intervallo per intervallo, che cosa succede. Il risultato del calcolo alla fine di un intervallo viene usato come dato di partenza per l'intervallo successivo, ripetendo le stesse operazioni migliaia di volte.
In quell'epoca eroica dello sviluppo dei grandi calcolatori i risultati non apparivano su uno schermo sotto forma di diagrammi eleganti, ma venivano stampati su carta in forma di sfilze di numeri. Un giorno Lorenz, dovendo ripetere una di queste sequenze di calcoli, come valore di partenza non usò quello stampato dal computer (0,506127), ma si limitò a introdurre le prime tre cifre significative (0,506), convinto che ciò avrebbe comportato una differenza minima.
Si sbagliava. L'esito del calcolo fu stravolto. Dopo pochi intervalli, la nuova sequenza di numeri risultava completamente diversa dalla precedente. Una piccola differenza iniziale, 0,000127 su 0,506, una differenza dello 0,25 per mille, comportava un'evoluzione completamente diversa del sistema descritto dalle equazioni. L'errore era analogo a quello che si commette misurando la propria altezza con una precisione di meno di mezzo millimetro. Eppure la differenza era enorme. La farfalla aveva battuto le ali.
Un esempio
I calcoli svolti da Lorenz non sono facilmente riproducibili. I sistemi dinamici da lui studiati sono costituiti da regole di evoluzione molto complesse. Ma possiamo farci un'idea delle sue osservazioni grazie a un sistema dinamico molto semplice, una regola di facile applicazione: 1. scegli un numero decimale fra 0 e 1; 2. moltiplica per 3; 3. togli la parte intera; 4. ripeti l'intera sequenza.
Questo sistema è perfettamente deterministico: se partiamo da un numero (0,1234, per esempio), dopo venti ripetizioni arriviamo sempre allo stesso risultato. Anche le equazioni di Lorenz avevano questa proprietà. Ma se partiamo da un altro numero, molto vicino a quello iniziale (0,123401), dopo pochi passaggi otteniamo due sequenze di numeri completamente diverse. Ecco un grafico:
Se conoscessimo soltanto la sequenza ottenuta dal primo numero (in blu) non avremmo alcuna possibilità di indovinare la seconda sequenza, anche se parte da un numero che differisce dal primo per 8 parti su un milione. Soltanto se conosciamo esattamente le condizioni iniziali di un sistema del genere possiamo ottenere delle previsioni attendibili. Un piccolo errore, una piccola inevitabile incertezza, e il sistema, pur essendo deterministico, risulta completamente imprevedibile. Questa sensibilità alle condizioni iniziali è la caratteristica fondamentale di ciò che oggi chiamiamo caos. Il nostro esempio, come il sistema dinamico studiato da Lorenz, è un sistema caotico.
Conseguenze allarmanti
Dopo la scoperta di Lorenz, gli scienziati trovarono (facile, quando sai cosa cercare...) esempi di sistemi caotici dappertutto, nella meteorologia, nella dinamica degli oceani e dei terremoti, nel comportamento dei circuiti elettrici, nel battito del cuore. Manuela, la studentessa di cui ho citato il messaggio all'inizio del primo post sull'argomento, ne sa qualcosa, visto che progetta di realizzare appunto un circuito caotico, il circuito di Chua. Qui a fianco ho riprodotto un possibile schema, che mostra come si tratti di un ciruito tutto sommato semplice.
Se tutti questi sistemi sono caotici, quali sono le conseguenze? Abbiamo visto che risulta impossibile prevederne l'evoluzione a lungo termine. Per quanti diventino bravi i nostri meteorologi, non potranno mai dirci che tempo farà fra un anno. Anche una piccolissima incertezza nella misura della temperatura, della velocità del vento, del tasso di umidità, comporta una differenza enorme fra l'evoluzione prevista e quella reale.
Ma le nostre misure sono sempre incerte. Nessuno si aspetta di poter pesare la pasta con una precisione infinita, o anche soltanto di più o meno un milligrammo, prima di preparare il pranzo. E nessuno si aspetta che ciò faccia alcuna differenza nella reazione dei commensali. Per fortuna, la preparazione di un piatto di pasta non è un sistema caotico.
Ma cosa accade alla scienza, e alla fisica in particolare, se le previsioni si rivelano impossibili? La scienza procede per ipotesi, previsioni, controlli sperimentali. L'ipotesi della validità delle leggi di Newton conduce Urbain Le Verrier alla previsione dell'esistenza di Nettuno; nel 1846, Johann Gottfried Galle conferma la validità dell'ipotesi osservando Nettuno proprio dove Le Verrier aveva previsto. (Potete leggere questa storia in un altro post.) Se una previsione risulta errata, l'ipotesi che ha condotto ad essa dev'essere sbagliata. O no?
Non più, necessariamente. L'ipotesi può essere perfettamente corretta. Ma, se il sistema è caotico, la previsione che ne traiamo sarà estremamente sensibile alle condizioni iniziali, e quindi inutilizzabile per il controllo dell'ipotesi. Il metodo sperimentale è minacciato alle fondamenta. La possibilità stessa di paragonare le nostre teorie con la realtà sembra venire meno.
Sembra soltanto? C'è una via d'uscita? La scienza manifesterà ancora una volta una delle sue qualità più importanti, la resilienza, la capacità di assorbire i colpi e rimettersi all'opera più decisa di prima?
In effetti, una via d'uscita c'è. E ha a che fare con quel certo attrattore di cui parlavamo all'inizio.
Però adesso è tardi. Ne parliamo la prossima volta.
Per approfondire
Una pagina su Edward Norton Lorenz.
A proposito dell'effetto farfalla.