FISICA/MENTE

 

 

     Giorgio Parisi è uno dei massimi fisici italiani del quale mi vanto di essere amico. Egli è uno dei fisici che ha sviluppato nel mondo la teoria del caos o della complessità. Per i suoi studi e contributi di livello altissimo ha ricevuto la Medaglia Boltzmann, il premio Dirac, il premio Galileo, il Premio Lagrange e la Medaglia Max Planck. In passato ha lavorato insieme all'altro grande fisico italiano recentemente scomparso, Nicola Cabibbo, al supercalcolatore APE. Insomma, non è per nulla peregrino affermare che la prossima presentazione che farò di lui sarà la presentazione di un Nobel dalla fisica.

    Ebbene, nello scritto che segue, Giorgio Parisi racconta in modo semplice una cosa estremamente complessa, cioè il contenuto delle sue ricerche. Quanto qui scritto ha per complemento un'altro scritto che Giorgio Parisi mi ha concesso di pubblicare, Fisica e Biologia.

     Leggete con attenzione questi lavori sono davvero di grande interesse.

 

Roberto Renzetti  

 

 

GIORGIO PARISI

 

La chiave e l’ubriaco

 

 

Roma 20.06.04

Revisionato Frangar

 

 

 

Dai numeri alla fisica

 

A quanto pare i numeri sono stati la mia prima passione: già a quattro anni sapevo leggere l’insegna dell’autobus e mi dilettavo con giochi che richiedevano la conoscenza di combinazioni numeriche. Ai tempi del liceo i miei interessi erano rivolti esclusivamente alla matematica e avevo un’autentica adorazione per gli scacchi.

La fisica è una passione nata più tardi, con la scelta dell'università. Ricordo che rimasi incerto, fino all’ultimo, tra fisica e matematica. Avevo invece escluso categoricamente ingegneria – la facoltà che avrebbe voluto farmi frequentare mio padre – perché sapevo già che volevo dedicarmi alla ricerca e non soltanto alla teoria. Credo che alla fine abbia prevalso il lato concreto della fisica.

 

Spiegare cosa sia la fisica è molto più semplice che spiegare cosa sia la matematica, giacché quest’ultima può raggiungere vette d’inaudita astrattezza. Se prendiamo, ad esempio, alcuni teoremi divenuti famosi, come quello di Fermat, ci accorgeremo che hanno quasi tutti una spiegazione elementare, che tuttavia è molto difficile da riportare sul piano dei fenomeni osservabili. Forse è stata proprio questa diversa concretezza a farmi propendere per la fisica, anche se non sono mancati i ripensamenti. Comunque, lo studio di questa disciplina richiede ugualmente un’approfondita conoscenza della matematica: è assolutamente essenziale riuscire a tradurre il mondo in numeri, osservare come questi si evolvono e cambiano nel tempo, ed estrapolarne una teoria.

 

Fin dall’inizio ho voluto fare a modo mio: scegliere i libri che più m’interessavano – Landau per la meccanica, Dirac per la meccanica quantistica, Schrödinger per la meccanica statistica e poi Fermi e Pauli – decidere quali seminari seguire, dedicandomi, già dal terzo anno, alla ricerca. Devo dire che questo mio innato spirito critico, che ancora mi accompagna, si è rivelato molto utile nella mia carriera. Ho idea che tra le mancanze degli studenti di oggi ci sia proprio l’assenza di spirito critico. Accettano tutto ciò che gli viene proposto, pur di laurearsi senza intoppi. Prendiamo il caso del dottorato: come momento di ricerca è estremamente funzionale, anche se non privo di problemi tecnici; ma qualcuno ha provato a chiedersi cosa ne faremo di tutti questi dottorandi? Essendo piuttosto debole, in Italia, la presenza dell’industria privata, i futuri dottorandi dovrebbero confluire esclusivamente nell’università. Il loro attuale numero è troppo elevato, se il dottorato serve solo a preparare persone che andranno a lavorare in enti di ricerca statali e nelle strutture universitarie.

Nei punti nevralgici, dove si prendono le decisioni che riguardano il futuro di questi ragazzi, sarebbe importante avere persone qualificate, che sappiano cosa significa fare ricerca scientifica: gente che abbia un certo tipo di mentalità e possa capire cos’è la programmazione della ricerca o dello sviluppo tecnologico di una società. È un po’ come la storia dell'uovo e della gallina: da un lato non ci sono sbocchi di questo genere – non ho mai sentito di nessuno che, dopo aver fatto il dottorato in fisica, sia finito alla dirigenza statale – e dall’altro la mancanza di tali sbocchi fa in modo che il dottorato sia automaticamente finalizzato ad attività di ricerca.

È assolutamente necessaria una programmazione, soprattutto in ragione di una situazione anagrafica che ci pone dinanzi a un ricambio generazionale. Ci si aspetta infatti, per il 2005, una gran quantità di pensionamenti. A questo punto sarebbe importante trovare un certo numero di posti, anche provvisori, ove impiegare le persone che dovranno supplire a questi vuoti.

 

All’epoca in cui ero ancora studente universitario vigeva la convinzione, predominante in ambito accademico, che la fisica fondamentale fosse quella delle particelle elementari. Specie in Italia, dove avevamo avuto la lezione di Enrico Fermi, questa branca rappresentava il campo d’elezione per chiunque volesse cimentarsi in qualcosa di difficile. È stato Galileo il primo a dire che la scienza doveva dedicarsi a fenomeni ristretti, anziché all’osservazione dell’universo nel suo insieme; e la fisica delle particelle elementari è quanto di più «piccolo» conosciamo in natura. Da qui vengono le leggi ultime della materia, che in potenza potrebbero offrirci anche la spiegazione di quanto ci è ancora ignoto. Tuttavia, non bisogna aspettarsi una spiegazione lineare.

In ragione del fascino che suscitava all’epoca, optai da subito per la fisica delle alte energie. E visto che Nicola Cabibbo era il fisico teorico più rappresentativo in quel momento, mi rivolsi a lui per la tesi.

Cabibbo era in grande sintonia con Raul Gatto, che negli anni Sessanta aveva messo in piedi il gruppo di Firenze: una decina di persone che lavoravano secondo tecniche stacanoviste. Ogni settimana veniva esaminata la letteratura scientifica appena pubblicata, se ne discuteva insieme e si programmavano eventuali rettifiche agli esperimenti altrui. C'era un forte senso di coesione, sicuramente dovuto all’abilità di Gatto nel riunire i fisici teorici più brillanti di quella generazione.

Subito dopo la laurea anche Cabibbo aveva lavorato con Gatto che, specialmente all'inizio, deve averlo influenzato molto, perché il loro modo di lavorare in équipe era simile. Inoltre entrambi erano interessati alle collisioni elettrone-positrone.

 

Nel 1971 entrai per due anni a Frascati, durante quello che è stato il momento d'oro di quel centro di ricerca, perché si provavano le prime esperienze di annichilazione di elettroni e positroni. Una parte dell'attività teorica era collegata alla teoria dei campi e alle interazioni deboli.

Terminata l’esperienza dei Castelli Romani, decisi di sfruttare la mia amicizia con Richard Brant per recarmi un anno alla New York University. Seguirono una serie di esperienze brillanti, tra cui due mesi al CERN, che incrementarono la mia autostima. L’apice pensai di averlo raggiunto quando mi arrivò una lettera di Tsung Dao Lee – il fisico cinese che, all’età di 31 anni, ha avuto il Nobel per aver scoperto «la non conservazione della parità» – che m’invitava a unirmi al suo gruppo alla Columbia University. Ho saputo soltanto tempo dopo che era stato Brant a propormi per quel posto.

Amavo la fisica e amavo New York. Mi sembrava proprio di avere tutto, anche se la ricerca alla Columbia non era molto stimolante: continuavo a fare le cose che già facevo prima, con la sensazione che le scoperte veramente importanti si facessero altrove.

 

Negli anni Ottanta, lavorando sulle simulazioni al computer, ho pubblicato una serie di studi sulla fisica delle particelle. L'uso dei calcolatori in ambito teorico e per fini statistici si era già affermato da tempo; per la precisione dal 1952-53 con Fermi, Pasta e Ulam. Negli anni Sessanta, invece, si cominciarono a diffondere le simulazioni al calcolatore di eventi attinenti alla dinamica molecolare e alla meccanica statistica. Nel 1981, con un mio studente, Marinari, cominciai a fare simulazioni su grande scala, ma l'utilità di questi mezzi, per la fisica delle alte energie, era ancora limitata. Fu per questa ragione che decisi che dovevo «costruirmi» un calcolatore più veloce di quelli commerciali. Non avevo alcuna nozione di hardware, microelettronica o altro, ma alla Columbia c'era un gruppo che si occupava appunto di calcolatori. Insieme decidemmo di avviare un progetto, per costruire una macchina più potente: l’APE, abbreviazione di "Array Processor Expansible". Non c’eravamo tuttavia posti il problema del software, che ritardò di molto il debutto della nostra macchina. Il progetto fu ultimato nel 1987 e il calcolatore continuò a funzionare fino ai primi anni Novanta, quando fu superato da APE 100, ossia una macchina cento volte più veloce della precedente. Credo che grazie a questi calcolatori abbiamo guadagnato molti anni, che altrimenti sarebbero stati spesi inutilmente per lunghe e difficoltose simulazioni teoriche.

 

 

Il concetto di realtà fisica

 

Per capire la fisica, bisogna innanzitutto comprendere qual è il valore e il significato della parola «realtà». A tal proposito vorrei dedicarmi a una breve disamina delle scoperte scientifiche che, nell’ultimo secolo, hanno radicalmente riscritto il concetto di realtà fisica.

 

I lavori di Planck sul quanto di azione (1901) e di Einstein sulla relatività ristretta (1905) e generale (1915) hanno segnato l’inizio di un abbandono radicale dei concetti della fisica classica. La nascita della meccanica quantistica ha richiesto una gestazione molto faticosa, durata per tutto il primo quarto del XX secolo. Durante questo processo i concetti classici di posizione, traiettoria e persino il significato del verbo «esistere» sono stati profondamente modificati.

 

Nel suo lavoro del 1901, Planck aveva risolto la contraddizione tra teoria ed esperimenti, sulla radiazione emessa da un corpo nero, introducendo un’ipotesi del tutto nuova. Egli suppose che la luce fosse emessa in maniera discontinua, mediante processi elementari, durante i quali veniva prodotta energia proporzionale alla frequenza «n» di oscillazione (E=hn, essendo «h» una quantità molto piccola, detta «costante di Planck»).

Planck era fiducioso che la nuova legge sarebbe stata compresa studiando in dettaglio l'interazione fra luce e materia e non pensava assolutamente che fosse necessario introdurre nuovi concetti nella descrizione della natura.

Il successo ottenuto nel predire i dati sperimentali, con i lavori di Einstein sull'effetto fotoelettrico (1906) e di Bohr sulla struttura dell'atomo, convinse i fisici che una nuova meccanica era invece necessaria, ma non si vedeva come fare per gettarne le fondamenta.

 

Nel 1924, de Broglie si arrischiò a proporre che anche la materia ordinaria avesse un aspetto ondulatorio e questa stupefacente predizione venne confermata sperimentalmente. Poco tempo dopo, Schrödinger scrisse l'equazione che descriveva le onde di de Broglie e Heisenberg, contemporaneamente, propose la formulazione matematica di una nuova meccanica (la meccanica quantistica), basata sulla teoria delle matrici.

Meno di un anno dopo, Dirac dimostrò che le due differenti proposte, erano in verità due formulazioni matematiche diverse della stessa teoria.

 

La costruzione della meccanica quantistica era avvenuta procedendo a tentoni, usando come filo conduttore le discrepanze fra le predizioni della meccanica classica e i dati sperimentali. Solo dopo la costruzione del nuovo edificio, si arrivò al problema (ancora dibattuto) dell'interpretazione.

 

Le equazioni della meccanica quantistica, date le condizioni iniziali, permettono di prevedere i risultati delle osservazioni e di calcolare quale sia la probabilità di trovare un elettrone in un dato punto, dopo un certo tempo, ma non permettono di rispondere alla domanda: dove sta l'elettrone (o un altro oggetto fisico) quando non viene osservato?

Le difficoltà nascono dal fatto che lo stato del sistema è determinato dalle onde di de Broglie, che indicano la probabilità (più precisamente l'ampiezza di probabilità) di trovare una particella in qualche punto dello spazio. Un'analisi dettagliata dimostra che, per determinare dove la particella è attualmente, bisogna fare una misura perturbando il sistema in maniera significativa e non è immaginabile che il sistema sia in uno stato determinato, quando non viene osservato.

Bohr ha riassunto brillantemente la situazione con il suo principio di complementarità: l'elettrone possiede sia la natura dell'onda che della particella; le due nature non si possono manifestare contemporaneamente, perché sono complementari l'una all'altra. Se insistiamo a misurare la traiettoria dell'elettrone, ponendo quindi l'accento sulla sua natura corpuscolare, i fenomeni ondulatori (per esempio l'interferenza) svaniscono; nello stesso modo, se osserviamo l'interferenza, non possiamo più parlare di traiettoria.

 

Sull'interpretazione della meccanica quantistica si sono sparsi fiumi d'inchiostro: le cose si complicano terribilmente, se ci si domanda che cosa sia un osservatore (e quindi che cosa sia la coscienza di se stessi) o se si cerca di costruire una teoria in cui osservatore e osservato siano trattati allo stesso livello.

Possiamo cercare di riassumere una discussione che dura da più di sessanta anni, affermando che non ci sono difficoltà, se ci limitiamo a considerare la meccanica quantistica come una serie di regole, usando le quali è possibile prevedere correttamente i fenomeni osservati; se, tuttavia, vogliamo interpretare queste regole come la manifestazione di qualcosa che esiste e che cambia col tempo e ci domandiamo che cosa sia questo qualcosa e quali siano le sue proprietà, quando non viene osservato, una risposta universalmente accettata non esiste e le varie proposte non sono soddisfacenti.

Al momento, la ricerca in questa direzione non è molto attiva, sia per mancanza di idee nuove, sia per il carattere epistemologico  della questione, dovuto anche all'impossibilità di fare un esperimento per verificare quale sia l'interpretazione corretta.

Anche se in futuro il quadro concettuale della meccanica quantistica dovesse essere abbandonato, è ragionevole pensare che il suo superamento avverrà, non ritornando alla pura e semplice meccanica classica, ma arrivando a una formulazione ancora più lontana dall'intuizione classica.

 

 

Lo spazio e il tempo

 

La relatività ristretta segna, nel 1905, un primo abbandono della concezione di tempo assoluto, ugualmente definito per ciascun osservatore. Infatti, nella relatività ristretta, il tempo e lo spazio sono sullo stesso piano e il fluire del primo è diverso, per due osservatori differenti (rallentamento del tempo con l'aumentare della velocità, paradosso dei gemelli, ecc.). Le predizioni della relatività ristretta sono facilmente verificabili sul piano sperimentale, anche se ci sono alcune zone oscure nella teoria.

La relatività generale del 1915 (che ebbe una spettacolare verifica sperimentale nel 1921, con la misura della deviazione della luce delle stelle durante un'eclisse di sole) causa un rimescolamento molto più profondo nelle nostre concezioni dello spazio-tempo e le conseguenze ultime di questa teoria non sono state ancora raggiunte.

 

La novità, nella teoria della relatività generale, consiste nel supporre che lo spazio-tempo non sia piatto e che la sua curvatura sia all'origine delle forze gravitazionali. A prima vista questo non sembra un grande cambiamento concettuale; i guai cominciano a palesarsi quando si considerano gli effetti di campi gravitazionali intensi. Infatti, la concentrazione di grandi quantità di materia in regioni ristrette dello spazio (dello stesso ordine di quelle che possono essere generate dal collasso di una stella) crea fenomeni completamente nuovi e apparentemente paradossali: i buchi neri.

La soluzione esatta delle equazioni gravitazionali (sotto ipotesi semplificatrici) porta alla conseguenza che una persona, che cade dentro un buco nero, raggiunge in un tempo soggettivamente finito l'istante che per un ipotetico osservatore esterno corrisponde, invece, a un tempo infinito. Si rimane quindi intrappolati dentro il buco nero e non si può tornare nell'universo attuale, in quanto il tempo (infinito) dell'universo usuale è già terminato.

Più in generale, l'aver concepito lo spazio-tempo come curvo, porta necessariamente alla possibilità che lo spazio abbia una struttura topologica complicata. Non si tratta semplicemente dell'eventualità che lo spazio sia finito, ma di qualcosa di ben più strano: come nei libri di fantascienza, è possibile che regioni apparentemente lontane dello spazio siano in realtà connesse tra loro, mediante una strada più corta (ovviamente questo può accadere solo in presenza di campi gravitazionali molto intensi); lo stesso potrebbe accadere per collegare regioni apparentemente lontane nel tempo: si cade dentro un buco nero e dopo un attimo di tempo soggettivo, si esce da un buco bianco (l'inverso del buco nero), che sono trascorsi alcuni miliardi di anni del tempo usuale.

 

Il lato più strano consiste nel fatto che la teoria della gravità quantistica sembrerebbe predire (almeno secondo una scuola di pensiero) che lo spazio-tempo sia pieno di queste strutture su scala microscopica (dette wormholes, ovvero buchi a forma di verme), che congiungono punti a distanza macroscopica. Altri sostengono che la struttura dello spazio nella gravità quantistica è ancora più complicata e su piccola scala lo spazio (come la superficie dell'acqua quando forma una schiuma) è lontano dall’essere approssimativamente piatto.

In tutte queste teorie non è affatto chiaro come mai, pur essendo lo spazio-tempo così curvo e complicato, su piccole scale, viene comunque da noi percepito come piatto.

 

Al momento, la gravitazione quantistica resta un aspetto parzialmente incompreso; molti dubitano che essa sia una teoria coerente e propongono delle modifiche, sulle piccole distanze, alla teoria della gravitazione classica o alla meccanica quantistica.

 

Le sorprese non finiscono qui: teorie attualmente molto di moda ipotizzano che lo spazio abbia nove (o forse venticinque) dimensioni e che l'universo si estenda su una distanza piccolissima (10-33 cm) nelle sei dimensioni aggiuntive, mentre è estremamente vasto nelle dimensioni usuali. Teorie di questo genere sembrerebbero essere l'unica possibilità per tracciare le equazioni complete della gravitazione quantistica.

Ma si sta facendo strada un cambiamento di prospettiva ancora più radicale: gli oggetti di base descritti dalla teoria sono enti che esistono al di fuori dello spazio e del tempo; l'intrecciarsi di questi oggetti provoca l'emergere dello spazio e del tempo come proprietà collettive; le dimensioni dello spazio-tempo sono invece quantità derivate, che devono essere calcolate nella teoria. Metaforicamente, potremmo pensare che gli oggetti di base sono anellini: a seconda di come li connettiamo, possiamo avere oggetti con dimensioni diverse; per esempio una catena, una superficie o un solido compatto.

Gli sforzi di un gran numero di fisici sono concentrati nel cercare di capire se queste nuove proposte siano completamente coerenti e quali siano le corrispondenti previsioni sperimentali. Solo il futuro ci potrà dire fino a qual punto dovremo modificare i nostri concetti di spazio e di tempo.

 

 

Il contributo dei calcolatori all’evoluzione della fisica moderna

 

Il calcolatore elettronico ha cambiato in modo radicale il panorama della fisica teorica. Un tempo il passaggio dalle leggi alle conseguenze delle leggi era effettuato mediante argo­mentazioni, che potevano sia ricorrere a strumenti matematici rigorosi, sia basarsi (e questo accadeva piuttosto spesso) su una logica intuitiva e sull'analogia.

Nell'immaginario scientifico il fisico teorico aveva bisogno soltanto di carta e matita per fare le sue previ­sioni, in opposizione al fisico sperimentale che aveva invece necessità di costose apparecchia­ture.

I calco­latori attuali hanno enormemente ampliato le nostre capacità di calcolo: esistono macchine capaci di fare circa un miliardo di operazioni al secondo, su numeri di 7 cifre. Vi è dunque stato un incremento, pari a più di un miliardo di volte, delle capacità di calcolo; im­prese un tempo ritenute impossibili sono diventate del tutto banali.

 

Una volta, se si vo­leva calco­lare teoricamente la temperatura di liquefazione di un gas (per esempio l'argon), suppo­nendo di conoscere già la forma delle forze in atto tra i vari atomi, bisognava fare delle approssimazioni che non erano del tutto giustificate e, soltanto grazie a tali ipotesi, mediante semplici calcoli, si poteva ottenere una predizione della temperatura di liquefazione, che tuttavia non era in perfetto accordo con i dati sperimentali (un errore tipico po­teva essere il 10% sulla temperatura assoluta). L'unica strada per migliorare l'accordo fra le previ­sioni e gli esperimenti consisteva nel rimuovere a poco a poco le approssimazioni.

Questo schema teorico, noto come teoria delle perturbazioni, conduce a delle equazioni molte complicate e a dei calcoli estremamente noiosi, che possono essere fatti a mano o, se neces­sario, dal calcolatore.

 

Il punto di vista completamente nuovo, che si è diffuso negli anni Settanta con l'uso dei calcolatori, consisteva nel non fare approssimazioni sul moto delle particelle, ma nel calcolare esattamente le loro traiettorie. Per esempio, possiamo simulare il comportamento di un certo numero di atomi di argon (diciamo 8000), dentro una scatola di dimensioni variabili, e osservare quello che succede, ovvero se l'argon si comporta come un li­quido o come un gas.

Il peso computazionale di una tale simulazione è enorme: bisogna calcolare le traiet­torie di 8000 particelle e seguirle per un tempo sufficientemente elevato, per poter trascurare la dipendenza dalla configurazione iniziale. Se pensiamo al fatto che i matematici del secolo scorso si sono scervellati per studiare le traiettorie di pochi pianeti, ci rendiamo conto di come un simile approccio non fosse nemmeno immaginabile in assenza del calcolatore.

 

Le simulazioni hanno uno status intermedio fra teoria ed esperimento; non sono certo un esperimento tradizionale, nel senso che non si usano atomi di argon per ottenere la temperatura di liquefazione, tuttavia il compito del teorico assomiglia molto a quello del fisico sperimentale tradizionale:  prepara il suo apparato sperimentale (il calcolatore), decide le condizioni in cui l'esperimento deve avvenire (condizioni iniziali, numero di particelle, forma delle forze, ecc.), lancia la simulazione e aspetta i risultati, che alla fine guarda e analizza. Non a caso, le stime ottenute mediante simulazioni numeriche sono affette da un errore statistico e da un errore sistematico, come i risultati delle vere misurazioni.

La vecchia dicotomia, teorico-sperimentale, è stata così sostituita da una tripartizione del sapere: teoria pura (carta e matita per intenderci), simulazione ed esperimento; con la simulazione a fare da trait d'union fra la teoria e l'esperimento: se il fisico sperimentale confronta i suoi dati con i risultati delle simulazioni, il teorico cerca di predire i risultati delle stesse.

 

L’aspetto più avvincente delle simulazioni risiede nel fatto che si possono creare an­che sistemi che non esistono in natura, ma più semplici dal punto di vista teorico. Ciò consente alle simula­zioni di diventare il laboratorio privilegiato per la verifica delle nuove teorie, che non potrebbero altrimenti essere suffragate dalla prova del mondo reale. Semplificando potremmo dire che le simulazioni giocano anche il ruolo di incubatrici per teorie nate settimine. Ovviamente lo scopo finale è di applicare queste idee ai casi concreti, ma ciò può avvenire solo dopo che la teoria si è sufficientemente irrobustita.

 

 

Sistemi disordinati e sistemi complessi

 

L’uso del calcolatore ha giocato un ruolo fondamentale anche nello sviluppo delle moderne teo­rie riguardanti i si­stemi disordinati e, come vedremo, i sistemi complessi.

Questi ultimi rappresentano un campo di indagine nuovo e piuttosto delicato, perché dotato di caratte­ristiche  interdisciplinari: basta pensare alle connessioni esistenti con la biologia, l'informatica, la teoria dei sistemi e l'ecologia. Nello stesso tempo si tratta di un campo molto alla moda, sebbene la parola «complesso» scivoli tra le mani di chi cerca di darne una defi­nizione precisa. A volte si sottolinea il significato di complicato, ossia composto da molti elementi (una centrale nucleare è un sistema complesso, in quanto composto da cento­mila pezzi differenti); altre volte si sottolinea il significato di incomprensibile (l'atmosfera è un sistema complesso, in quanto non si possono fare previsioni a lunga scadenza). Molto spesso, nei convegni sui sistemi complessi, capita che ciascuno degli oratori usi la parola con un’accezione differente. A parte i problemi di definizione, le vere difficoltà nascono quando, dopo aver dichiarato che un dato sistema è complesso, si vuole utilizzare questa affermazione per ottenere risultati positivi e non per lavarcisi le mani, limitandosi ad affermare che il sistema è complesso e quindi nessuna predizione è possibile.

 

Lo scopo di una teoria dei sistemi complessi risiede nel cercare quelle leggi che regolano il comportamento globale di detti sistemi; leggi fenomenologiche, che non sono facilmente deducibili dall'analisi delle regole che controllano ciascuno dei singoli costituenti.

Facciamo un esempio: il comportamento dei sin­goli neuroni è probabilmente ben compreso, ma non ci è affatto chiaro perché 10 miliardi di neuroni, col­legati da centomila miliardi di sinapsi, formino un cervello che pensa. Come avremo modo di vedere, l'emergenza di comportamenti col­lettivi è un fenomeno adeguatamente studiato dalla fisica in altri contesti: la coope­razione di tanti atomi e molecole è responsabile delle transizioni di fase (tipo acqua-ghiaccio o acqua-va­pore); tuttavia nel caso dei sistemi complessi il comportamento globale del sistema non è così semplice come quello dell'acqua, che a una data temperatura può stare in uno o al massimo due stati (se si trascura il punto tricritico in cui vapore, li­quido e gas coesistono). Se assumiamo che un sistema complesso abbia ne­cessariamente un comportamento complesso, la maggior parte dei sistemi studiati dai fisici, nel passato, ave­va dei comportamenti semplici, come l'acqua, e non poteva dirsi complessa.

Di recente i fisici, allo scopo di capire il compor­tamento di alcuni sistemi disordinati, come per esempio i vetri di spin (leghe di oro e ferro che hanno un comportamento magnetico anomalo a basse temperature), hanno cominciato ad analizzare le proprietà di sistemi relativamente semplici, ma che hanno un comportamento complesso. Le tecniche utilizzate durante queste ricerche hanno un carat­tere più generale di quello che si po­trebbe credere, considerando la loro origine vagamente esoterica, e sono correntemente applicate nello stu­dio delle reti neurali.

 

Molto spesso lo studio dei sistemi complessi è stato portato avanti sia analiticamente, sia effettuando simulazioni su calcolatore; i vantaggi dei due approcci si combinano si­nergicamente. I calcolatori permettono di effettuare simulazioni su sistemi di complessità crescente, in maniera da poter estrarre leggi quantitative e qualitative da sistemi di complessità moderata, prima di cimentarsi con quelli vera­mente complessi. Il mi­scuglio dei risultati analitici, ottenuti con i sistemi più semplici, e delle simulazioni numeriche, dei sistemi di com­plessità intermedia, sembra essere molto efficace.

 

In questi ultimi anni, l'attenzione si è concentrata su sistemi composti da un gran numero di elementi di tipo diverso, che interagiscono fra loro secondo leggi più o meno complicate, in cui sono presenti un gran numero di circuiti di controre­azione, che stabilizzano il comportamento collettivo.

In simili casi, il punto di vista riduzionista tradizionale sembra non portare da alcuna parte, ma anche il punto di vista glo­bale, in cui si trascura la natura delle interazioni fra i costituenti, sembra essere inutile, in quanto la natura dei costituenti è cru­ciale per determinare il com­portamento globale.

La teoria dei sistemi complessi, che si vor­rebbe costruire, si pone da un punto di vista in­termedio: si parte sempre dal comportamento dei singoli costituenti, come in un ap­proccio riduzionista, ma aggiungendovi l'idea che i dettagli minuti delle proprietà dei com­ponenti sono irrilevanti e che il comportamento collettivo non cambia, se si cambiano di poco le leggi che regolano la condotta dei componenti.

L'ideale sarebbe classi­ficare i vari tipi di comportamenti collettivi ed esaminare come, al cambiare delle componenti, un sistema rientri in questa classificazione. In altri termini, i com­portamenti collettivi dovrebbero essere struttural­mente stabili (nel senso di Thom) e quindi suscettibili di classificazione; una classificazione ahimè ben più compli­cata di quella esposta da Thom in Stabilità strutturale e morfogenesi (1975).  

 

 

Un esempio di sistema complesso: i vetri di spin

 

Nei sistemi complessi, lo studio teorico non viene fatto su un singolo sistema, bensì viene considerata simulta­neamente una classe di sistemi, che differiscono gli uni dagli altri per una componente casuale. Il modo di procedere può essere compreso più facilmente se facciamo un esempio concreto. In una stanza ci sono tante persone che si conoscono e che hanno dei rapporti di simpatia o di antipatia fra loro. Supponiamo di dividerle a caso in due gruppi e successivamente di domandare a ciascuna delle persone se vuole passare da un gruppo all'altro (la persona risponderà seguendo le proprie inclina­zioni); in caso di risposta posi­tiva l’individuo cambia immediatamente gruppo. Dopo un primo giro, non tutti sono ancora soddisfatti: qualcuno che aveva cambiato posto (o che non aveva cambiato al primo giro) vuole riconsiderare la propria situazione, dopo i cam­biamenti avvenuti. Si effettua pertanto un secondo giro di spostamenti e si va avanti così, fin­ché non ci sono più richieste da parte dei singoli. Successivamente, possiamo pro­vare a spostare non solo i singoli, ma anche gruppi di persone (può capi­tare infatti che un cambiamento sia vantaggioso solo se fatto in compagnia), finché non si raggiunge uno stato di soddisfazione generale.

Il fatto che, dopo un numero finito di giri, tutte le richieste dei singoli siano soddi­sfatte dipende cru­cialmente dall'ipotesi che abbiamo implicitamente fatto: che il rapporto di simpatia sia simmetrico, ovvero se Tizio è simpatico a Caio, anche Caio è simpatico a Tizio. Ma possiamo avere situazioni asimmetriche: Tizio è simpatico a Caio, ma Caio non può sopportare Tizio. Se rapporti di questo tipo sono molto comuni, il procedimento so­pra indicato non tenderà mai a uno stato stabile: Caio insegue Tizio che scappa e i due non si fermeranno mai. Il caso in cui il rapporto è asimmetrico differisce profonda­mente da quello simme­trico; solo in questa seconda evenienza le volontà dei singoli sono tutte orientate verso lo stesso scopo di ottimizzazione della soddisfazione generale.

Ovviamente la configurazione finale dipenderà dai rapporti fra le varie persone e dalla configura­zione iniziale e, quindi, non è direttamente calcolabile in assenza di queste informazioni. Possiamo tuttavia pensare di calcolare delle pro­prietà generali approssimative per questa dinamica (per esempio, quanti giri bisogna fare prima che tutti siano contenti), facendo l'ipotesi che la distribuzione delle amicizie e ini­micizie sia casuale. Più precisamente, supponiamo di sapere quale sia la distribuzione di probabilità delle amicizie: per esempio, la probabilità che due persone scelte casualmente siano amiche è p, dove p è un nu­mero compreso fra 0 e 1. Bisogna a questo punto verificare se questa modellizzazione dei rapporti è cor­retta o se, invece, la situazione reale non sia più com­plicata (per esempio, possiamo introdurre un grado di antipatia e supporre che le persone che nella vita reale abitano vicine abbiano dei rapporti molto intensi, mentre rimangono prati­camente indifferenti a persone che abitano lontano). Una volta che si è ottenuta una mo­dellizzazione accurata della probabilità di distribuzione delle simpatie, possiamo cercare di fare delle previsioni sul sistema; previsioni che saranno puramente di natura probabilistica e che diventeranno sem­pre più precise (ovvero con un errore relativo sempre più piccolo), man mano che il sistema si ingrandisce e il numero dei componenti tende a infinito.

In questo contesto, la probabilità è utilizzata in maniera differente da quella a cui siamo abituati, perché le leggi stesse che governano la dinamica del sistema sono scelte a caso, prima di comin­ciare a studiare la dinamica; mentre classicamente si suppone che il sistema si evolva con una dina­mica talmente complicata, per cui si può assumere che le sue configurazioni siano del tutto casuali (si pensi a una moneta che viene lanciata).

 

Il sistema (nel caso simmetrico), che abbiamo precedentemente descritto, corri­sponde puntualmente (dal punto di vista matematico) ai vetri di spin, nel senso che se sostituiamo le parole simpatico e antipatico con ferromagnetico e antiferromagnetico e identifi­chiamo i due gruppi con spin orientati in direzioni differenti, otteniamo una descrizione precisa dei vetri di spin. Infatti, a basse temperature un sistema fisico si evolve in modo da minimizzare la temperatura; tale dinamica è molto simile al processo di ottimizzazione appena descritto, a patto di identificare l'energia fisica con l'insoddisfazione generale.

La caratteristica forse più interessante di questi sistemi è costituita dall'esistenza di un gran numero di stati di equilibrio differenti (se spostiamo una sola persona alla volta) e dalla grande difficoltà nel trovare la configurazione ottimale, rispetto al cambiamento di un numero arbitrariamente alto di persone. I vetri di spin sono infatti uno degli esempi più noti di quei problemi di ottimizzazione (detti «NP completi» per motivi che non vale discutere in questa sede), la cui soluzione ottimale può essere trovata solo mediante un numero di passi estremamente alto (che cresce esponenzialmente col numero di elementi del sistema).

La presenza di un gran numero di diversi stati di equilibrio può essere considerata forse come una delle caratteristiche più tipiche dei sistemi complessi (almeno in una delle tante accezioni del termine): ciò che non si modifica col tempo non è complesso, mentre un sistema che può assumere molte forme diverse lo è certamente.

 

La scoperta inattesa, fatta in quest'ultimo decennio, è che la complessità emerge naturalmente dal disordine delle leggi sul moto. Per ottenere un sistema complesso non dobbiamo sforzarci di scegliere delle leggi molto particolari: basta sceglierle a caso, tuttavia con delle distribuzioni di probabilità ben determinate.

 

Siamo dunque al cospetto di un campo nuovo e affascinante, in cui i risultati vengono ottenuti molto lentamente, in ragione della novità rappresentata dalla problematica e della necessità di utilizzare strumenti matematici nuovi: basta dire che la teoria delle repliche, mediante la quale sono stati ottenuti i risultati più interessanti, non ha – al momento attuale – nessuna giustificazione dal punto di vista matematico.

 

 

Dai sistemi lineari al caos

 

L'ostacolo principale nel passaggio dalle leggi di base alla comprensione dei fenomeni è dovuto al fatto che solo per un numero estremamente piccolo di sistemi fisici siamo in grado di descriverne il comportamento in maniera dettagliata, quantitativa, partendo dalle leggi fondamentali del moto. Difatti, se il sistema è composto da un gran numero di oggetti elementari che interagiscono fra loro, diventa impossibile seguire, anche concettualmente, le traiettorie delle singole particelle: è necessario studiare il sistema da un punto di vista statistico, calcolando per esempio la velocità media delle particelle, ed è dif­ficile far ciò senza effettuare approssimazioni, che in molti casi si possono rivelare disastrose. 

A parte rare eccezioni, una comprensione completa dei fenomeni si può ottenere solo quando il comportamento del sistema è lineare, cioè quando la reazione di ogni componente del sistema è proporzionale alla perturbazione esterna, come per esempio nelle molle di buona qualità, dove l'allungamento è proporzionale alla forza.

Se si studia in dettaglio il comportamento di sistemi composti da componenti lineari che interagiscono fra loro, ci si rende conto che la linearità permette di considerare l'interazione fra due componenti indipendentemente dal resto del sistema. Questa proprietà ci dà la possibilità di ricondurre lo studio di un sistema con un gran numero di componenti allo studio estrema­mente più facile di un sistema con due sole componenti.

Lo stesso oggetto fisico, a seconda dei casi, può essere più o meno approssimato da un sistema lineare. Consideriamo per esempio le onde del mare e distinguiamo due situazioni: piccole e grandi onde. Quando due onde piccole s’incontrano, formano per un istante un'onda alta esattamente la somma delle due altezze e poi si separano, continuando im­perterrite per la loro strada, con la stessa altezza di prima, come se non si fossero mai incontrate: in questo caso un'equazione lineare per l'altezza delle onde descrive molto bene la situazione. Al contrario, quando le onde sono alte (per esempio dei cavalloni marini) e si scontrano, durante la collisione avvengono fenomeni violenti, l'acqua schizza da tutte le parti e le onde si possono frangere; esse perdono parte della loro energia ed escono dalla collisione meno alte di prima. In questo caso, il moto di un'onda dipende crucialmente dalla presenza di un'altra e il sistema è fortemente non-lineare.

 

Una tecnica molto utilizzata nello studio dei sistemi non-lineari consiste nel supporre che la non-linearità sia piccola. Si studia preliminarmente il com­portamento del sistema supponendo che esso sia lineare; successivamente si calcola come gli effetti non-lineari (trascurati fino a questo punto) perturbino l'evoluzione del sistema. Questo metodo, chiamato teoria delle perturbazioni, è perfetto, se gli effetti non-lineari sono piccoli, e funziona generalmente bene, se la non-linearità non cambia il comportamento qualitativo del sistema; se al contrario la non-linearità induce fenomeni nuovi, come il frangersi delle onde, essi non verranno certamente descritti dalla teoria delle perturbazioni.

In quest'ultimo caso lo studio del sistema diventa molto più difficile e anche molto più interessante; spesso si procede derivando (o ipotiz­zando) delle equazioni che descrivano il comportamento dei nuovi fenomeni. Per esempio, nel caso delle onde marine che si rompono, possiamo provare a scrivere un'equazione per l'acqua e un'equazione per la spuma, senza avventurarci nel compito prati­camente impossibile di descrivere la spuma dando le coordinate delle singole goccioline d'acqua che la compongono. Anche se le equazioni che descrivono i nuovi fenomeni sono approssimate e possono contenere dei parametri di difficile stima teorica (che spesso vengono persi dall'esperimento), esse sono uno strumento indispensabile.

Sfortunatamente nella gran parte dei casi le nuove equazioni sono anch'esse non-lineari e non sono facili da trattare: si ritorna al problema di partenza (studio di un sistema non-lineare), ma a un livello più alto di astrazione. Si può andare avanti trattando le nuove equazioni come lineari (in prima approssimazione) e introducendo una nuova teoria delle perturbazioni; se anche in questo caso l'approssimazione lineare è qualitativamente scor­retta, bisogna ancora una volta cercare d'isolare i fenomeni qualitativamente nuovi, scrivere nuove equazioni e ricominciare da capo.

A volte questo procedimento non funziona e tutto diventa molto più difficile; ciò accade in presenza di effetti non-lineari irriducibili a quelli lineari (per esempio nel caso di un comportamento caotico). Molti di questi problemi fortemente non-lineari rimangono come puzzles irrisolti, attorno ai quali si concen­tra l'attività dei fisici. Una teoria generale dei sistemi non-lineari non è al momento disponibile e solo in alcuni casi fortunati esiste una trattazione teorica soddisfacente che non faccia uso della teoria delle perturbazioni rispetto a un sistema lineare.

Uno degli esempi più famosi è dato dalla teoria delle biforcazioni di Feigenbaum, la quale predice le modalità del passaggio da un comportamento regolare a un comportamento caotico. Delicati esperimenti (per esempio sul trasporto del calore in celle di Elio) hanno confermato sperimentalmente le predizioni della teoria.

 

 

Il caos e la complessità

 

Il problema del caos riguarda il compartimento apparentemente irregolare, quasi casuale, dei sistemi con leggi deterministiche di moto: si tratta di capire come ciò possa avvenire e quali siano le leggi generali che regolano questo fenomeno solo in apparenza contraddittorio. Anche se in teoria il caos deterministico era noto fin dagli inizi del XX secolo (teoremi di Poincaré), l'interesse dei fisici è stato risvegliato da simulazioni numeriche che fanno esplicitamente vedere il comportamento caotico in un sistema deterministico (a volte i fisici si comportano come San Tommaso).

Lo studio del caos è stato affrontato negli ultimi quindici anni con un grande dispiego di forze, ottenendo risultati molto interessanti. È importante sottolineare il cambiamento verificatosi nel modo di osservare i fenomeni. Mentre infatti l'ordine e la regolarità erano una volta al centro dell'attenzione, il disordine, la geometria frattale e l'imprevedibilità giocano ora un ruolo fondamentale: i fisici hanno un nuovo paio d'occhiali per guardare il mondo; fenomeni (per esempio la forma e la dimensione dei frammenti di un vetro rotto), che precedentemente erano ignorati a causa della mancanza di un quadro concettuale nel quale poter essere inseriti, sono adesso ampiamente studiati.

 

 

La meccanica statistica e la sfida della complessità

 

Premetto che al giorno d'oggi è difficile avere una visione d'insieme della scienza; la quantità di carta stampata è enorme: per esempio, ogni anno vengono pubblicati circa 100.000 articoli di fisica e 20.000 articoli di immunologia, su riviste specializzate. Anche se cercassi di seguire tutte le novità inerenti solo questi due campi, avrei di fronte un compito impossibile. Siffatta produzione scientifica è dovuta al numero degli scienziati vivi, che è superiore a quello dei morti: le persone che al momento lavorano in istituzioni scientifiche sono più di quante complessivamente abbiano lavorato nel passato, in tutta la storia dell'umanità. L'impossibilità di seguire l'enorme massa di risultati ottenuti porta a una iper-specializzazione e a una frammentazione del sapere, che sono molto dannose, ma anche difficili da evitare.

Peraltro, una piena comprensione dei processi storici che portano alla nascita della fisica contemporanea non può essere ottenuta senza considerare aspetti sociologici, e più in generale extra-scientifici, quali ad esempio l'emigrazione, avvenuta fra le due guerre, degli scienziati europei negli Stati Uniti e la contemporanea nascita della Big Science; i rapporti con le industrie; l'utilizzazione dei risultati ottenuti in campo industriale, tecnologico e militare; la politica dei finanziamenti e via dicendo.

 

Nel corso di questo secolo la fisica ha raggiunto finalmente una  formulazione completa e soddisfacente delle sue leggi, almeno per quanto riguarda la scala che interessa le normali attività umane, nell'intervallo che va dalla fisica nucleare e subnucleare (10-16 cm.) fino al moto delle stelle e delle galassie.

Parte dei problemi in auge una trentina di anni fa si è ormai risolta, come un ciclo che ha trovato la sua conclusione naturale. Per lungo tempo, uno dei problemi chiave della fisica è consistito nel trovare le leggi fondamen­tali della natura, ovvero nel cercare di determi­nare i costituenti elementari della materia e le forze che agivano su di essi. Ancora venti anni fa la struttura dei componenti del nucleo (protoni e neutroni) e l'origine delle forze nucleari erano ignote: si discuteva accanitamente se i quark fossero o meno i co­stituenti del protone, mentre non si aveva un’idea precisa di quale fosse la natura delle forze che operavano tra questi ipo­tetici quark.

Adesso sappiamo quasi tutto su i quark e le loro interazioni: le leggi della fisica, dai nu­clei atomici alle galassie, sembrano essere argomenti assodati ed è opinione corrente che il futuro non dov­rebbe riservare sorprese (o almeno la stragrande maggioranza degli scienziati non se ne aspetta). Al contrario, nelle scale piccolissime (molto più piccole di un nucleo atomico) o in quelle grandissime (l'universo intero) ci sono ancora molte cose che non comprendiamo e, sotto certi aspetti, brancoliamo addirittura nella più totale ignoranza.

 

Alle piccole scale (10-16 cm.) i fenomeni osservati si possono ben descrivere nell'ambito del quadro generale della meccanica quantistica relativistica. In particolare, sembra ormai assodato che la materia nucleare sia composta da quark e gluoni, che interagiscono secondo le leggi della cromodinamica quantistica. Queste particelle, che non possono esistere isolate, combinandosi, danno luogo al protone, al neutrone (10-13 cm. di raggio) e successivamente ai nuclei atomici; esse sono anche responsabili delle forze tra i nuclei. Le forze elettromagnetiche e deboli sono ben descritte dalla teoria di Glashow, Weinberg e Salam. Le predizioni della suddetta teoria e della cromodinamica quantistica sono state confermate da numerosi esperimenti, effettuati utilizzando acceleratori di particelle ad altissima energia.

La meccanica quantistica non relativistica è essenziale per capire la formazione degli atomi e delle molecole. Per esempio, gli spettri di emissione e di assorbimento della luce, misurati sperimentalmente, sono in ottimo accordo con il calcolo teorico (esatto quando è possibile, altrimenti approssimato). Le tecniche di meccanica statistica permettono di studiare le proprietà di aggregati macroscopici di molti atomi e quindi la struttura dei gas, liquidi, solidi, le transizioni di fase e così via.

La necessità di spiegare nuovi fenomeni (per esempio l'effetto Hall quantistico) ha portato alla costruzione di teorie estremamente sofisticate.

Andando su scala sempre più grande, le forze gravitazionali, nella forma predetta dalla relatività generale, sono capaci di spiegare con una precisione quasi incredibile il moto di pianeti, stelle e galassie. Su scala ancora più grande le difficoltà sono essenzialmente di natura osservativa (non conosciamo bene la struttura dell'universo e la distribuzione delle galassie), ma non ci sono motivi fondati di supporre che le leggi della gravitazione falliscano a queste distanze.

 

La situazione cambia se andiamo su scale più piccole di 10-16 cm. o su scale molto più grandi delle galassie. Qui ci sono molte cose che non capiamo. Per quanto riguarda le piccole scale, non sappiamo se la lista delle particelle a noi note sia essenzialmente completa oppure se esistano nuove particelle relativamente leggere (di massa un centinaio di volte inferiore al protone) non ancora osservate. Infatti, lo schema teorico attuale non sembra essere completamente soddisfacente, se estrapolato a distanze molto più piccole di 10-16 cm. (per esempio a 10-19 cm.).

Una modificazione della teoria molto ragionevole (supersimmetria) porterebbe quasi a raddoppiare il numero di particelle esistenti, rispetto a quelle note. Sarebbe estremamente importante individuare l’esistenza delle particelle predette dalla supersimmetria e gli esperimenti, di gran lunga complessi, sono già in corso. Il quadro teorico delle leggi su piccola scala è completamente diverso, a seconda che l'ipotesi della supersimmetria sia o meno corretta; e solo gli esperimenti possono dirci quale delle due ipotesi sia corretta.

 

Su scala ancora più piccola (10-33 cm.), bisogna affrontare le problematiche connesse alla quantizzazione della gravità. Qui, la situazione è anche più difficile, in quanto non abbiamo la possibilità di fare esperimenti. L'unica speranza è che le informazioni già acquisite sulla struttura delle particelle osservate siano sufficienti per determinarne in maniera consistente la teoria anche per queste scale. Tale speranza trae origine, in parte, dall'estrema difficoltà esistente nel costruire teorie coerenti della gravità quantistica. Alcuni fisici sperano di ottenere un'equazione (o un insieme di equazioni), a partire dalla quale la struttura delle particelle osservate (quarks, leptoni e bosoni intermedi delle interazioni fondamentali), le loro masse e le loro proprietà saranno deducibili, in linea di principio e in accordo con l'esperimento: sia le leggi gravitazionali che le forze nucleari sarebbero descritte mediante una trattazione unica. Se questo obbiettivo verrà raggiunto (teorie di grande unificazione), si potrebbe in qualche modo pensare che la ricerca delle leggi fisiche fondamentali sia conclusa, non tanto perché le eventuali leggi proposte siano inconfutabilmente corrette, ma perché una loro possibile violazione sarebbe osservabile solo in regioni di energia non accessibili all'osservatore. Soltanto il futuro potrà dirci se saremo in grado di costruire questa formidabile sintesi teorica (che viene scherzosamente chiamata TOE, Theory Of Everything).

Se anche un simile progetto arrivasse a compimento e si trovassero le leggi che regolano il comportamento dei costituenti elementari della materia, non bisognerebbe comunque temere un'eventuale disoccupazione dei fisici. Infatti, al contrario di quanto si potrebbe pensare, la conoscenza delle leggi di base non implica affatto la comprensione dei fenomeni. Le leggi della fisica sono spesso formulate come equazioni, la cui risoluzione permette in linea di principio di calcolare il moto dei componenti del sistema fisico considerato. Per esempio, in astronomia, le leggi della gravitazione universale di Newton (l'accelerazione è proporzionale alla forza e la forza gravitazionale fra due oggetti è proporzionale all'inverso del quadrato della loro distanza) determinano le traiettorie delle stelle e dei pianeti. Queste leggi sono note da più di tre secoli. Da allora, generazioni e genera­zioni di astronomi si sono dedicate a cercare algoritmi tali da permettere di calcolare effettivamente le posizioni degli oggetti astronomici, partendo dalle suddette leggi.

Per capire bene la complessità di quest'impresa basta guardare una delle immagini degli anelli di Saturno, presa dal Voyager. Gli anelli non sono omogenei: se ne distinguono tre; ciascuno si divide in una miriade di anelli più piccoli, separati da spazi vuoti. Attualmente, sembra ragionevole pensare che questa complicata struttura sia determinata dagli effetti gravitazionali dei satelliti di Saturno sui minuscoli asteroidi (a volte di qualche decina di metri di diametro) che compongono gli anelli stessi. Dedurre la forma di queste suddivisioni dalle leggi di Newton è uno dei problemi aperti su cui gli astronomi stanno lavorando con accani­mento, pur procedendo a rilento.

 

Facciamo un altro esempio, stavolta in un campo differente della fisica. Al di là di ogni ragionevole dubbio è noto che su scala microscopica gli elettroni interagiscono respingendosi con una forza inversamente proporzionale al quadrato della distanza e che i loro movimenti sono regolati dalla meccanica quantistica. In questo indiscusso quadro concettuale, non è affatto evidente come e perché certi materiali diventino superconduttori a una temperatura relativamente elevata, ossia a soli 180 gradi sotto zero, e non vicino allo zero assoluto (-273 gradi). La cosiddetta superconduttività ad alta temperatura è stata scoperta solo di recente e, nonostante l'enorme massa di dati accumulati in questi ultimi anni, siamo ben lontani dal capirne le origini. Anche se conosciamo le leggi che regolano il comporta­mento di ciascun elettrone, ci sfuggono le cause dell'emergere di questo comportamento collettivo degli elettroni, che dà luogo alla supercondut­tività.

 

La vera difficoltà – ci teniamo a ribadirlo – non sta dunque nella formulazione delle leggi fondamentali, ma nello scoprire le conseguenze di queste leggi e nel costruire, su base puramente sperimentale o in conseguenza delle leggi basilari, leggi fenomenologiche del tipo: le molle si allungano proporzionalmente alla forza applicata. Questo processo è faticoso e non sempre è lineare: la metis greca gioca un ruolo molto più forte della sofia. In altri termini, un approccio deduttivo formale (amato dai matematici) nella maggior parte dei casi non porta a nulla; è molto più proficuo procedere per indizi e basandosi sull'intuizione (come il cacciatore), formulando ipotesi di lavoro, la cui verifica viene rimandata, ed effettuando varie semplificazioni. Alla fine, si ottiene una descrizione nitida del fenomeno: arrivati a questo stadio, si possono utilizzare gli usuali strumenti logici deduttivi per costruire la teoria.

Questo miscuglio d’intuizione e deduzione permette di fare delle predizioni sul comportamento dei sistemi fisici; predizioni il più delle volte verificabili. Si legge spesso che la teoria del Tal dei Tali è stata confermata sperimentalmente, ma la parola teoria si riferisce quasi sempre non alle leggi di base, ormai al di là di ogni dubbio, ma a questo procedimento, utilizzato per dedurre le leggi fenomenologiche.

Si tratta di un modus operandi che sussiste perlomeno dal dopoguerra, con la differenza che, mentre negli anni Cinquanta non avevamo un'idea precisa di quello che succedeva dentro al protone, ora sappiamo, o almeno crediamo di sapere, che un protone è composto da tre quarks, che interagiscono coi i gluoni, per quanto riguarda le interazioni forti, e con i bosoni W e Z, per quanto riguarda le interazioni deboli.

 

I cambiamenti più interessanti che avvengono in questi anni riguardano sia il tipo di leggi fenomenologiche che si cerca di ottenere, sia gli strumenti concettuali e concreti che si usano. Se la scienza, come dice Bucharin, è un'impresa pratica che ha come scopo il controllo (in senso lato) della natura, i modi del suo sviluppo e le tematiche affrontate dipenderanno necessariamente dai problemi che la società deve risolvere e dagli strumenti tecnici a disposizione.

 

Dunque, anche se a volte capita che qualche fisico si senta come Alessandro Magno, che piange di fronte al mare perché non ci sono più nuove terre da conquistare, questa non è la sensazione che vive la maggioranza della comunità scientifica. Difatti, la conoscenza delle leggi che operano fra i costi­tuenti elementari di un sistema non implica affatto la com­prensione del comportamento globale. Per esempio, non è facile dedurre dalle forze che agi­scono sulle mole­cole d'acqua la ragione per cui il ghiaccio è più leggero dell'acqua, che – al contrario della maggior parte delle sostanze – diventa più densa quando viene raffreddata.

 

La risposta a questo tipo di do­mande si può ottenere utilizzando la meccanica statistica. Questa disci­plina, nata a cavallo tra la fine del secolo scorso e l'inizio di questo secolo, con i lavori di Boltzmann e Gibbs, ha come compito di studiare il comportamento dei sistemi composti da molte particelle, non determinando la traiettoria delle singole parti­celle, ma utilizzando metodi probabilistici.

Forse il risultato più interessante della meccanica statistica con­siste nell'aver capito fino in fondo come sia possibile l'emergenza di comportamenti collettivi: mentre per po­chi atomi di acqua non siamo in grado di dire se essi formino un solido o un liquido e quale ne sia la temperatura di transizione, simili affermazioni assumono una natura ben precisa nel caso in cui consideriamo un gran nu­mero di atomi (più dettagliatamente, quando il numero degli atomi tende a infinito). Le transizioni di fase nascono quindi come effetto del comportamento collettivo di molti componenti. Negli ultimi decenni la meccanica statistica si è sbizzarrita a studiare le più varie transizioni di fase, in cui nascono diversi com­porta­menti collettivi.

Le capacità predittive della meccanica statistica sono enormemente aumentate, sia per effetto di analisi te­oriche sempre più raffinate, sia grazie all'uso del calcolatore elettronico, che si è dimostrato un valido supporto soprattutto nell’analisi di quei sistemi in cui le leggi vengono scelte in maniera casuale, ovvero i cosiddetti sistemi di­sor­dinati (di cui abbiamo già detto).

 

La fisica degli ultimi decenni – in particolare dagli anni Settanta – ha così allargato enormemente il suo campo d’azione, sia in ambito strettamente fisico, sia in ambito biologico, sociologico, economico, ecc. Si tratta anche di una ricerca «applicata» a sistemi fisici non tradizionali.

Per esempio: se prendiamo un foglio di carta e lo appallottoliamo, abbiamo a che fare con un fenomeno di ordine fisico, che peraltro non desta un eccessivo interesse. La regola vuole che il rapporto tra peso e volume in un oggetto, come una sfera di legno, si mantenga costante al variare del raggio della sfera. Ma se prendiamo una sfera ottenuta appallottolando della carta e usando fogli più grandi o più piccoli, quello che accade contravviene alla regola: più il foglio di carta di partenza è grande, più regioni vuote si formano e più il rapporto tra peso e volume diminuisce. In altre parole, il peso non è più proporzionale al volume.

Facciamo ora il caso di un foglio di alluminio, quadrato, del tipo che si usa in cucina. Tagliamolo in otto parti uguali, poi una di queste parti la dividiamo ancora in otto parti e, ancora, una parte di queste in altre otto parti. Poi facciamo una serie di sfere. Se la densità fosse costante, le sfere dovrebbero essere proporzionali. Ma se ho due sfere fatte con la stessa superficie e le metto una accanto all'altra, possiamo notare che insieme sono più grandi di una sfera costruita con un foglio di alluminio di superficie doppia.

Perché succede una cosa del genere? Il fatto è, come dicevo, che ci sono più buchi.

Nonostante il fenomeno sia stato studiato a fondo, non abbiamo ancora a disposizione una legge precisa, ovvero un fattore moltiplicatore.

 

Un altro fenomeno analogo, che è stato finora completamente trascurato, è il perché, se prendo uno scottex da cucina per asciugare del caffè, il liquido comincia a diffondersi sul panno per capillarità, in modo irregolare, con un profilo frastagliato. Perché non avanza in modo omogeneo? Lo stesso avviene nel caso di una sigaretta, mentre brucia: il fronte della fiamma non taglia di netto la sigaretta, bensì si forma una linea frastagliata.

Possiamo cogliere le ragioni di un simile evento in modo qualitativo, ma quali ne siano le proprietà quantitative non lo sappiamo. Sono stati effettuati numerosi studi, con condizioni fisiche opportune, controllando le correnti d'aria, provando con l’accensione elettrica e misurando il fronte della combustione e come si formano le frastagliature. Ebbene: se si vuole conoscere il perché del fenomeno, possiamo dire che è dovuto alle disomogeneità della carta, ma averne una descrizione quantitativa è molto più difficile. Occorrerebbe avere una teoria convincente e non solo qualitativa, bensì fondata su leggi matematiche precise, che descrivono il fenomeno in modo univoco. È dunque questo il genere di cose a cui si dedica oggi la fisica, a una serie di questioni prima trascurate.

 

Prendiamo un altro esempio. Un bambino raccoglie un pugno di sabbia e poi, lentamente, dal bordo inferiore della mano, lo fa cadere. Si noterà la formazione di un mucchietto, una sorta di vulcano, e di tante piccole valanghe di sabbia che dai fianchi della montagnola scendono verso il basso. È un fenomeno che ha acceso la curiosità degli scienziati solo una quindicina di anni fa; prima cose simili non venivano neanche prese in considerazione. Se invece si versa della cera semiliquida, l’effetto a valanga non si produce. Perché vi sia questa differenza tra un liquido e la sabbia lo possiamo capire qualitativamente, ma qual è la legge che regola tutto ciò resta ancora un mistero.

Così si è cominciato ad analizzare il livello semimicroscopico dei fenomeni. L’intenzione è quella di capire la natura dei problemi collettivi studiando l'interazione di singoli oggetti, particelle e reagenti. Talvolta queste interazioni non sono regolari: se i granelli di sabbia fossero delle sfere geometricamente precise, si registrerebbe un certo tipo di comportamento; il fatto che invece siano irregolari, eterogenei, ci costringe a capire quali siano i fenomeni che possono generarsi dall’interazione di tali oggetti. Una gran parte dei problemi della fisica, anche della fisica più tradizionale, risponde a questa necessità. Volendo studiare la resistenza di un metallo, sappiamo come quel metallo si comporterebbe se fosse un reticolo cristallino perfetto, ma nella realtà non esiste un metallo ideale, bensì un metallo con alcune impurità, con un reticolo non preciso, con atomi non ben allineati. In alcuni casi le imperfezioni vengono aggiunte appositamente, proprio per studiare il comportamento di tale metallo in funzione delle sue impurità. Ma possiamo anche andare oltre: prendiamo degli elettroni che urtano contro questo metallo; l’interazione con le impurità produce un effetto che si vorrebbe comprendere.

 

Il DNA è un ulteriore esempio convincente, poiché è costituito da una catena i cui componenti non sono distribuiti in modo regolare. Isoliamo un pezzo di DNA e cominciamo a srotolarlo: vedremo che ci sono dei legami che sono più deboli e altri, invece, che sono più forti. Pertanto la doppia elica comincerà ad aprirsi in alcuni punti, piuttosto che in altri. Analizzando ciò, possiamo comprendere quali forze sono in gioco.

Altrimenti possiamo cercare di aprire il DNA tirando le due eliche, partendo da un capo, in senso opposto. Anche in questo caso è interessante studiare quali forze ci contrastano; che ruolo hanno i disordini e le irregolarità nella determinazione della forza che tiene unite le parti.

 

Un altro problema che si è recentemente posto all’attenzione degli scienziati, e che a prima vista sembra essere molto lontano dalla fisica, è lo studio del comportamento dei mercati finanziari. Ciò che succederà domani in borsa non dipende da una sola persona, ma dal comportamento di molte migliaia di persone, ognuna delle quali ha una conoscenza solo parziale di quello che accade. Non si possiede una razionalità tale da scegliere sempre la soluzione migliore, quindi non ci troviamo dinanzi a dei tipi ideali. Tutto quello che si verifica nel mondo è estremamente lontano da una situazione ideale, perché sono in ballo molti punti di vista diversi e a volta contrastanti; vengono messe in gioco opinioni differenti. Se si vuol capire cosa potrà accadere in borsa, occorre costruire un modello, in cui i singoli attori abbiano una razionalità limitata e strategie disuguali; dalle interazioni fra questi agenti nasce proprio il comportamento della borsa. Alla domanda se è possibile prevedere quale comportamento ci farà guadagnare di più dobbiamo rispondere che, dagli studi fatti, risulta evidente come non si possano fare delle predizioni inconfutabili. Se tutti conoscessimo in anticipo quel che accadrà domani, faremmo tutti la stessa cosa e il sistema si chiuderebbe. In borsa, ci sono dei periodi in cui gli scambi sono più attivi e altri in cui lo sono meno, ma questo movimento non dipende dalla lunghezza del tempo e non è ridondante. Per noi scienziati è un po’ una sfida cercare di costruire delle leggi empiriche che riescano a descrivere comportamenti irregolari. Non si tratta di predire cosa succederà in borsa, ma di cercare talune proprietà statiche ricostruibili, in modo da avere qualche tipo di predizione.

 

Analogamente accade nelle dinamiche che riguardano le popolazioni, l’evoluzione, le reti, come Internet, che presuppone una moltitudine di calcolatori collegati, poiché ogni pagina contiene dei link ad altre pagine e viceversa. Si stima che la rete contenga almeno tre miliardi di nodi, alcuni dei quali molto attivi – ovvero ricevono molti contatti – e altri invece poco attivi. Porsi il problema delle proprietà statistiche di una simile distribuzione significa andare a cercare quali sono le leggi che regolano il sistema. I link nascono dall’attività spontanea delle persone. Sappiamo già che le pagine con molti link sono più facili da raggiungere di quelle che ne hanno uno solo. L’intenzione è quella di capire come si sono costituite queste reti dinamiche, a partire dall’attività spontanea di persone che avevano una conoscenza limitata del sistema totale.

La stessa cosa si può dire per le società di capitali: ci sono delle società che ne controllano altre e quindi formano una rete. Poi ci sono le reti alimentari: la connessione tra animali che mangiano altri animali e animali che ne mangiano solo un tipo. Fino ad arrivare ai geni e alle proteine, che interagiscono tra loro.

La questione dell’analisi delle reti è, attualmente, a un livello soltanto descrittivo. La teoria è un'altra cosa: è più difficile avere dati precisi.

 

Sempre nell’ambito dell’interazione tra fisica e altre discipline, nuovo slancio è stato dato allo studio delle connessioni neuronali del cervello. Così come non è evidente il legame che unisce il singolo granello di sabbia alle sue piccole valanghe, altrettanto non è evidente come un singolo neurone, con certe capacità di risposta, possa collegarsi ad altri neuroni, al fine di ottenere un dato tipo di attività globale. È facile comprendere come una simile ricerca possa rivelarsi utile per la comprensione della memoria. A partire dagli anni Ottanta, sono stati costruiti alcuni modelli interessanti sul funzionamento della memoria, ma quando si deve passare all'analisi di funzionalità che coinvolgono l’interazione di più moduli – come ad esempio il riconoscimento della forma degli oggetti, che coinvolge la corteccia cerebrale – la cosa diventa molto più difficile. La visione, per esempio, comporta l’interazione di moltissimi livelli cerebrali.

Per il momento si tratta di ricerca pura. Le applicazioni arriveranno dopo.

 

Mi viene in mente una vecchia barzelletta. Un ubriaco, di notte, si mette a cercare una chiave sotto al lampione. Arriva un tale che lo aiuta, ma non trovando nulla, gli chiede se è sicuro che è proprio quello il posto dove ha perso la chiave. L’ubriaco risponde che in verità l'ha smarrita dall'altro lato della strada, ma è qui che c'è la luce.

Questo per dire che gli scienziati fanno le cose che sanno fare.

Quando si accorgono che dispongono dei mezzi per studiare qualcosa che fino a quel momento era stato trascurato, allora vi s’impegnano. Cosa ne verrà fuori si vedrà dopo. Per poter affrontare un problema occorre avere una linea d’attacco, uno strumento adatto allo scopo, un punto di partenza. Il fisico tende a impegnarsi sui fenomeni reali, ai quali tenta di dare una spiegazione. Si tratta di una sfida: vogliamo migliorare la capacità di conoscere e controllare i fenomeni della natura.

Un problema, al quale si possano applicare teorie in corso di verifica, diventa immediatamente interessante ai fini della ricerca. Ogni aspetto che viene risolto può aiutare a comprenderne altri. Si creano così dei collegamenti.

 

Attualmente i mezzi granulari rappresentano un campo di ricerca aperto a progressive scoperte. Se mischiamo sabbia e polenta, otterremo granelli con proprietà diverse. Se cominciamo a scuoterli, noteremo una separazione tra le parti componenti. Il fenomeno è stato persino al centro di una disputa giudiziaria, in Italia. Una ditta che forniva e lavorava grano duro si è infatti trovata a dover ricorrere alla fisica per dimostrare la propria buona fede. Quando si lavora il grano, bisogna separare il tipo tenero da quello duro, utilizzato per fare la pasta. A livello commerciale, è ammesso solo un 5% di grano tenero in quello duro, perché fino a questa percentuale le proprietà della pasta non cambiano. Ora, a un controllo della Guardia di Finanza, è risultato che il grano raccolto da uno dei silos di questa ditta conteneva il 10% di grano tenero. L'avvocato difensore pensò di ricorrere proprio all’evidenza fisica, secondo cui due elementi disomogenei se agitati tendono a separarsi. Era evidente che il campione era stato prelevato da una zona ad alta concentrazione di grano tenero! I finanzieri non avrebbero dovuto affidarsi a un singolo campione, preso da un unico punto.

Al di là dell’espediente legale, questo fenomeno merita un’attenta osservazione, soprattutto durante la miscelazione delle polveri nell’industria farmaceutica, poiché alcune compresse potrebbero avere una concentrazione più alta di un componente rispetto a un altro.

 

Collegare la fisica alla psicologia e alle scienze sociali è più difficile. La fisica è strettamente ancorata alla matematica e, di conseguenza, a eventi che sono esprimibili in forma matematica, ossia quantificabili. In ambito psicologico questa connessione con la matematica diventa molto più complessa, perché i fenomeni osservati sono meno quantificabili.

Anche taluni problemi biologici sono poco quantificabili. I biologi, spesso, mancano di precisione nella presentazione delle ricerche che conducono. Se poi ci si allontana dalla biologia e si va verso le scienze sociali o la psicologia, le difficoltà crescono ancora. In psicologia la comprensione è di tipo qualitativo, come anche nelle scienze sociali. Gli esperimenti non sono quasi mai ripetibili. Per il fisico, invece, gli esperimenti devono essere ripetibili; fatta eccezione per quelle situazioni, come la sabbia che cade in piccole valanghe, che richiedono l’applicazione di proprietà statistiche.

Per la psicologia la cosa interessante è il singolo individuo, mentre capire cosa succede a una popolazione di un milione di individui è estremamente più difficile. Ci troviamo dinanzi a un livello di complessità enorme, con un numero smisurato di variabili.

Ci si può tuttavia occupare della distribuzione della ricchezza; analisi già affrontata un secolo fa da Pareto. E in un secolo le considerazioni base non sono cambiate: stando al metodo statistico, chi è ricco tende ad arricchirsi sempre di più. Siamo tuttavia in presenza di teorie semiquantitative, che non basterebbero comunque ad affrontare problemi più complessi.

 

 

Fisica e biologia: i nuovi orizzonti della ricerca scientifica

 

Le affinità elettive tra biologia e fisica non sono certo una novità. I rapporti tra queste due discipline sono stati sovente molto intesi e a volte non facili. Si tratta di un territorio di confine al quale, nel dopoguerra, s’interessò persino Schrödinger, con il suo libro Che cos'è la vita. La biologia in verità ha suggestionato un gran numero di fisici, da Max Delbrück e Salvatore Luria – premiati con il Nobel per le loro ricerche sulle mutazioni – ad Arthur Gamow e Crick, che insieme a Watson ha scoperto la struttura del DNA. Tuttavia questi studiosi, una volta adottata la biologia come nuovo campo di ricerca, prendevano a lavorare con lo stesso metodo degli altri biologi e sfrutta­vano in ma­niera piuttosto ridotta la loro formazione fisica. Esiste una disciplina, la biofisica, che potrebbe veramente unire lo stile della fisica a quello della biologia, ma spesso, anche in questo caso, la prima viene utilizzata come mero strumento al servizio della seconda. Una situazione analoga si ri­scontra anche nella biochimica: sebbene chimica e fisica lavorino alla stessa maniera, ossia cercando le spiega­zioni di quanto avviene al gradino più basso (molecole e forze) del vivente, tali spiegazioni vengono però uti­lizzate sempre e comunque in un quadro dominato dai con­cetti della biologia. Soltanto negli ultimi tempi si è sviluppato un tentativo concreto di sfruttare gli sviluppi della fisica teorica per studiare alcuni dei problemi fon­damen­tali della biologia.

 

Credo che alla base di questo interesse, nei riguardi del mondo biologico, vi sia il bisogno di applicare le teorie della fisica a quanti più fenomeni possibili. Ma c'è anche il desiderio di avere un controllo della natura su più vasta scala, perché il fisico è abituato a lavorare sulla scala ridotta del nucleo atomico. La scoperta del fatto che esistono delle strutture, in meccanica statistica, che sono presenti anche nel campo evolutivo, è stata d’impulso per cercare di capire se tali relazioni siano completamente casuali o se invece sussista un legame più profondo, dei collegamenti inaspettati.

 

La biologia si trova oggi di fronte a problemi complessi, probabilmente in ragione dell’enorme accelerazione che ha avuto la ricerca negli ultimi anni. Lo sviluppo della biologia molecolare e dell'ingegneria genetica ci consentono una com­prensione estremamente dettagliata dei meccanismi biochimici di base. In molti casi, sappiamo quali sono le molecole sulla mem­brana cellulare che ricevono un messaggio (costituito da un trasmettitore chi­mico), spedito da altre cellule; sappiamo anche come questo messaggio venga trasmesso al nucleo cellulare me­diante l'attivazione di una serie di reazioni chimiche; spesso sappiamo altresì identificare i geni responsabili di un de­terminato ca­rattere o che controllano la crescita di un organismo o lo sviluppo degli arti. Recentemente è stato lan­ciato il progetto genoma umano, che con­siste nel determinare la sequenza del DNA umano: si tratta di un progetto colossale, del costo di miliardi di euro, da condurre su un arco di dieci anni.

 

Le difficoltà nell'utilizzare a pieno questi risultati sono dovute alla differenza enorme che esiste fra la conoscenza delle reazioni biochimiche di base e la compren­sione del comportamento globale di un essere vivente. Consideriamo ad esempio una delle forme viventi più semplici: l'Escherichia Coli, un piccolo batterio con una lun­ghezza di poco supe­riore al millesimo di millimetro, presente in grandi quantità nell’intestino umano. L'Escherichia Coli contiene circa tremila tipi di proteine diverse, le quali interagiscono tra loro: mentre alcune proteine svolgono ruoli essenziali per il meta­bolismo della cellula, altre rego­lano la produzione delle prime, svolgendo un'attività inibitrice della loro sintesi (soppressori) o promuovendone la sintesi (operoni). La sintesi delle proteine del tipo operone o sop­pressore è a sua volta controllata da altre proteine. È quasi certo che nei prossimi anni sarà disponibile la lista completa delle proteine dell'Escherichia Coli. Forse è anche possibile che con uno sforzo colossale si arrivi a identificare le funzioni di ciascuna di queste proteine e i meccanismi che controllano la loro sintesi. Se ci spingiamo avanti di qualche anno (o di qualche decennio) possiamo sperare di ottenere un gigantesco programma di calcolo che simuli con successo il comportamento di una vera cellula di Escherichia Coli, tenendo conto della quantità totale e della distribuzione spaziale di ciascuna specie chi­mica.

Tuttavia non è detto che questo tipo di conoscenza sia sufficiente per capire ve­ramente come fun­ziona un essere vi­vente. Potremmo capire con grande pazienza i vari cicli di retroazione, ma non sembra possibile afferrare per questa strada i motivi pro­fondi per cui il sistema si comporta globalmente come un essere vivente. In altri ter­mini, anche se riusciamo a modellizzare un sistema vivente unicellulare, mediante equazioni differenziali in N variabili (il valore di N rilevante per una singola cellula non è evidente; esso sembra es­sere compreso tra 104, ossia il numero di specie chimi­che differenti, e 1012, ovvero il numero di atomi), abbiamo comunque il problema di dover dedurre le caratte­ristiche globali del comportamento del sistema con tecniche più sofisticate delle simula­zioni numeriche pure e semplici. Siamo di fronte allo stesso problema, dunque, della meccanica stati­stica, dove la conoscenza delle leggi del moto non implica direttamente la compren­sione dei comporta­menti collettivi. Si può quindi pensare che una volta che le tecniche della biologia molecolare saranno arri­vate a un livello di conoscenza sufficientemente dettagliato dei fenomeni molecolari, la comprensione del comportamento collettivo (e quindi dell'emergere della vita) dovrà essere ottenuta mediante tecniche simili a quelle della meccanica statistica.

 

La stessa problematica si ripresenta a un livello più elevato nello studio del cer­vello dei vertebrati: forse potremo sapere in un prossimo futuro quasi tutti i dettagli funzionali del comportamento dei sin­goli neuroni, ma questa informazione da sola non ci permetterà di capire come mai alcuni miliardi di questi neuroni, collegandosi fra loro, in maniera più o meno disordinata, for­mino un cervello in grado di pensare.

Un simile discorso potrebbe essere fatto per un grandissimo numero di sistemi biologici, per esempio nello studio della sintesi delle proteine, nell'ontogenesi, nell'evoluzione natu­rale, nell'equilibrio ormonale dei mammiferi e così via. Tutti questi si­stemi hanno la caratteristica di essere composti da un gran numero di elementi di tipo diverso, che interagiscono fra loro secondo leggi più o meno complicate: basta pen­sare a tutti gli effetti che un ormone può avere sulla produzione di altri or­moni. Inoltre, in questi sistemi c’è un gran numero di circuiti di controre­azione, che stabilizzano il comportamento collettivo (la produzione di un dato ormone non può crescere a dismi­sura, in quanto è bloccata da meccanismi omeostatici). In simili casi, il punto di vista riduzionista tradizionale sembrerebbe non portare da nessuna parte: per esempio, il nu­mero di ormoni è così elevato che non è pos­sibile determi­nare fino in fondo le intera­zioni di ciascun ormone con tutti gli altri e non è quindi possibile fare un mo­dello preciso del sistema. Lo stesso dicasi per un punto di vista globale: il sistema ormonale si comporta in maniera differente da una cellula (la seconda si divide in due, il primo no) e la diversità nella natura dei costituenti è cru­ciale per determinare la differenza di comportamento globale.

 

In altri termini il problema che la biologia deve affrontare è come passare dalla conoscenza del com­portamento dei costituenti di base (a seconda dei casi: proteine, neu­roni...) alla deduzione del compor­ta­mento globale del sistema.

In questi anni si as­siste quindi al tentativo di adattare ai sistemi biologici le stesse tecniche che erano state sviluppate per lo studio di quei sistemi fisici composti da un gran numero di componenti di natura diversa, con leggi scelte in maniera casuale. L’intento è quello di usare le teorie sul compor­tamento complesso dei si­stemi disordinati per studiare la complessità in biologia.

 

Normalmente, la proposta di considerare le leggi che regolano l'interazione tra le varie componenti rende il biologo estremamente nervoso: la sua prima reazione è di equiparare tutto il programma fin qui esposto a una grande sciocchezza, proposta da persone che non hanno un'idea precisa di che cosa sia la biologia. L'obiezione principale nasce dal fatto che i sistemi biologici attuali sono il frutto di una selezione naturale durata miliardi di anni e quindi i componenti di un essere vivente sono stati accuratamente sele­zionati af­finché esso funzioni. Non è affatto chiaro se i metodi probabilistici della mec­canica statistica (nel senso che le leggi del moto sono scelte casualmente) si possano ap­plicare con successo agli esseri viventi, in quanto componenti selezionati in base a uno scopo non possono essere scelti a caso.

L'obiezione è meno forte di quello che può sembrare a prima vista, in quanto dire che qualcosa è scelto casualmente non vuol dire che sia scelto in maniera completamente casuale, ma in base a delle leggi in cui c'è sia una parte deterministica, che una parte ca­suale. Il vero problema consiste nel capire se la presenza di una parte casuale nella struttura di un essere vivente sia determinante per il suo buon comportamento.

Molto dipende da quale sia la struttura profonda di un essere vivente e su questo punto c'è un forte scontro fra tesi opposte. Spesso la cellula viene immaginata come un grande calcolatore: il DNA contiene il programma (software) e le proteine sono l'equivalente dei circuiti elettronici (hardware). Se questa metafora non fosse fuor­viante, l'uso della meccanica statistica non avrebbe senso in biologia, come non avrebbe senso usarla per lo studio di un vero calcola­tore. Infatti, un calcolatore è stato costruito seguendo un progetto e i collegamenti non sono stati fatti a caso, ma secondo uno schema ben pre­sente nella testa degli ingegneri elettronici responsabili della progettazione. Un sistema vivente non è fatto in maniera completa­mente casuale, ma non è nemmeno stato proget­tato a ta­volino; gli esseri viventi si sono evoluti mediante un processo di mutazione ca­suale e di successiva sele­zione.

L'esistenza di questi due aspetti è cruciale nello studio della dinamica delle pro­teine. Da un lato è evidente che le proteine hanno uno scopo ben definito e sembrano es­sere progettate per raggiungerlo. Dall'altro le proteine sono state inizialmente generate in maniera casuale ed è possibile che alcune delle proprietà fisiche delle proteine (specialmente quelle che non sono state controselezionate) riflettano ancora adesso le proprietà di una catena polipeptidica con elementi scelti a caso lungo la catena.

Questo connubio di determinismo e casualità lo ritroviamo nello sviluppo del singolo in­dividuo. Per esempio, i cervelli di due fratelli gemelli sembrano as­solutamente identici, se non sono osser­vati al microscopio; nel qual caso si evincerebbe che le posizioni e i collegamenti dei singoli neuroni sono completamente differenti. Infatti, i singoli neuroni vengono creati in una parte della scatola cranica, migrano successiva­mente alla loro destinazione finale ed emettono delle fibre nervose che tendono ad attac­carsi al primo bersaglio raggiunto. In assenza di segnali specifici sulle singole cellule, un tale processo è necessa­riamente instabile e quindi una minima perturbazione porta il si­stema a dei risultati completamente differenti.

Anche in questo caso, la metafora del calcolatore sembra es­sere insufficiente, in quanto la descrizione del dettaglio fine (la disposizione e la connessione dei singoli componenti) non è contenuta nel progetto iniziale. D'altronde il numero di bit di informazione necessari per codificare i collegamenti di un cervello di mammifero è dell'ordine di 1014, ovvero molto superiore ai 109 bit di informazione contenuti nel DNA.

La disposizione dei neuroni e dei loro collegamenti nel cervello è un ottimo esem­pio di sistema di­sordinato, in cui esiste sia una componente deterministica, genetica­mente controllata (tutto ciò che è uguale nel cervello dei due gemelli, ovvero la forma esterna, il peso, forse gli equilibri ormonali...) e una com­ponente casuale che varia da gemello a gemello. Il nostro atteggiamento sulla metodologia da seguire per arrivare a una comprensione del comportamento del cervello cambia completamente a seconda se conside­riamo la parte variabile (e quindi casuale) come un accidente inessenziale e non funzionale o se, al contrario, pensiamo proprio che alcune caratteristiche della parte variabile siano cruciali per un buon fun­zionamento.

 

La necessità di usare le tecniche della meccanica statistica dei sistemi disordinati nasce anche dal fatto che i sistemi biologi sono in forte interazione col mondo esterno e questa interazione spesso ha sia una componente deterministica, che una casuale. Per esempio, le facce delle varie persone che abbiamo incon­trato, e di cui ci ricordiamo, hanno una componente costante (in quanto facce) e una componente variabile (e quindi casuale), che costituisce la caratteristica di ciascun individuo. Non a caso i maggiori successi della biologia, nell'uso delle tecniche statistiche dei sistemi disordinati, nascono dallo studio delle reti neuronali e della loro capacità di funzionare come memorie, ovvero di memorizzare e successivamente riconoscere alcuni tipi di input. La casualità degli eventi da memorizzare si riflette in un accrescimento casuale delle sinapsi fra i vari neuroni e quindi in una struttura sinaptica disordinata. In questo campo sono stati costruiti vari modelli di me­morie associative, la cui dinamica è ben compresa dal punto di vista teorico e si è arri­vati a un livello di analisi tale da poter cominciare a paragonare le predi­zioni della te­oria (che si è fatta via via sempre più realistica) con i dati sperimentali provenienti dalle registrazioni delle attività dei singoli neuroni.

 

Il tentativo d'incontro fra fisica e biologia che abbiamo fin qui descritto comporta un cambiamento di ottica sia per il fisico che per il biologo. Per sua formazione il fisico teorico tende più a curarsi dei principi generali (per esempio, cerca di capire come un si­stema, che assomiglia solo molto vagamente a un'Escherichia Coli, si possa conside­rare vivente), men­tre il biologo rimane attaccato all'esistente (vuole capire la vera Escherichia Coli, non un sistema ipote­tico non realizzato e non realizzabile in natura).

La fisica ha una fortissima tradizione semplificatrice e tende a concentrarsi su al­cuni aspetti trascu­randone altri, anch'essi essenziali. Difatti la fisica moderna nasce con Galileo, che fonda la meccanica tra­scurando l'attrito, nonostante questo sia cruciale nell'esperienza di tutti i giorni (provate a immagi­narvi come sarebbe un mondo privo di attrito!). L'oggetto non soggetto a forze che si muove di moto rettilineo uniforme (come nella prima legge di Newton) è una pura astrazione e (escludendo le palle da bi­liardo) non si è mai visto sulla faccia della terra niente che si comporti in un modo simile.

La fisica nasce dunque con una rinuncia a priori a comprendere globalmente il reale e con la proposta di studiare sola­mente un piccolo angolo della natura. I fisici erano ben consapevoli di studiare un mondo idealizzato, semplificato. Nicolò Tartaglia, all'inizio di un suo trattato, scrive: «Qui studieremo il moto di quelli oggetti soggetti alla forza di gravità, trascurando l'attrito; e se le vere palle di cannone non seguono queste leggi, loro danno: vorrà dire che non parleremo di esse».

Questo passo indietro, questo rifiuto a comprendere il reale nella sua interezza, ha permesso alla fisica di conquistare un terreno sicuro, una base stabile sulla quale poi effettuare tutte la costruzioni successive.

Lo stesso passo indietro venne effettuato quando furono introdotte le tec­niche della meccanica statistica nello studio delle reti neuronali. Le tecniche fisico-matematiche allora disponibili permettevano di studiare solamente si­stemi in cui l'interazione fosse simmetrica, ovvero l'influenza del neurone A sul neu­rone B era uguale a quella di B su A. In questo caso, come abbiamo visto, il sistema si comporta molto semplicemente e non sono possibili né oscillazioni, né comportamenti caotici. Ovviamente quest'ipotesi di simmetria è completamente falsa dal punto di vista fisiologico. Tuttavia la sua introduzione ha permesso di portare il problema in una forma che poteva essere studiata in dettaglio; solo successivamente, utilizzando i progressi compiuti, è stato possibile rimuovere l'ipotesi aggiuntiva di simmetria e costruire dei modelli di reti neuronali relativamente realistici.

 

La tendenza del fisico a semplificare si scontra con la tradizione biologica di studiare il vivente così com’è, come viene osservato in laboratorio, non come pensiamo che potrebbe essere o dovrebbe es­sere. In mancanza di dati certi di esobiologia, abbiamo solo questa terra a disposizione e quindi quello che potrebbe essere l’obiettivo di un fisico – identificare i caratteri costanti in tutte le possibili forme viventi – risulta vano agli occhi di un biologo, che conosce solo i pochi regni esistenti sulla terra. La fisica è una scienza assiomatica (con assiomi selezionati dagli esperimenti), in cui tutte le leggi sono deducibili, sia pur faticosamente, da pochi principi primi, mentre la biologia è una scienza storica, in cui si studiano i prodotti della storia su questo pianeta.

Ambedue le diverse concezioni della scienza rendono la collaborazione tra fisica e biologia problematica, ma non impossibile.

Il nuovo modo di utilizzare la fisica in campo biologico, che abbiamo appena descritto, sta faticosamente comin­ciando a fare i primi passi e ci vorranno molti anni prima di capire se avrà successo. I progressi sono molto lenti, anche perché la maggior parte dei problemi, anche dopo es­sere stati formulati in termini matematicamente precisi, sono tecnicamente molto complessi.

 Sono convinto che l'introduzione di tecniche pro­ba­bilistiche nello studio della ma­teria vivente sarà cruciale nel prossimo futuro, soprattutto per quei sistemi in cui l'esistenza di una com­ponente casuale è essenziale. La vera incognita è se questo feno­meno sarà localizzato solamente in qualche campo più o meno importante o se invece le tecniche fisiche matematiche basate sullo studio dei sistemi di­sordinati diventeranno il quadro concettuale di riferimento per la comprensione della dinamica degli esseri vi­venti, specialmente a livello sistemico.

 

 

L'evoluzione delle tecniche sperimentali

 

Le tecniche sperimentali sono probabilmente il settore della fisica che più ha risentito dei cambiamenti dell'organizzazione della scienza e del mutato rapporto tra fisica e tecnologia. All'inizio del secolo gli esperimenti erano effettuati da gruppi molto piccoli di persone (al massimo due o tre) e una gran parte dell'apparecchiatura, anche molto sofisticata, era costruita dentro l'università. L'officina meccanica era estremamente attiva e, sotto la guida di artigiani di valore, era in grado di soddisfare la maggior parte delle necessità dei gruppi di ricerca. In molte università i fisici imparavano anche a usare il tornio e la fresa, strumenti il cui studio è ormai negletto.

Attualmente la situazione è cambiata sotto molti punti di vista. La nascita della meccanica quantistica ha dato agli scienziati la possibilità di comprendere la struttura di molti materiali, alcuni estremamente rilevanti sul piano applicativo, il cui comportamento era incomprensibile dal punto di vista classico (per esempio i semiconduttori). Nasce così un campo estremamente importante, la fisica applicata allo studio delle proprietà dei materiali, e nel primo dopoguerra si ottiene un successo spettacolare: il transistor viene prima progettato e successivamente realizzato nei laboratori della Bell. Dato che il transistor è costruito in maniera molto peculiare (due materiali separati da uno strato molto sottile, costituito da un terzo materiale), è difficile pensare di poterlo scoprire per caso, in assenza di un esperimento mirato. Anche il passaggio dai primi transistor (ben visibili a occhio nudo) ai transistor attuali dei circuiti elettronici a grandissima integrazione (VLSI), di dimensioni a volte inferiori al micron, ha richiesto un enorme sforzo teorico e sperimentale, nel campo della scienza dei materiali e della fisica applicata. Le moderne macchine fotocopiatrici sono anch'esse il frutto dei progressi effettuati nella fisica delle superfici.

Le novità tecnologiche del dopoguerra non sarebbero state possibili senza il contributo della fisica contemporanea. Reciprocamente lo sviluppo della tecnologia permette un'enorme affinamento delle misurazioni fisiche. Il progresso dell'elettronica ha rivoluzionato le tecniche sperimentali sia rendendo possibile la costruzione di strumenti ad altissima precisione e a basso costo, sia permettendo la raccolta e l'analisi automatica dei dati, controllate da un calcolatore.

 

La storia dello sviluppo della tecnologia è fatta di sinergismi: i progressi effettuati in un primo campo permettono cruciali passi avanti in un secondo campo. Una vicenda simile si registra nel caso del Laser, la cui scoperta ha facilitato la costruzione di strumenti di misura molto sofisticati.

Come conseguenza degli enormi progressi fatti dalla tecnologia, non è più possibile costruirsi in laboratorio buona parte degli strumenti necessari per effettuare le misure. Anche quando è possibile farlo, è molto più comodo comprarli da industrie specializzate; solamente la parte più delicata di un apparato sperimentale, non disponibile commercialmente, viene costruita nelle università.

Molto spesso per effettuare determinate esperienze sono necessarie attrezzature estremamente ingombranti e costose, che con difficoltà possono essere gestite da un solo gruppo sperimentale. In questi casi, vengono costruiti, in appositi centri, laboratori attrezzati in cui possono lavorare fisici di varie università: per esempio, i reattori nucleari sono usati per produrre i fasci di neutroni necessari allo studio delle proprietà dei solidi; o per gli anelli di accumulazione di elettroni, che emettono una grande quantità di radiazione di sincrotone e sono di gran lunga la miglior sorgente di raggi ultravioletti e raggi X soffici, strumento indispensabile per lo studio delle proprietà delle superfici dei materiali.

Nella fisica delle alte energie questa tendenza è fortemente accentuata ed esistono alcuni centri internazionali a cui aderiscono fisici di vari paesi. Tale concentrazione delle attività è provocata dell'altissimo costo delle apparecchiature di base; un acceleratore di particelle (per esempio un anello di accumulazione di protoni di 10-20 TeV di energia) costa qualche miliardo di euro. L’apparato sperimentale necessario a rilevare le particelle emesse durante le collisioni può costare centinaia di milioni di euro, giacché è il frutto del lavoro di centinaia di fisici che, per vari anni, si occupano ognuno di un singolo aspetto (elettronica, meccanica, analisi dei dati, ecc.).

La costruzione di questi giganteschi acceleratori è stata assolutamente necessaria per ottenere i dati sperimentali sulla cui base sono stati proposti e successivamente confermati gli attuali modelli per le interazioni forti ed elettrodeboli. L'esistenza di oggetti puntiformi dentro il protone (i quark, che sono fra gli elementi di base della cromodinamica) è stata suggerita ai fisici da accurati esperimenti di urto elettrone-protone ad altissima energia; e la scoperta dei bosoni intermedi nelle interazioni deboli è stata cruciale per dimostrare la definitiva correttezza del modello di Glashow, Weinberg e Salam, per le interazioni elettrodeboli.

 

 

Il formalismo scientifico

 

L’ideale per uno scienziato – anche se pochi sono disposti ad ammetterlo – è realizzare una teoria «bella». La teoria ristretta e quella generale della relatività, per esempio, sono le teorie più «belle» che siano mai state fatte, perché da un numero estremamente piccolo di ipotesi si ottiene un numero enorme di risultati.

Per me l’elemento più importante è l'esistenza di un certo formalismo, un linguaggio, uno schema di ragionamento, all’interno del quale si possano trasferire i fatti teorici. Il formalismo ha quasi una sua vita propria: ci si può affidare al formalismo e farsi guidare. In qualche modo serve a estrarre gli elementi essenziali di un problema e a inquadrarli in un certo modo. È come lavorare sulla forma prima ancora che sul contenuto: solo alla fine, a risultato ottenuto, ci si chiede cosa significhi quel dato risultato. Qualcosa di analogo è successo con la meccanica quantistica: Schrödinger aveva tracciato la sua equazione, basandosi su analogie formali, e soltanto successivamente la funzione d'onda è stata riletta come ampiezza di probabilità. È chiaro che sarebbe stato estremamente difficile porsi a priori il problema dell'ampiezza di probabilità e di quale equazione utilizzare per trovarvi una soluzione. Heisenberg e Dirac dicevano: «Gli oggetti fisici p e q invece di essere numeri sono matrici, operatori, che soddisfano certe regole di commutazione». Una volta detto ciò, si sono chiesti cosa significasse e qui nasce il problema dell'interpretazione.

Lo stesso vale per l'equazione di Dirac: «Voglio che le equazioni siano del primo ordine e non del secondo ordine». Non c'era nessun motivo per volere proprio equazioni di primo ordine, perché anche quelle del secondo sono consistenti, ma Dirac era convinto in qualche modo che, per essere consistenti, le equazioni dovevano essere del primo ordine. L'antefatto dunque era sbagliato, eppure ha costruito equazioni del primo ordine e ha scoperto che contenevano automaticamente lo spin.

A parer mio il formalismo è essenziale, non tanto perché genera delle «belle» teorie, ma perché ci consente di costruirne, alleggerendo i concetti sui quali si sta lavorando. I legami che l’oggetto di una ricerca ha con il mondo esterno contribuiscono a renderlo pesante e complicato da manovrare. Il formalismo, viceversa, ci permette di portare gli oggetti a un livello di astrazione matematica che rende agevole la ricerca.

Tanto per fare un esempio, prendiamo la meccanica quantistica: X sta a indicare la posizione, nel mondo reale, di ciò che stiamo misurando. C’è poi un apparato di misura e una persona che misura, un oggetto esterno che viene osservato e, al limite, c'è anche la coscienza di colui che lo osserva. Invece di portarci dietro questo concetto di posizione, e tutti i suoi legami con il reale, lo sostituisco con una matrice, un operatore, che entra come oggetto astratto nelle equazioni di moto. A procedura ultimata, bisognerà agganciare nuovamente al mondo reale la X, ritrasformandola da operatore a entità numerica di posizione. Lavorare in questo modo tende automaticamente a generare delle teorie eleganti. In fondo, alla fine, tutte le teorie che abbiamo sono eleganti, fatta eccezione per la fisica nucleare o certe formule chimiche.


 

Torna alla pagina principale