FISICA/MENTE

 

 

"Lettera Internazionale" Vol.61, terzo trimestre, 1999.

Il computer, macchina dei sogni della Fisica Teorica

Giovanni Ciccotti(*)

Professore Ordinario di Struttura della Materia.

Dipartimento di Fisica, Università degli Studi La Sapienza di Roma.

 

 

1.- Lo scopo della Fisica Teorica.

La scienza moderna è nata, almeno in linea di principio, il giorno in cui l’umanità ha deciso di liberarsi dell’idea aristotelica dei limiti che l’esser secondo natura imporrebbe al nostro operare. Per esempio è ben noto agli storici della scienza l’argomento di Aristotele per escludere la possibilità di macchine automatiche (“automi”, appunto): se tali macchine esistessero non ci sarebbe più bisogno della schiavitù, ma la schiavitù è per natura e quindi gli automi non possono esistere. L’idea metodologica che una cosa non necessaria, anzi, addirittura contraddittoria con un’altra cosa, non possa esistere è interessante e, in altri contesti, anche utile. Qui, però, serve a definire delle impossibilità di principio false e nefaste per lo sviluppo umano. Il primo e più lucido vate della scienza moderna è Francesco Bacone che, pur non avendo contribuito alcunché di duraturo al sapere moderno, ha intuito con grande chiarezza ciò che la scienza poteva fare per l’umanità (renderli padroni della natura) e a che condizione: sottomettendosi alle sue “leggi”. La questione diventa ovviamente un po’ più ingarbugliata se tentiamo di definire che cosa sarebbero queste leggi, come si faccia a scoprirle/inventarle e quali ne sono i limiti di validità. Qui Bacone diventa totalmente inutile ma qualche buona idea la possiamo ricavare da Galileo e, più in generale, dal concetto di scienza della natura formalizzata o, se si preferisce, matematizzata. Contrariamente ad un’opinione molto diffusa, anche fra i fisici, l’originalità di Galileo non sta tanto nell’insistenza sull’esperienza, per “sensata” che sia, ma nell’idea che, fatto il massimo possibile di “sensate esperienze”, sia necessario formulare l’insieme dei fenomeni in studio in termini matematici, cosicché sia possibile derivare, mediante il calcolo, il più gran numero di comportamenti possibili del sistema in esame dal minimo numero di principi. La fiducia che noi possiamo riporre nella matematica ci garantisce che, se una conseguenza è prevista male dal nostro modello, non ci sono molti colpevoli da cercare, ma è il modello ad essere inadeguato, il che significa  che dobbiamo cambiare qualcosa nel modello, da parametri semplici, su su, fino ai principi generali, ma con un procedimento relativamente lineare e largamente sotto il nostro controllo. E’ la matematica che gioca qui il ruolo di protagonista. Vale la pena, perciò, di cercar di capire come questo accade e perché la matematica semplifichi così tanto la ricerca dell’errore e, laddove applicabile (su questo torneremo fra poco), dia tanta sicurezza. Di nuovo è Galileo che ci aiuta con una descrizione della situazione veramente divertente ed intelligente. Dio, dice Galileo, conosce tutta la matematica possibile ed immaginabile mentre noi, poveri umani, non ne conosciamo che qualche pezzettino. Tuttavia, aggiunge Galileo, quel poco che ne conosciamo lo conosciamo tanto bene quanto Lui e la ragione semplicissima è che la matematica è “verità” allo stato puro - divina, appunto -. In termini più moderni ed un po’ meno teologici noi diremmo che la matematica, essendo un nostro prodotto e non un prodotto della natura a noi esterna non ha i margini di incertezza che spettano a ciò che non è prodotto direttamente da noi. Riassumendo, i termini del problema sembrano chiari: se ci riesce di riassumere e rappresentare una larga famiglia di fenomeni con poche equazioni, allora quell’insieme di fenomeni è totalmente sotto il nostro controllo e possiamo considerarci, baconianamente, suoi padroni, cioè possiamo usare la nostra conoscenza per produrre situazioni altre da quelle “naturali” e, comunque, a nostro vantaggio. La questione perciò si sposta e diventa: quando è possibile riassumere e rappresentare la più larga famiglia di fenomeni conoscibili -cioè l’universo- con poche equazioni? Nelle scienze esatte sono trecento anni che si cerca di dire: SEMPRE. In quelle umane o, comunque, man mano che ci si sposta dalle scienze esatte: MAI, o quasi mai, o, in caso di ottimismo spinto, qualche volta. Ora la verità è meno banale di così e vale la pena di discuterla con qualche dettaglio. E’ dai tempi di Newton che la meccanica teorica si è  guadagnata il rispetto dei meccanici “pratici” ed ha dato la sensazione che l’ideale baconiano era a portata di mano. Grazie al riduzionismo (ipotesi atomica e suoi derivati: le realtà complicate non sono che manifestazioni di atomi e movimento) e alla generalizzazione della meccanica classica in quantistica (ed eventualmente relativistica), anche la chimica ha timidamente preso la stessa direzione, però né la biologia né, tanto meno, le scienze sociali hanno seguito l’andazzo. Perché? E’ questo un fatto necessario, legato essenzialmente all’incapacità umana a dominare in grande, o una pura accidentalità dovuta a qualche limitazione storica del nostro sviluppo? A guardare le cose da vicino la prima ipotesi sembra immotivatamente pessimistica, fondata com’è su una presunta incapacità umana, mentre la seconda sembra molto più convincente e, almeno per quanto riguarda le tecnologie chimiche e la biologia sembrano esserci indizi di una profonda trasformazione di queste discipline che tendono sempre di più ad assomigliare alla migliore fisica (teorica). Nessuna ipotesi è dimostrabile fino in fondo in questo campo, tuttavia gli sviluppi recenti tendono ad accreditare l’idea che, tra non molto, il chimico ed il biologico saranno altrettanto controllabili che il meccanico. In altre parole il sogno della fisica teorica di ricostruire il mondo sembra sempre più vicino in ambiti fino a ieri insospettabili come la chimica dei materiali o la biologia. La cosa migliore da fare è, allora, accettare l’ipotesi ottimistica e cercar di capire che cosa ha innescato questo processo e quali sono le limitazioni della teoria che stiamo cominciando a superare. L’idea che tenterò di mostrare nelle pagine che seguono è che l’ingrediente mancante allo sviluppo della fisica teorica in senso baconiano negli ultimi trecento anni è stato semplicemente la potenza di calcolo e che oggi, dotati di una teoria aperta, (certo più raffinata di quella di Newton ma fondamentalmente omogenea a questa) e di una crescente potenza di calcolo noi possiamo sperare di realizzare il sogno di Bacone: conoscere così bene la natura da poter pensare di sottometterla all’ homo sapiens.

2.- Lo sviluppo della Fisica Teorica ed il calcolo.

Circa trecento anni fa, grazie al lavoro culminato nella sintesi newtoniana, l’idea della scienza come potere sul mondo è stata totalmente realizzata nella meccanica classica che ha rappresentato così il modello più compiuto di sapere completo. Si trattasse di balistica o di astronomia o di meccanica pratica, il sentimento di avere in mano lo strumento teorico capace di farci risolvere ogni difficoltà è stato dato per ben fondato. Le cose tuttavia sono rimaste ben diverse se si usciva dall’ambito dei fenomeni puramente meccanici. Tant’è vero che, all’inizio dell’800, Auguste Comte ha sentito il bisogno di classificare le scienze non in modo unitario ma definendo per ciascuna il proprio criterio e modo di scientificità: la termologia e l’ottica presentandosi come distinti dalla meccanica, così come, a più forte ragione, la chimica o le scienze della vita. Il recupero dei fenomeni acustici, elettromagnetici ed ottici, entro il dominio della meccanica (delle particelle o dei continui -teoria classica dei campi- che fosse) ha richiesto circa un secolo ma, in un certo senso, è stata meno faticosa del recupero dell’unità fra la meccanica e la termodinamica che, realizzata alla fine del secolo scorso, ha richiesto l’uso -concettualmente nuovo e sorprendente- dei metodi statistici per capire il comportamento macroscopico di sistemi peraltro squisitamente meccanici. E’ a partire da quel momento che l’ambizione unificatrice della fisica ha smesso di essere una chimera ragionevole ma provabile solo in ambiti ristretti per diventare una concreta possibilità teorica e applicativa. E’ vero che, per arrivare a tanto, le leggi della meccanica hanno dovuto nel frattempo essere riviste (la relatività e, soprattutto, la meccanica quantistica stanno lì a ricordarcelo), però la revisione è stata meno profonda di quanto spesso ci sia stato raccontato e non ha tanto riguardato l’intero edificio della spiegazione scientifica dell’universo, quanto la consistenza interna di alcuni presupposti. La vera importante aggiunta all’ideale meccanicistico di Galilei e Newton è stata realizzata da Boltzmann che ha utilizzato sistematicamente in meccanica i metodi statistici per ottenere una spiegazione unitaria dei sistemi macroscopici (fra questi c’è l’universo...) da quelli meccanici microscopici (gli atomi...). Per far ciò un’intera nuova disciplina matematica è stata introdotta e formalizzata: la teoria della probabilità, la cui assiomatizzazione è stata data da Kolmogorov nel 1933, praticamente insieme al completamento della costruzione della nuova meccanica da parte di Schroedinger, Pauli e Dirac, per non citare che qualcuno fra i nomi più noti. A questo punto le capacità esplicative e predittive della teoria fisica sono estremamente ampliate e, contrariamente a quanto accadeva all’inizio dell’800, coinvolgono non solo tutti i fenomeni cosiddetti fisici (meccanici, termici, elettromagnetici, etc), ma anche i fenomeni più semplici della Chimica e, almeno come virtualità, i fenomeni di base della vita. Benché tecnicamente la situazione sia quella qui presentata all’inizio degli anni trenta di questo secolo, dal punto di vista generale che questo stesse accadendo era stato chiarissimo ai grandi scienziati di fine ottocento, primo fra tutti Henry Poincarè, le cui pagine sul futuro della fisica, scritte all’inizio del secolo, sono ancora stupefacenti per la loro lucidità, chiarezza ed attualità. C’e’ però un “ma” a tanta soddisfazione e non è certo un “ma” minore. Per capirlo conviene usare la distinzione fra la capacità predittiva virtuale e quella reale della teoria fisica. La prima è enorme ma ovviamente non soddisfacente; la seconda è, tutto considerato, minima. La differenza è tutta nella mancanza di capacità e potenza di calcolo come cercherò di mostrare in quel che segue. E non è certo faccenda da poco perché capire ciò comporta anche rendersi conto di un importante cambiamento epistemologico: progresso scientifico non è più, in quest’ottica, aggiunta di nuove leggi scientifiche alle preesistenti ma derivazione di tutte le conseguenze dalle leggi conosciute e, solo nell’eventualità di una loro deficienza, aggiornamento delle medesime. Con ciò lo sforzo (ed il valore) della ricerca non è più concentrato sull’attività creativa del legislatore ma sulla capacità di ricostruire razionalmente un ambito fenomenico mediante derivazione algoritmica da leggi semplici e generali. Di qui l’importanza che ha acquistato il concetto di modello (ormai talvolta confuso con teoria) nella moderna ricerca scientifica. Un grande fisico teorico, Dirac, sembra aver completamente mancato il punto quando ha sostenuto che il compito della fisica teorica è trovare le leggi, il resto essendo chimica, perché, così facendo, ha praticamente distrutto il concetto moderno, baconiano, di scienza. Ma torniamo a noi e cerchiamo di mostrare l’impatto della capacità e potenza di calcolo nello sviluppo della scienza e nel sogno baconiano che le corrisponde. Procederò con due esempi estremi che permetteranno di situare esattamente ciò di cui stiamo parlando: il coraggioso libro di Schroedinger su “cos’è la vita” ed il commento di Von Neuman alla fine degli anni quaranta sul problema delle predizioni meteorologiche. Cercherò poi di illustrare ulteriormente il punto acquisito confrontando la presentazione della meccanica in un vecchio ma ancora ottimo e molto utilizzato libro di meccanica, “I principi variazionali della meccanica” di Cornelius Lanczos, con quella di un qualunque testo moderno.

In un libro scritto nei primi anni quaranta ed ancora molto famoso, Erwin Schroedinger, giustamente fiero del contributo apportato dalla meccanica quantistica allo sviluppo della nostra conoscenza, decide di affrontare la questione dell’importanza della (nuova) fisica per la comprensione dei fenomeni della vita. Il libro è ancora oggi estremamente interessante, eppure è totalmente datato. Il problema di Schroedinger in effetti non è quello di spiegare in dettaglio (più preciso sarebbe dire, calcolare) i fenomeni della vita che vuole discutere ma dimostrare che essi non sono incompatibili con le leggi note della fisica ché, anzi, quest’ultima è addirittura in grado di farci intuire qualche nota regolarità (legge, nel senso di Comte,...) biologica senza bisogno di altro! In altre parole un sicuro passo indietro rispetto alla realizzazione newtoniana del programma baconiano...

Una storia tutta diversa è quella di Von Neumann, uno dei padri fondatori non solo della fisica computazionale, ma addirittura del computer. Von Neumann aveva scoperto e curato alcune instabilità nella soluzione numerica delle equazioni differenziali alle derivate parziali ed aveva deciso di applicare i suoi algoritmi alle equazioni che presiedono alla predizione del tempo. Gli algoritmi erano per l’epoca (e, a dire il vero, lo sono tuttora) “computer intensive” e perciò il calcolo doveva essere fatto dal computer. Fatte tutte le verifiche il calcolo fu lanciato ed il calcolatore mise due giorni di tempo di calcolo per “predire” il tempo due ore dopo la condizione attuale... Era chiaro che o si trovavano algoritmi più veloci o aumentava la velocità di calcolo o la capacità di predizione virtuale sarebbe rimasta di nessun interesse pratico, con buona pace di Dirac. Sappiamo tutti come si è evoluta la situazione, tant’è che oggi possiamo produrre in un paio di ore una predizione valida 48 ore e si continua a migliorare.

Ho già detto che l’esempio di Von Neumann non rappresenta la situazione tipica ma un caso estremo, molto importante ma estremo. La prima differenza fra il poter calcolare (per davvero, in modo computer intensive, non in modo artigianale) e no, risiede nella possibilità di vedere le conseguenze di equazioni -cosiddette non lineari- i cui comportamenti qualitativi ci sono del tutto estranei, in quanto non abbiamo nessuna indicazione analitica, esatta, su come debbano comportarsi. Il primo impatto della capacità di calcolo numerico introdotta dai calcolatori nella teoria è stato proprio qui: nella possibilità di studiare il comportamento di sistemi la cui evoluzione segue leggi che si sanno sì scrivere, ma non calcolare, cioè, risolvere. E’ questo il caso tipico della fisica, anzi, meglio, già della meccanica ed è qui che la possibilità di calcolare massivamente ha prodotto un enorme spartiacque. La cosa più facile per caratterizzare lo spartiacque è di riferirsi al libro di Lanczos e di confrontarlo con un qualunque libro moderno sulla meccanica. Il primo consiste in una presentazione elegante, intelligente e profonda dei principi della meccanica classica quali si sono venuti elaborando nei secoli. E’ libro utile e completo e ci dice molte cose sui vari modi possibili diversi ma equivalenti per formulare (e, quindi, alla fine risolvere) un problema meccanico. Lanczos però non ci dice quasi nulla su come risolvere un problema una volta che sia stato formulato correttamente. Per lui la meccanica formula non risolve. Risolvere è al tempo stesso banale e troppo difficile. Comunque è compito della matematica e, se ci crediamo, possiamo invocare il matematico infinitamente abile di Laplace e, se non, possiamo limitarci ai pochi, pochissimi, problemi per i quali la soluzione si sappia scrivere. Il resto deve seguire lungo linee simili anche se noi non sappiamo come trovarlo. Questo non e’ solo Lanczos, e’ un qualunque libro di meccanica della sua generazione. Oggi, invece, lo scopo di un libro di meccanica è quello di imparare a CLASSIFICARE le soluzioni, la discussione approfondita dei comportamenti possibili del sistema, la sua stabilità o, viceversa, instabilità e con quali criteri ottenere indizi sul comportamento di un dato sistema meccanico. Qui il numerico è componente essenziale ed ogni astuzia per riuscire a risolvere completamente il problema è benvenuta. L’idea può venire dallo studio qualitativo delle equazioni differenziali (che reggono il comportamento meccanico) o dall’aver ottenuto una grande evidenza numerica: non importa il come, si è molto tolleranti sui metodi, ma il risultato deve essere non la FORMULAZIONE del problema, ma la sua SOLUZIONE. Ovviamente non c’è soluzione senza formulazione esatta, ma è importante capire che l’accento si è spostato e quel che più conta ora non è trovare una nuova formulazione che permetta di capire meglio un particolare problema ma di essere capaci di affrontarlo di bruta forza (come si suole dire, cioè, calcolando massivamente) per estrarne tutti i comportamenti e quindi, alla fine, predirne effettualmente, non virtualmente il comportamento sotto date condizioni. Siamo arrivati alla fine delle nostre considerazioni generali sulla situazione attuale: le leggi della fisica, finché non vengano provate inadeguate, sono vere ed universalmente tali. Si applicano e valgono sempre non virtualmente ma effettualmente. Il mondo è fatto di spazio, tempo (cioè moto) e materia (cioè inerzia al moto - massa - ed interazioni). Le sue leggi di evoluzione ci sono note. si tratta di risolverle calcolando (o trovando la maniera, l’algoritmo, per poterlo fare). Dopodiché se abbiamo già la potenza di calcolo sufficiente, il problema non è più un limite al nostro potere ma un’ulteriore occasione di comando sulla natura ottenuta sottomettendosi alle sue leggi (la famosa formula baconiana); altrimenti si tratta di procedere da più parti - inventando nuovi e più potenti marchingegni di calcolo, nuovi algoritmi e nuovi approcci, ulteriori schematizzazioni del problema che ne permettano una soluzione passo a passo- per arrivare infine a controllarlo. E’ questa la parte più interessante del procedimento che stiamo tentando di descrivere ed è su di lei che ci concentreremo nell’ultima parte del nostro discorso.

3.- Le simulazioni ed il sogno di infinita potenza della Scienza.               

Il successo del programma che ho cercato di illustrare fin qui si basa su una caratteristica della fisica (ma sarebbe forse più appropriato dire del mondo, cioè dell’oggetto che vogliamo conoscere) che semplifica enormemente la soluzione del problema riduzionista che ci siamo posti: ricostruire matematicamente il mondo partendo dagli elementi ultimi e più semplici (prima della teoria atomica avrei detto gli atomi, ma con accezione filosofica del termine, perché i nostri atomi non sono ultimi in nessun senso, il loro posto essendo stato preso dalle particelle elementari). Il punto è che man mano che l’oggetto che vogliamo spiegare diventa più complesso i suoi “atomi” diventano strutture più grandi, pur mantenendo, almeno per il problema in studio, il carattere di semplicità che, appunto, contraddistingue gli atomi. Cerchiamo di spiegarci meglio.

La chimica si costruisce partendo dagli atomi per formare dapprima le molecole e, via via, i complessi molecolari e la materia in stato aggregato. L’aver scoperto che l’atomo non è semplice ma è fatto di elettroni e nucleo e che quest’ultimo non è affatto elementare ma può essere rotto a piacere in frammenti che di nuovo si guardano bene dall’essere elementari, non ha cambiato granché la situazione della chimica, anzi ha più o meno lasciato le cose come stanno, nel senso che l’essenziale della chimica proviene dall’interazione elettromagnetica fra nuclei ed elettroni presi come entità stabili mentre la loro complessità, benché vera, non è messa in questione a meno che non si voglia esplicitamente andarla a vedere. Solo in questo caso intervengono le altre interazioni fondamentali e tutto l’armamentario concettuale della fisica delle particelle elementari (che poi, a ben guardare, è esattamente lo stesso di quello che si usa per trattare le interazioni fra nuclei ed elettroni, salvo per le approssimazioni semplificatrici utilizzabili a bassa energia -quando il nucleo è un oggetto stabile- e non ad alta energia, quando il nucleo viene rotto). Perciò noi siamo autorizzati a risolvere un problema alla volta e mai a tenere tutti i livelli di complessità simultaneamente accesi. Così, per fare un esempio, per risolvere il problema di determinare stabilità e proprietà degli atomi è necessario considerare almeno il nucleo e gli elettroni; tuttavia è sufficiente limitarsi a considerarli come punti materiali con massa, carica e momento magnetico ma, altrimenti, privi di struttura interna anche se sappiamo che questo non è sicuramente vero sotto qualunque condizione. Sappiamo però che, se siamo in condizioni di rompere il nucleo, allora i nuclei e gli elettroni insieme non faranno atomi ma solo una miscela anonima e ininteressante di elettroni e nuclei (o loro frammenti). Similmente, se vogliamo costruire le molecole, non abbiamo bisogno di considerare insieme tutti i nuclei e tutti gli elettroni ma basta considerare dei punti materiali pesanti (costituiti dai nuclei  e dagli elettroni a loro più legati), peraltro fermi, ed altri, leggeri, costituiti dagli elettroni residui, i due insiemi di oggetti risultando peraltro “elementari” per quanto attiene al problema che vogliamo risolvere. Infine, se vogliamo mettere insieme molte molecole e costruire il comportamento di un aggregato molecolare (cioè un pezzo di materia ordinaria), basta considerare i tipi di molecole in gioco come punti materiali o insieme di punti materiali interagenti fra loro secondo leggi date. Come si è capito il gioco può continuare all’infinito. Ciò che importa sapere è che le leggi che reggono questi oggetti “elementari” sono sempre le stesse (la famosa mela che cadendo in testa a Newton gli fece capire l’attrazione universale e cioè la possibilità della luna di cadere sulla terra...), solo spostate da una scala spazio-temporale ad un’altra. Questa situazione non era ignota negli anni trenta e cioè prima che ci fosse la possibilità di calcolare seriamente. Sono le sue potenzialità che sono state sfruttate su larga scala solo dopo che si e’ riusciti a risolvere il problema di saper fare calcoli su grande scala. Prima quel che si poteva fare era inventare modelli matematici semplicissimi ma che contenessero informazioni essenziali su qualcuno dei livelli di complessità della materia; ora quel che si fa è, non solo risolvere modelli ben più realistici, ma, soprattutto, calcolare sistematicamente l’informazione essenziale che dal livello inferiore passa al superiore (cioè, la forma dell’interazione fra le molecole, schematizzate come insieme di punti materiali). In questo modo non si fa più quella che fra i fisici si chiama, con qualche sufficienza, fenomenologia ma vera teoria predittiva o, come anche si usa dire, con appropriato uso nobilitante del latino, ab-initio. Un interessante sottoprodotto culturale di questa situazione ma sul quale non vorrei dilungarmi è l’affermarsi, tipica dei nostri tempi, di una modellistica matematica sfrenata per qualunque tipo di fenomeni, anche in ambiti non ancora realmente matematizzabili (come le scienze sociali o la spiegazione della storia, quelle che qualcuno con felice metafora ha chiamato le “dottrine informi”) con la conseguenza che spesso si chiamano scientifici giochi matematici di scarsissimo valore. Ma torniamo al nostro tema principale. Il successo di questo programma è stato negli ultimi cinquant’anni esplosivo ed ha avuto effetti non solo nella predizione ab-initio di fenomeni già noti ma nella scoperta di nuovi fenomeni attraverso la gestione via via più sapiente di apparati sperimentali sempre più performanti: basti pensare che si riescono a “vedere” sperimentalmente strutture spaziali dell’ordine delle dimensioni dell’atomo. Come risultato abbiamo imparato a predire strutture di molecole non più solo di qualche atomo ma di migliaia di atomi e le proprietà fisiche di materiali naturali o sintetici della complessità molecolare dei polimeri e, poco a poco, ci stiamo rendendo conto che il biologico è di complessità non superiore e che possiamo sperare già nella nostra generazione di dimostrare conclusivamente e non virtualmente che anche la vita è costruibile (non semplicemente comprensibile!) con materia e movimento, cioè con gli strumenti abituali della fisica. Non si tratta però della fisica di Comte ma di una fisica che non è più solo la disciplina che si occupa dei fenomeni fisici (come recitano, con simpatico circolo vizioso, parecchi testi di scuola di fisica) ma quella che ha permeato di sé la chimica e la biologia, talché è sempre piuù difficile definire un fisico in quanto la fisica, trovandosi dovunque, finirà per non essere più caratterizzabile come disciplina accanto ad altre. Con buona pace della medicina, pratica empirica per eccellenza, incubo dei fisici da sempre... Checché se ne pensi, il bionico è meno fantascienza e più premonizione di quello che si sta realizzando sotto gli occhi di tutti.


Ringraziamento.

Quest’articolo e’ stato scritto in una calda estate romana. Senza i consigli, i suggerimenti migliorativi e la solidarietà di mia moglie Nicoletta (Bosisio) non sarebbe mai stato terminato.


(*) Fisico di grande levatura nazionale ed internazionale e caro amico di tempi fantastici.   R.R.


Torna alla pagina principale