FISICA/MENTE

 

ATTI DEL XIX CONGRESSO NAZIONALE DI STORIA DELLA FISICA E
DELL’ASTRONOMIA

 

Informazioni e correlazioni di stato dalla fisica classica alla meccanica quantistica: il problema dei fondamenti


Arcangelo Rossi

 

L’interpretazione ortodossa della Meccanica Quantistica attribuisce all’informazione un ruolo, oltre che di disturbo e trasformazione calcolabile (come tale ancora riconducibile a quello ad essa classicamente attribuito di semplice registrazione della realtà), addirittura di creazione di quella stessa realtà quantistica, che essa farebbe letteralmente passare dal non essere all’essere. Tale ruolo, ricondotto ad “un’influenza non meccanica” (Bohr), è ben esemplificato, in positivo, dalla teoria della misura di J. von Neumann e, in negativo, dal paradosso di EPR. E’ tuttavia assai problematico asserire che esso sia con ciò empiricamente dimostrato, e non sia invece solo frutto di una particolare interpretazione, come mostra lo stesso carattere statistico non conclusivo delle prove addotte a suo favore, carattere peraltro riconosciuto anche da fautori, oltre che da critici, dell’interpretazione ortodossa.
Esiste alla base della fisica classica un’idea di misurazione ideale, secondo cui possiamo ottenere informazioni sullo stato di un sistema fisico senza operare su di esso alcuna modificazione. Ciò porta a trascurare la realtà dello strumento di misura, anzi la stessa interazione tra strumento ed oggetto misurato, in quanto ritenuta irrilevante agli effetti del risultato della misurazione. Secondo quell’idea, infatti, il contributo dello strumento fisico e del suo prolungamento fisiologico (tipicamente l’occhio dell’osservatore) e in definitiva psichico (cioè la sua percezione cosciente) è da considerarsi nullo, mentre l’unico contributo rilevante per il risultato del processo di misura è quello fornito dall’oggetto stesso, che lo strumento nel suo complesso si limiterebbe a registrare passivamente. Ciò significa che il processo di misura, per cui uno strumento interagisce con un oggetto essendone modificato e limitandosi a registrare tale sua modificazione, consisterebbe nella semplice “stampa” del contenuto di informazione dell’oggetto da parte dello strumento senza alcuna alterazione2.
E’ chiaro naturalmente che questa è solo un’idealizzazione. Non è infatti minimamente plausibile che il processo sia a senso unico e che il contenuto di informazione dell’oggetto si conservi inalterato, nonostante la sua registrazione da parte dello strumento, che sensatamente non può essere puramente passiva. Se è infatti indubbio che lo strumento è modificato dall’oggetto, che ne modifica quindi il contenuto di informazione, perché lo strumento, che è anch’esso un oggetto fisico, non dovrebbe, attraverso il suo uso, modificare a sua volta, interagendo con esso, il contenuto d’informazione dell’oggetto? Se si passa dal piano ideale a quello reale, anche la fisica classica non può non ammettere che noi “disturbiamo l’universo” di cui facciamo parte per conoscerlo, e che non ci limitiamo a registrarlo passivamente senza retroagire, pur essendo disturbati da esso3. Vi è però qualche difficoltà ad ammettere tale azione di disturbo dello strumento sull’oggetto: una piccola perturbazione iniziale, un piccolo disturbo, può, com’è noto, anche in fisica classica, tendere inesorabilmente a dilatarsi nel tempo, in modo tale da non essere più facilmente controllabile4. E’ difficile inoltre, nell’elettromagnetismo classico, eliminare l’effetto di assorbimento di corrente, che altera incontrollabilmente la corrente da misurare, da parte dei comuni dispositivi elettromagnetici. Si tratta però di perturbazioni che possono essere ancora neutralizzate riducendo al minimo l’alterazione indotta dallo strumento nell’oggetto, magari trasformando la grandezza fisica qualunque da misurare in una grandezza meccanica. Questa è infatti più facilmente misurabile in modo controllato riducendo il più possibile gli attriti tra oggetto e strumento, che sono la causa principale di perturbazione meccanica. Ciò permetterà di ridurre la perturbazione indotta dallo strumento nell’oggetto in modo da rendere la conoscenza del contenuto di informazione dell’oggetto in sé, indipendentemente dalla misura, la più fedele possibile, per quanto la perturbazione indotta dalla misurazione resti concretamente ineliminabile. In ogni caso, sembra possibile calcolare la perturbazione e quindi risalire esattamente, almeno in linea di principio, alla situazione iniziale imperturbata dell’oggetto5.
Tuttavia, sempre nella fisica classica, la termodinamica introduce un’alterazione apparentemente incontrollabile nei processi di misura, dovuta al fatto che in essi hanno luogo comunque scambi di energia, accresciuti dagli attriti, il cui effetto è di modificare la situazione fisica in modo irreversibile. Si tratta infatti di una tendenza apparentemente inarrestabile all’equilibrio energetico inteso come uno stato indifferenziato, tanto che non sia più possibile risalire con certezza da tale stato finale a quello iniziale prima della misura, ma solo in modo probabilistico. Uno stesso stato di equilibrio può essere infatti, com’è noto, il punto di arrivo di evoluzioni di stato differenti, a partire da stati iniziali diversi, e sia pure con diverse
probabilità. Quest’incertezza inevitabile si spiega comunque, in fisica classica, con il fatto che l’oggetto, con il suo contenuto d’informazione, è modificato dalla misura in modo per noi sì incontrollabile, ma solo per i nostri limiti umani, sensoriali, strumentali e teorici, non per un’indeterminazione oggettiva. Ciò è mostrato dal paradosso maxwelliano del diavoletto: uno spirito acutissimo che si muovesse al livello delle molecole che costituiscono i corpi potrebbe osservare ed avere memoria delle loro posizioni e velocità iniziali e potrebbe quindi registrarne l’evoluzione concreta. Anzi, di più, potrebbe invertire praticamente la tendenza entropica delle molecole all’eguagliamento delle velocità attraverso gli urti reciproci, separando dalla mescolanza finale le molecole e riportandole alla distinzione dei loro stati iniziali, senza spreco di energia ma semplicemente aprendo e chiudendo in tempo, senza sforzo, un foro di comunicazione tra le molecole stesse6.
Il problema, che ci porta comunque a questo punto oltre i limiti e le pretese conoscitive della fisica classica stessa entro cui si muoveva Maxwell, è però che il diavoletto dovrà percepire le molecole e il loro stato di moto per poterle selezionare e risalire così al loro stato iniziale imperturbato. E, per poterle percepire, deve usare fotoni, il valore della cui minima energia è definito, com’è noto, nella teoria quantistica, dal quanto d’azione di Planck.
Ciò comporta che la determinazione della posizione di un oggetto microfisico ottenuta mediante fotoni ad alta frequenza e piccola lunghezza d’onda ne rende incontrollabile la velocità, e viceversa, se si riesce a determinare con fotoni di grande lunghezza d’onda e bassa frequenza la velocità delle particelle, se ne rende però incontrollabile la posizione, che risulterà così a sua volta indeterminata. Il risultato evidente di tutto ciò è che il diavoletto non è più in grado di percepire esattamente i sistemi atomici e non è quindi in grado di risalire allo stato iniziale imperturbato. La misurazione altera così a livello quantistico in modo irreversibile, insuperabile ed incontrollabile per principio lo stato del sistema misurato, in modo da rendere non solo di fatto, ma per principio inaccessibile lo stato iniziale imperturbato. D’altra parte, poiché la modificazione incontrollabile dello stato dell’oggetto da parte dello strumento non è, come si è detto, riducibile oltre un certo limite rappresentato dal quanto d’azione, la teoria quantistica è inevitabilmente impegnata a descrivere ed interpretare teoricamente il processo di misurazione, che non potrà più essere approssimato ad un semplice processo ideale in cui lo stato dell’oggetto non sia minimamente alterato dalla misura.
La nuova teoria inquadra cioè esplicitamente sia lo strumento misuratore sia l’oggetto microfisico misurato nella loro interazione reciproca, il cui effetto inevitabile è appunto di modificare il contenuto d’informazione non solo dello strumento ma anche dell’oggetto in modo incontrollabile7.
Ma vediamo ora più in dettaglio come la teoria dei quanti affronta la questione. Come abbiamo visto, in fisica classica è possibile risalire, almeno in linea di principio, dallo stato dell’oggetto modificato a causa dell’interazione allo stato imperturbato precedente l’interazione. Ora invece l’interazione con l’osservatore attraverso fotoni e strumenti d’informazione, affinché egli acquisisca conoscenza dell’oggetto, sembra operare demiurgicamente sull’oggetto stesso. Essa spezza infatti la continuità tra stati iniziali e finali che era stata una caratteristica indiscussa della misura in fisica classica nonostante tutte le difficoltà incontrate dai tentativi di
risalire, attraverso un’evoluzione supposta comunque continua, allo stato iniziale. E si noti bene che il carattere discontinuo di tale interazione, che sembra letteralmente creare la proprietà misurata facendola passare dal non essere all’essere, ma distruggendone al tempo stesso, come si è visto, altre coniugate complementari, quali ad esempio il momento e l’energia rispetto alla posizione e al tempo, nasce dalla stessa necessità di avere, nell’ambito della Meccanica Quantistica ortodossa, risultati di misura precisi, non ambigui. Infatti, senza quella discontinuità irriducibile, non solo l’oggetto quantistico microfisico, ma perfino lo strumento macrofisico sarebbe in uno stato di realtà ambiguo, di sovrapposizione, dovuto all’intreccio o “entanglement” dello stesso oggetto microfisico con l’apparato, e in modo tanto più paradossale dato il carattere comunque macroscopico dell’apparato.
Si tratterebbe cioè di una sovrapposizione addirittura di stati macroscopici e non solo microscopici, come evidenzia chiaramente il paradosso del gatto di Schroedinger8.
Quanto all’interpretazione della transizione brusca, discontinua dalla sovrapposizione allo stato esatto abbiamo però, com’è noto, diverse posizioni, nell’ambito della stessa Meccanica Quantistica standard o ortodossa. Abbiamo anzitutto il punto di vista di Bohr ( o di relatività agli strumenti di osservazione), che attribuisce il collasso direttamente al carattere classico degli strumenti in quanto veicoli di informazione che si sottrarrebbero al formalismo quantistico, cui sarebbe invece soggetto tutto il resto del mondo, proprio per poter assumere una funzione creativa nei confronti di esso, attraverso l’”entanglement” reciproco, fornendo una realtà definita a sue specifiche proprietà e togliendola ad altre coniugate complementari, secondo la loro diversa tipologia9. Oppure quello di Everett e De Witt, che concepiscono lo stesso collasso come un processo discontinuo in termini di formazione di diversi universi, ciascuno dei quali si separa bruscamente dagli altri a partire dalla sovrapposizione iniziale, per effetto dell’atto di osservazione. Quest’ultimo porta ciascun osservatore ad isolarsi nel proprio universo attraverso un esito particolare della misura, mentre altri universi paralleli corrispondono ad altri esiti possibili della misura stessa. In tal modo coesistono diversi sistemi informazionali corrispondenti ai diversi universi possibili, che sono uniti, prima della misura, in uno stato di sovrapposizione di autostati di una certa proprietà, e che vengono bruscamente separati quando il valore della proprietà viene misurato (ma restano tuttavia almeno formalmente unificati nell’evoluzione complessiva della funzione d’onda o vettore di stato globale)10. Infine, il punto di vista in proposito di J. von Neumann era addirittura che solo l’informazione (non nel senso del suo supporto veicolare fisico, bensì in quello di consapevolezza o presa di coscienza dell’osservatore) potesse determinare la transizione, con un ruolo creativo che una mera realtà fisica, esprimibile da operatori classici o quantistici che evolvono secondo le leggi delle corrispondenti teorie, non può avere. Von Neumann riteneva infatti illimitata la validità della Meccanica Quantistica per sistemi fisici “entangled” e attribuiva di conseguenza la riduzione del pacchetto d’onda alla coscienza dell’osservatore, in quanto unico operatore extrafisico atto a modificare la funzione d’onda del complesso oggetto+apparato introducendo una diversa modalità di evoluzione del sistema stesso rispetto a quella continua ed indisturbata che altrimenti avrebbe luogo11. Da questo punto di vista, il fatto che la discontinuità si collochi al confine fra microfisico e macrofisico non è dovuto affatto alla presunta diversa natura dei due domini, così come dell’oggetto e dell’apparato di misura secondo Bohr, ma al fatto che la coscienza dell’osservatore non può che operare in base alle sue capacità percettive, relative ovviamente al visibile macroscopico, o parallelamente ad esso12.
In ogni caso, comunque venga interpretato da un punto di vista ortodosso, il processo di riduzione non è mai concepito, da questo punto di vista, come un disturbo meccanico, cioè come un’azione causale fisica effettuata dall’apparato sull’oggetto attraverso i segnali fisici viaggianti dall’uno all’altro, ma come frutto della scelta dell’osservatore, che decide di osservare questa o quella proprietà dell’oggetto e, così facendo, orienta in un senso o in un altro, completamente diverso, l’esperienza13. Che non si tratti di un disturbo meccanico, lo dimostrano con estrema chiarezza recenti esperimenti che portano ad escludere che siano in gioco quantità di energia tali da giustificare l’ipotesi di un’azione causale fisica in contrasto con la concezione “demiurgica” ortodossa della riduzione. In sostanza sono state escogitate situazioni sperimentali tali per cui l’alterazione incontrollabile del momento di una particella da parte di strumenti di osservazione che ne misurino esattamente la posizione non è attribuibile ad impulsi meccanici impressi dagli stessi strumenti, nella fattispecie microonde di bassissima energia, in ogni caso insufficiente a spiegare meccanicamente l’alterazione.
Essa è relativa piuttosto al più impalpabile “entanglement” quantistico tra la particella e l’intero dispositivo sperimentale utilizzato per osservare le sue proprietà, inclusi i fotoni che la rendono visibile, a seconda dei casi, come già accennato, o come particella o come onda14.
D’altra parte, il carattere non meccanico dell’interazione risultava già evidente dal noto esperimento ideale di EPR, in cui esplicitamente veniva introdotto il collasso del pacchetto d’onda come attribuito appunto ad una correlazione a distanza non riconducibile ad una causa fisica (dato che essa violerebbe addirittura i limiti posti dalla relatività alla velocità di trasmissione dei segnali fisici in generale), ma solo all’acquisizione di informazioni che, a distanza, farebbero collassare lo stato di un oggetto remoto. Tutto sarebbe infatti ancora una volta riconducibile in essa alla straordinaria proprietà di “entanglement” dei sistemi quantistici, per cui appunto la semplice acquisizione di informazioni sullo stato di un sistema farebbe collassare quello di un sistema anche del tutto separato e remoto, purché quantisticamente correlato con il primo. Da ciò peraltro Einstein ricavava la conclusione che la teoria quantistica fosse incompleta, proprio perché incapace di fornire una spiegazione fisica dell’interazione15.
Ebbene, vorrei ora sottolineare che sia il collasso della funzione d’onda costituita dall’oggetto+apparato in un esperimento di misurazione di un sistema individuale, sia quello dovuto alla correlazione di stato tipo EPR, che evidenzierebbe il carattere per giunta “non locale” dell’”entanglement”, sono ben lungi dall’ essere evidenze empiriche immediate, come persino fautori, oltre che critici della teoria arrivarono a riconoscere, e ciò da solo spiega il proliferare delle diverse interpretazioni delle strane proprietà dei sistemi quantistici ben oltre i limiti dell’interpretazione standard o ortodossa della Meccanica Quantistica.
Già von Neumann, alle origini della teoria della misura quantistica, aveva concepito l’interazione sistema misurato/apparato misuratore come un sistema composto e non semplice o elementare, anche nel caso di misurazione di un singolo oggetto microfisico. Esso è quindi rappresentabile mediante una funzione d’onda che è il prodotto di due funzioni d’onda, una relativa all’oggetto, l’altra relativa all’apparato. Sappiamo già che l’interazione è nei due sensi e non a senso unico, e pertanto mediante essa viene modificato sia l’apparato sia l’oggetto, per semplice scambio di informazioni. Come visto, dovremmo avere a questo punto macroscopicamente una pluralità di risultati dell’interazione corrispondentemente ai diversi valori possibili dell’osservabile misurata, di cui lo stato finale sia di volta in volta uno specifico autostato. In realtà però, sempre come visto, secondo von Neumann, finché siamo nel dominio fisico della Meccanica Quantistica, in quanto il sistema complessivo è quantisticamente perturbato, la correlazione statistica resta simultaneamente definita dalla funzione d’onda del sistema composto e i valori così definiti non sono affatto individualmente misurabili. Tale misurabilità individuale appare pertanto possibile per von Neumann solo grazie alla coscienza dell’osservatore in quanto entità non fisica, sola in grado di sottrarsi all’evoluzione unitaria dello stato di sovrapposizione quantistico16.
Di tale supposta riduzione abbiamo però appunto solo un’evidenza indiretta, dato che i singoli esiti di misura verificano solo specifici valori di aspettazione, e non già un’evidenza diretta delle effettive correlazioni statistiche complessive tra apparato ed oggetto. Analogamente, delle correlazioni di EPR, sempre a causa del loro carattere statistico, in quanto ulteriori esempi di situazioni contestuali e per di più, come visto, non locali in assenza di interazioni a distanza fisicamente plausibili tra i suoi termini, abbiamo solo un’evidenza indiretta, verificandosi nelle specifiche misure solovalori di aspettazione individuali appunto e non le correlazioni statistiche complessive. E ciò trova conferma nelle cosiddette prove empiriche del
teorema di Bell, che da EPR deriva a sua volta l’esistenza di diseguaglianze che possono essere violate dalla Meccanica Quantistica, dimostrandosi nel qual caso una correlazione tra sistemi più forte di quella ammessa dalla fisica classica e da teorie locali e non contestuali in generale17. Neanche tali prove infatti riescono ad assurgere dai singoli valori di aspettazione alle correlazioni statistiche vere e proprie, tanto da risultare davvero probanti a favore della Meccanica Quantistica, come riconobbe peraltro lo stesso Bell18.
Ed è proprio questo che rende l’interpretazione contestuale e non locale della Meccanica Quantistica in termini di “entanglement”, e perfino di creazione a distanza delle proprietà dei sistemi attraverso brusche variazioni di stato dovute alla misura, non una verità provata ma solo un’interpretazione19, per quanto condivisa anche da alternative, pur esse tuttavia contestuali e non locali, alla Meccanica Quantistica.
Tra tali alternative, si segnalano in particolare la riduzione dinamica, la decoerenza e la meccanica bohmiana. Esse infatti non si contrappongono certo alla Meccanica Quantistica standard negandone gli aspetti più paradossali di “entanglement”, contestualità e non località, ma si limitano piuttosto a negare, sia pure seguendo strategie tra loro differenti, l’attribuzione, comunque tipica della stessa Meccanica Quantistica ortodossa, di un carattere brusco, strettamente discontinuo al processo di riduzione.
Anzitutto, la riduzione dinamica o localizzazione spontanea20 assume il passaggio dal microfisico al macrofisico che si realizza nel processo di misura come un processo praticamente continuo, grazie ad una riformulazione non lineare dell’equazione d’onda di Schroedinger, solo con l’aggiunta di un piccolo termine correttivo che consente di ricavare appunto da quell’equazione la produzione spontanea di risultati di misura macroscopici esatti. Appare peraltro assai incerta la possibilità di discriminare sul piano sperimentale, come pure dovrebbe essere in principio possibile, questa teoria e la Meccanica Quantistica standard, trattandosi, come detto, di una correzione di questa di entità minima, spontanea e acausale, onde riuscire a correlare, in modo solo un po’ più graduale e continuo, l’evoluzione spontanea della funzione d’onda alle misure discrete attualizzate, tanto da evitare che lo stato di sovrapoposizione microfisico trabordi per più di una minuscola frazione di secondo nel macroscopico, e da ridurre quindi la portata
dei paradossi a ciò connessi, come appunto quello del gatto di Schroedinger.
La natura del fattore correttivo introdotto allo scopo è comunque anch’essa ricondotta, come il brusco collasso del pacchetto d’onda della Meccanica Quantistica standard, ad un processo di interazione tra sistema osservato ed apparato di osservazione macroscopico pur sempre di tipo informazionale.
Solo, viene spostato il più possibile, come dicevo, il confine del macroscopico, del definito, dell’esatto verso il microscopico, pur senza in realtà poterlo annullare del tutto. Il microirrealismo delle sovrapposizioni resta tale anche se si cerca di accrescere il più possibile il macrorealismo dei risultati delle misure, oggettivando per quanto possibile, ma pur sempre solo fino ad un certo punto, l’interazione oggetto-strumento oltre i limiti della Meccanica Quantistica standard.
La stessa esigenza di oggettivare l’interazione, evitando la brusca discontinuità dell’evoluzione di stato propria dell’interpretazione ortodossa è perseguita dalla tesi della decoerenza, che evidenzia però piuttosto il ruolo dell’ambiente21. Questo infatti, anche a prescindere dall’intervento dell’osservatore e dello strumento, dunque in modo spontaneo, determina la localizzazione dei sistemi quantistici inizialmente in stato di sovrapposizione attraverso l’inevitabile ”entanglement” tra sistemi ed ambiente. In sostanza, si viene a sostituire all’osservatore e/o apparato dell’interpretazione ortodossa l’ambiente fisico, quindi qualcosa di più oggettivo, indipendente dalle scelte soggettive dell’osservatore, nel ruolo di fattore di riduzione di stato. La riduzione in termini di decoerenza, come d’altra parte quella in termini di riduzione dinamica prima esaminata, impiega comunque del tempo, sia pure brevissimo e dipendente in modo critico dalle dimensioni dei sistemi, e non è istantanea come nell’interpretazione ortodossa, cosicché la sovrapposizione si trasforma in modo continuo nella miscela statistica, come evidenzierebbero in particolare alcuni fenomeni su scala mesoscopica in cui, grazie appunto alle dimensioni ridotte, si riuscirebbe a prolungare la vita, in stato di sovrapposizione, di minuscoli “gatti di Schroedinger” di dimensioni intermedie tra microscopico e macroscopico22. Resta tuttavia il fatto che anche nel caso della decoerenza è, sia pure in modo morbido, supposto in atto un processo di creazione e distruzione di proprietà fisiche che non è spiegato in termini fisicamente afferrabili.
Infine, proprio nello sforzo di fornire una simile spiegazione fisica, la cosiddetta teoria causale di D. Bohm assume esplicitamente che le transizioni quantistiche siano spiegabili in termini deterministici risultanti dall’individuazione di parametri nascosti subiacenti agli stati quantici, tanto che in particolare non si abbia mai, a questo livello, nonostante le apparenze empiriche, il collasso della funzione d’onda, ma solo il suo passaggio, continuo, dall’esterno all’interno o dall’esplicato all’implicato. Già la terminologia usata tradisce però la sostanziale adesione di Bohm alla visione informazionale propria della stessa Meccanica Quantistica ortodossa, per cui accanto ad una realtà tangibile (esplicata), evidenziata dalle misure, ve ne sarebbe un’altra invisibile (implicata), coincidente in sostanza con l’“entanglement” quantistico, inteso come correlazione globale contestuale e non locale, che informa la prima determinandone in sostanza le particolari evoluzioni di stato. La differenza rispetto all’interpretazione ortodossa consisterebbe essenzialmente nel tentativo di definire questa seconda realtà, supposta più fondamentale, in termini il più possibile oggettivi, indipendenti dalle scelte dell’osservatore, come un potenziale quantico o campo quantistico (come nella versione originale di Bohm)23, o semplicemente come una specie di etere cartesiano olisticamente concepito in termini di masse, posizioni e traiettorie deterministiche delle particelle (come nella successiva “Bohmian mechanics”)24, la cui evoluzione precisa l’ossevatore può prevedere comunque solo probabilisticamente in termini di funzioni d’onda, mentre in realtà essa avviene sempre in modo deterministico, sebbene non completamente conoscibile in quanto ne possiamo cogliere solo le variazioni relative e non l’intensità assoluta quale bacino di energia e fonte di informazione attiva.
Resta il fatto che in nessun caso, quale che sia l’interpretazione adottata, siamo di fronte ad eventi elementari che costituirebbero evidenze immediate delle correlazioni statistiche attribuite ai sistemi quantistici (proprietà teoriche irriducibili ai valori di aspettazione individuali effettivamente testati), che sia l’interpretazione ortodossa sia le alternative considerate tendono comunque a spiegare, sia pure diversamente, in termini di “entanglement” e di perdita d’identità e di oggettività di proprietà dei sistemi. Se però si riconosce che ciò non è affatto necessario, viene lasciata aperta la porta ad ulteriori, diverse interpretazioni, fisicamente più afferrabili, locali e non contestuali, della realtà dei quanti.25

____________________________


NOTE


1 Dipartimento di Fisica dell’ Università di Lecce
2 Cfr. G. Tarozzi, Il significato della strumentazione nella storia della scienza, in AA.VV., Gli strumenti nella storia e nella filosofia della scienza, a cura di G. Tarozzi, Bologna, Alfa, 1983, Vol. I, pp. 183-201.
3 Cfr. F. Dyson, Disturbing the Universe, New York, Harper & Row, 1979.
4 Si tratta della ben nota “sensibilità a piccole variazioni delle condizioni iniziali” che è all’origine della problematica della complessità e del caos la quale non ha nulla a che vedere con l’indeterminismo introdotto dalla fisica quantistica, ma è intrinseca appunto, in termini di “dilatazione dell’errore”,alla stessa meccanica classica puramente deterministica (sebbene sia stata approfondita solo in tempi relativamente recenti, a partire dagli anni ’60, dopo un primo inizio con Poincaré a fine ‘800). Cfr. D. Ruelle, Caso e caos, Torino, Bollati-Boringhieri, 1992.
5 Cfr. G. Tarozzi, op. cit.
6 Cfr. J. C. Maxwell, Theory of Heat, London, Longmans & Green, 1871, pp. 328-9.
7 Cfr. G. Tarozzi, Filosofia della microfisica, Vol. I, Modena, Mucchi, 1992, pp. 111-5.
8 Infatti, senza la discontinuità e il suo necessario corollario rappresentato dalla non oggettività delle proprietà non osservate, l’indeterminazione e l’ incontrollabilità quantistica degli oggetti microfisici si propagherebbero agli stessi sistemi macroscopici in interazione con essi, inclusi gli apparati di osservazione o appunto il famoso gatto di Schroedinger.
Il gatto infatti sarebbe vivo o morto a seconda dello stato di moto del fotone dal quale dipenderebbe la rottura o meno di un’ampolla con del gas venefico, ma i limiti della meccanica quantistica non consentirebbero di concepire tale stato non osservato altrimenti che come uno stato di sovrapposizione, non definito, in cui verrebbe a trovarsi di conseguenza anche il gatto, nonostante le sue dimensioni macroscopiche. Non resterebbe quindi che ammettere una brusca discontinuità, con conseguente creazione e distruzione delle proprietà dei sistemi microfisici, dovuta alla misura. Cfr. E. Schroedinger, Die gegenwaertige Situation in der Quantenmechanik, Die Naturwissenschaften 23 (1935).
9 Come però evidenzia M. Jammer in The Philosophy of Quantum Mechanics, New York, J. Wiley & Sons, 1974, pp. 473-4, l’insistenza di Bohr su tale necessità logica di distinguere lo strumento di osservazione dall’oggetto microfisico, per cui solo il primo con il suo comportamento classico riuscirebbe ad attribuire al secondo in modo non ambiguo precise proprietà, non esclude poi che lo stesso Bohr attribuisca, in particolari circostanze (come nel dibattito con Einstein al congresso Solvay del 1927), un comportamento quantistico ed indeterministico e non certo classico agli stessi strumenti di osservazione, in particolare a quelli degli esperimenti lì discussi, difendendo così certo brillantemente le sue posizioni, ma al tempo stesso non riuscendo ad evitare di caratterizzare in modo oscuro e discutibile, perché contraddittorio, la sua concezione della misurazione quantistica.
10 La teoria dei molti mondi presenta infatti, accanto ai suoi aspetti paradossali e controintuitivi, la caratteristica positiva peculiare di consentire una trattazione unitaria del problema della riduzione concependo la discontinuità non come creazione e distruzione dal nulla di proprietà, ma come semplice separazione e ramificazione di tutti i loro valori possibili in un’unità complessiva di ordine superiore sul modello della Relatività Generale. In essa infatti l’universo visibile del singolo osservatore con le sue coordinate è immerso e spiegato all’interno di una struttura superiore che al tempo stesso lo realizza e tuttavia nulla perde delle possibilità alternative, sia pure da quello non osservabili. Cfr. M. Jammer, op. cit., pp. 507-21.
11 Cfr. J. von Neumann, I fondamenti matematici della meccanica quantistica, Padova, Il Poligrafo, 1998. In particolare von Neumann ritiene che l’interazione oggetto microfisico-apparato macroscopico sia l’esempio più chiaro di un sistema fisico “entangled”, irriducibilmente soggetto alla meccanica quantistica e quindi in stato di sovrapposizione indeterministica.
Solo l’informazione, intesa appunto come pura attività mentale consistente in attenzione e presa di coscienza dei fenomeni, e non una realtà fisica può trasformare, oltre ogni legge fisica, lo stato di sovrapposizione in una miscela statistica determinando il collasso, grazie al fatto che, pur operando su contenuti osservativi o parallelamente ad essi, non è a sua volta oggetto di osservazione, quindi “entangled” ad essi.
12 Ciò conferma l’autonomia causale della coscienza secondo von Neumann, che opera la riduzione secondo la sua natura di soggetto dell’esperienza e non secondo quella degli oggetti esperiti, quindi sempre soggettivamente, anche se parallelamente o il più adeguatamente possibile alle condizioni fisiche oggettive. M. Jammer in op. cit., pp.474-82 insiste in modo particolare sul fatto che, secondo von Neumann , per quanto si tenti di definire in termini oggettivi, a livello neurofisiologico, l’attività della coscienza, questa apparirà in ultima analisi irriducibile ad essi in quanto fattore non sostituibile dell’esperienza, e in particolare della riduzione quanto-meccanica.
13 Lo stesso Bohr, che pure riteneva decisiva la natura classica dell’apparato di misura, e quindi il suo contributo, legato ad energia e dimensioni, al processo di riduzione, pensava tuttavia che esso non fosse riconducibile ad un “disturbo meccanico” (come invece sembrava più incline ad ammettere, almeno inizialmente, W. Heisenberg nella sua formulazione del principio di indeterminazione), in particolare nel suo commento all’articolo di EPR apparso anch’esso su “Physical Review” (48 (1935), 696-702), e che ha, come è noto, lo stesso titolo del lavoro di EPR, “Can quantum-mechanical description of physical reality be considered complete?". Ivi il peso decisivo è attribuito infatti al condizionamento esercitato nella definizione della realtà fisica dalla scelta di attivare uno o un altro processo di misura, mutuamente esclusivi. Scelta che non è descrivibile appunto in termini causali o meccanici, ma è tuttavia sufficiente per lui (contrariamente ad EPR) a spiegare l’esperimento e ad eliminare così il paradosso.
14 Cfr. M. Buchanan, An End to Uncertainty, New Scientist, 6 March 1999, pp. 25-8, che cita in particolare il lavoro sperimentale portato avanti da G. Rempe et al. all’ Università di Costanza, a dimostrare la priorità del concetto di “entanglement” rispetto allo stesso principio di indeterminazione posto invece alla base della teoria da Heisenberg e Bohr.
15 E’ chiaro infatti che Einstein contrapponeva all’ “entanglement” informazionale e alla non località della Meccanica Quantistica ortodossa l’esigenza di una spiegazione causale locale dei fenomeni quantistici in termini di processi fisici reali e continui, evitando così di assumere che le proprietà dei sistemi si possano creare dal nulla o annullare a seconda di come e se vengano osservati. In particolare, ogni volta che si verificasse una correlazione implicata sì dalla teoria quantistica ma senza saperne dare una spiegazione fisica afferrabile, come appunto quella discussa nel suo esperimento mentale, si tratterebbe per Einstein, invece di introdurre “raccapriccianti azioni a distanza” che violerebbero la stessa teoria della
relatività, di presupporre sempre condizioni fisiche oggettive in termini di proprietà preesistenti dei sistemi, e non già il nulla o l’ evanescente “entanglement” quantistico. Il fatto che la teoria avesse puntuali riscontri e prevedesse puntualmente gli esiti delle misure in termini statisticamente attendibili non implicava infatti per lui che la spiegazione che essa ne dava fosse soddisfacente, anche se al momento non se ne aveva una a suo parere migliore. Importante per Einstein era che fosse almeno concepibile cercarla e trovarla e, come è noto, ne congetturò qualcuna (doppia soluzione, onde vuote, ecc.). Il problema, ancor prima, è però che, come vedremo tra breve, è ancora da accertare se le implicazioni, in termini di correlazioni di stato tipo EPR, della teoria quantistica siano da considerare scontate, pur essendo provate in modo solo statisticamente incompleto anche in relazione ai più recenti esperimenti sulla diseguaglianza di Bell. Se cioè Einstein non concedesse troppo alla teoria quantistica ortodossa limitandosi a considerarla incompleta e non anche, almeno per certi aspetti, non provata. Cfr. M. Jammer, op. cit., capitolo 6, The Incompleteness Objection and Later Versions of the Complementarity Interpretation, pp. 159-251.
16 Si tratta in sostanza della teoria della “doppia evoluzione” della funzione d’onda dei sistemi quantistici di von Neumann, l’una, quella unitaria, causale e continua, per i sistemi imperturbati, e l’altra, discontinua e acausale, per i sistemi perturbati, intendendo però il concetto di perturbazione non in senso fisico, ma appunto mentale, di osservazione cosciente, come risulta ben chiaro dall’ opera in cui egli introdusse la distinzione, I fondamenti… cit. In ogni caso, in questa stessa opera von Neumann sottolinea il carattere statistico della correlazione tra apparato ed oggetto sia prima che dopo la riduzione, nel primo caso come sovrapposizione inseparabile di stati puri e nell’altro come miscela propria dei diversi esiti possibili della misura, cioè, sia in un caso che nell’altro, una proprietà o relazione teorica non direttamente osservabile, ma solo indirettamente attraverso l’osservazione empirica individuale.
17 In ogni caso quindi, questa riformulazione dovuta a Bell del paradosso di EPR non si limita, come quella originaria, a voler mostrare l’incompletezza della Meccanica Quantistica in quanto incapace di spiegare le correlazioni da essa introdotte in termini locali e non contestuali, ma addirittura mostra che una simile spiegazione letteralmente falsificherebbe, se provata mediante la verifica di determinate diseguaglianze numeriche (diseguaglianze di Bell), le previsioni quantistiche relative a tali correlazioni, dimostrando che il collegamento tra i sistemi è inferiore a quelle stesse previsioni. Cfr. M. Jammer, op. cit., Cap. 6 cit. e Cap. VII, Hidden Variables Theories, specie par. 7, Bell’s Contributions, e F. Selleri, History of the Einstein-Podolski-Rosen paradox, in Quantum Mechanics Versus Local Realism, F. Selleri ed. (Plenum, New York, 1988). Resta però il fatto che, essendo la correlazione una proprietà teorica e non empirica, i controlli statistici su di essa non appaiono conclusivi né a favore né contro, e cade quindi quella crucialità che Bell sperava di poter attribuire ad essi, come peraltro l’analisi successiva cercherà di mostrare anche sulla base di considerazioni dello stesso Bell.
18 Il passaggio dai valori di aspettazione non normalizzati alle effettive funzioni di correlazione è consentito infatti soltanto dalla conoscenza dei valori medi delle variabili e delle deviazioni standard e quindi delle correzioni statistiche conseguentemente apportate alle singole misure empiriche, cosa che appunto non è possibile se non grazie ad ipotesi supplementari che non sono affatto ricavabili direttamente dalle evidenze empiriche. Ebbene di tale difficoltà fu ben consapevole Bell fin dal suo primo lavoro sulla celebre diseguaglianza, dove appunto si preoccupò di distinguere accuratamente i valori di aspettazione e le funzioni di correlazione, pur considerando situazioni ideali in cui le due grandezze coindidono, e preoccupandosi successivamente (1971), in situazioni più realistiche, di definire il valor medio dei risultati sperimentali anche col tener conto di quelli che dipendessero interamente dagli apparati di rilevazione e fossero quindi nulli. Cfr. J. Bell, On the Einstein Podolski Rosen paradox, Physics 1 (1964), pp. 195-200 e Introduction to the hidden-variable question, in Foundations of Quantum Mechanics, Proceedings of the International School of Physics ‘Enrico Fermi’, IL, New York, Academic (1971), pp. 171-81, ora in Speakable and unspeakable in quantum mechanics, Cambridge University Press, 1987, pp. 29-39.
19 Ciò è confermato, oltre che dalla cautela dello stesso Bell nell’evitare di confondere, come si è visto, valori di aspettazione e funzioni di correlazione, pur essendo egli personalmente convinto, sia pure con riluttanza intellettuale data la sua personale simpatia per la posizione di Einstein, che gli esperimenti finissero col dar ragione alla Meccanica Quantistica, dalla consapevolezza che alcuni degli stessi sostenitori della teoria avevano circa la necessità di ipotesi aggiuntive, di per sé non verificabili, per poter interpretare i loro risultati sperimentali come favorevoli alla stessa. Solo così infatti tali risultati potevano passare per un buon campione statistico dell’insieme di partenza, eliminando il problema del passaggio dai valori di aspettazione alle funzioni di correlazione. Si ritrovano infatti riconoscimenti del genere in Clauser, Holt, Shimony e Horne nel loro famoso articolo del 1969 in Phys. Rev. Letters e in Clauser e Horne in quello del 1974 su Phys. Review.
20 E’ la nota teoria di G. Ghirardi, A. Rimini e T. Weber, formulata in Phys. Rev. D, 34 (1986) e molto apprezzata da J. Bell in Speakable and unspeakable in quantum mechanics cit., pp. 202-4, come brillante tentativo di razionalizzazione della teoria basato appunto su una modifica di minima entità.
21 Un’esposizione organica della teoria della decoerenza è stata fornita da W. H. Zurek, in Phys. Today 44(1991). La stessa è attualmente in via di elaborazione ulteriore, sia dal punto di vista teorico, sia dal punto di vista sperimentale (cfr., tra gli altri, il contributo di M. Fortunato, P. Tombesi, D. Vitali e J. M. Raimond al Convegno su “I fondamenti della Meccanica Quantistica. Analisi storica e problemi aperti” (Lecce, ottobre 1998), i cui atti a cura di C. Garola e A. Rossi, sono in corso di stampa in inglese presso la World Scientific di Singapore, con il titolo The Foundations of Quantum Mechanics. Historical Analysis and Oper
Questions
).
22 E’ questo in particolare il tema trattato nel contributo citato di M. Fortunato et al.
23 Cfr. D. Bohm, Causalità e caso nella fisica moderna, Napoli , CUEN, 1997.
24 Cfr. D. Duerr, S. Goldstein e N. Zanghì, Bohmian Mechanics as the Foundation of Quantum Mechanics, in Bohmian Mechanics and Quantum Theory: An Appraisal, a cura di J. Cushing, A. Fine e S. Goldstein, Dordrecht, Kluwer Academic Press, 1996.
25 In particolare C. Garola fornisce un’interpretazione locale e non contestuale della meccanica quantistica in termini di “Realismo Semantico” (cfr., tra gli altri, il suo personale contributo al volume di atti citato alla nota 20) attribuendo l’origine della problematica dell’”entanglement” principalmente alla confusione semantica tra il concetto di stato e il concetto di proprietà. In effetti il primo si riferisce al modo in cui un sistema quantistico è stato preparato, quindi alla nostra informazione su di esso, che è necessariamente incompleta; il secondo si riferisce a ciò che è obiettivo in esso, indipendentemente dalla nostra conoscenza, ed è sempre semanticamente contrassegnato da valori di verità esatti, anche se non sempre accessibili. Si deve comunque notare che, secondo Garola, la contestualità e la non località seguono nell’interpretazione standard, da assunzioni che possono essere criticate. Se queste assunzioni sono fatte cadere, la non località e la contestualità possono essere evitate anche se tutte le correlazioni predette dalla meccanica quantistica possono essere controllate e comprovate.


Torna alla pagina principale