FISICA/MENTE

 

 

La Fisica:

scienza e linguaggio

Carlo Bernardini

 

"... oggetto della ricerca non è quindi più la natura in sé,

ma la natura subordinata al modo umano di porre il problema"

Werner Heisenberg, Natura e Fisica Moderna

Garzanti,1985

           1 – La realtà come “condizione iniziale”.

            Le tracce di pensiero scientifico si perdono nella notte dei tempi antichi, sfumando verso il primo concetto unificante della fenomenologia della realtà naturale: la ripetibilità degli eventi. Questo concetto, benché semplice frutto di osservazione + registrazione mnemonica, non è da poco: richiede di saper riconoscere la categoria a cui l’evento appartiene, a dispetto delle differenze che possono caratterizzare le condizioni iniziali, cioè lo stato del mondo in cui l’evento è “immerso” nell’istante (chiamato convenzionalmente “iniziale”) in cui si verifica, il suo “inventario di circostanze concomitanti all’evento”, così come appaiono a quell’ istante convenzionale, peraltro qualsiasi (sicché possiamo cambiarlo di volta in volta). Queste circostanze sono utili, al più, per stabilire data e luogo del fenomeno osservato; sono "mappa e cronometro" che localizzano l'evento ma non ne determinano il determinarsi. Dunque, lo spazio-tempo (come diremmo oggi) dell’osservazione è percepito come un universo di condizioni iniziali, in zone diverse del quale (nello spazio e nel tempo) cause analoghe producono analoghi effetti. La conclamata “regolarità” dei fenomeni non è altro che la manifestazione dell’omogenea reattività dello spazio delle condizioni iniziali. Ma c’è di più: la maggior parte delle osservazioni sulle condizioni iniziali ne sanciscono la non-influenza su eventi come quello che stiamo osservando e registrando: un vaso da fiori che cade da un balcone non cadrà diversamente se è giorno o notte, né se il vaso è bianco o rosso, né se i fiori sono garofani o azalee. Forse l'espressione "condizioni iniziali" è inappropriata, non aiuta la comprensione intuitiva: ma ormai è nell'uso tecnico. Comunque, è questa partizione della realtà che dà senso alla ricerca sistematica dei rapporti di causa ed effetto semplificandoli enormemente: infatti, da quel momento in poi il fenomeno osservato si disaccoppia, in un certo senso, dalla realtà che lo circonda, dal contesto delle condizioni iniziali, si isola dalla ridondanza che ha effetti pressoché nulli su di esso. Il fenomeno (il sistema fisico) così isolato acquista le caratteristiche di un ben identificabile oggetto dell'attenzione, che è suscettibile di descrizioni sintetiche e che fa da oggetto delle rappresentazioni mentali razionali della realtà. Ogni diversa concezione non fa altro che ammettere l’esistenza di influenze eccezionali del contesto o di eventi non classificabili, detti comunemente “miracoli” o “prodigi”.

 

            2La generalizzabilità.

La distinzione (e conseguente separazione) tra l’universo delle condizioni iniziali e l’universo degli eventi è un’idea di enorme valore scientifico. Senza di essa, la fisica come oggi la intendiamo non sarebbe mai nata. Di fatto, oggi – con il senno di poi -  con universo degli eventi intendiamo quello che Eugene. P. Wigner[1] chiama l’universo delle leggi, cioè l’universo dei modelli astratti (“formule” corrispondenti a “leggi”) di tutti i possibili fenomeni osservabili. Uno dei passi più formidabili della fisica è stato quello che, dagli inizi del ‘900, la ha portata a scoprire, al di là delle “leggi”, le cosiddette “superleggi” legate alle proprietà di simmetria dell’universo a cui le leggi appartengono. Ma stiamo correndo troppo.

            Nell’antichità, gli scienziati si facevano ad alta  voce domande molto semplici mentre altre le lasciavano nella mente o nei dialoghi appena sussurrati. La concorrenza delle “spiegazioni mitologiche”, come le chiama il biologo François Jacob[2] era troppo forte, perché le spiegazioni mitologiche sono risposte complete ed esaustive (es.: “perché il mondo è fatto così?”, “perché Dio così lo ha creato”; ecc.) mentre le “spiegazioni scientifiche” sono sempre parziali e cariche di dubbi e provvisorietà. Naturalmente, questa provvisorietà ha i suoi vantaggi, le sue conseguenze benefiche: la spiegazione scientifica, in quanto scaturita dall’analisi di “casi particolari”, è “generalizzabile”, quella mitologica no perché è già onnivalente e completa “per costruzione”. Per intenderci, la comprensione del moto di caduta dei sassi vicino alla superficie terrestre (G:Galilei) – per esempio - avrà come generalizzazione la comprensione e la prevedibilità, almeno entro limiti eccellenti, del moto degli astri (J. Kepler, I.Newton, A. Einstein). Dunque, l’osservazione di fenomeni e di relazioni di causa ed effetto in ambiti particolari dell’universo delle condizioni iniziali non è affatto un’attività trascurabile se combinata con l’intuito generalizzatore del pensiero che, così, diventa “motore scientifico della conoscenza”. Evidentemente, l’osservazione passiva, tramutandosi in osservazione attiva allorché si esegue un predeterminato esperimento, sta alla base di ogni scienza della natura. Questo dovrebbe essere così “ovvio” da potersi considerare come un assioma fondante di ogni “filosofia della natura”; in questo senso, la pretesa di alcune filosofie di altro genere, di produrre nella mente una rappresentazione dell’universo che prescinda dall’osservazione, appare come uno scomposto delirio di onnipotenza.

 

           3 – Nascita della geometria.

E’ naturale che, così come con la parola “osservazione” ci si riferisce principalmente a ciò che è percepibile con gli occhi (nessuno penserebbe istintivamente a osservazioni olfattive o uditive o tattili) altrettanto naturale è che l’attenzione degli antichi sia stata attratta prima di tutto dalla geometria. La geometria si presenta perciò come primo esempio di "laboratorio linguistico" per l'elaborazione di linguaggi scientifici". Oggi la geometria è vista come un ramo astratto della matematica, ma in realtà si tratta di una scienza con evidenti radici nell’esperienza umana. La geometria è comunque un buon campo per esercitarsi a riconoscere il processo di generalizzazione dei concetti e del loro uso: basti pensare alla gerarchia delle nozioni di lunghezza-area-volume e alla possibilità che offrono di introdurre convenzioni sulle unità di misura e di utilizzare i concetti di similitudine e scala. La geometria contemporanea supera addirittura il numero 3 delle dimensioni spaziali comunemente osservate e costruisce concetti in un numero qualsivoglia di dimensioni, ormai con sforzo relativamente ridotto anche se al profano resta difficile pensarci con la sola immaginazione. La geometria è comunque un trampolino per la formazione della mente infantile che, da lì, impara a procedere con razionalità quantitativamente esplicitata. Mostriamo qua subito in un riquadro (R1) come un risultato colossale, il “teorema di Pitagora”, possa discendere senza sforzo da una chiara “manipolazione” delle nozioni di base della geometria opportunamente formalizzate. Questo riquadro è anche l’occasione per mostrare come la formalizzazione sia una necessità imprescindibile per illustrare certe proposizioni generali. In essa, cerchiamo di mostrare come proposizioni, che indubbiamente possono essere enunciate nel linguaggio comune, acquistano una potenza sintetica di straordinaria efficacia quando siano tradotte in formule, sebbene ancora semplicissime. Ovviamente, l’evoluzione delle strutture formali verso problemi di crescente astrazione si distacca rapidamente dall’esprimibilità nel linguaggio quotidiano e, perciò, dal senso comune. E’ un preludio alla descrizione della scienza come “superamento del senso comune”: in queste sempici considerazioni è però racchiuso il germe del dramma didattico su cui conviene meditare.

 

R1 - Il teorema di Pitagora per fisici.[3]

            Che cos’ è una superficie piana chiusa? E’ lo spazio che sta dentro una linea chiusa tracciata su un piano: un pavimento, un tavolo. Un piano limitato è un elemento di ciò che chiamiamo uno “spazio piatto”. Prendiamo un esempio semplice: un piano di forma rettangolare, con quattro lati saldati in quattro vertici perpendicolarmente l’uno all’altro adiacente. I lati opposti sono a due a due di uguale lunghezza; se tutti e quattro sono uguali, il rettangolo diventa un quadrato. Ora, prendiamo (è una nostra scelta particolare, ma nessuno ci vieta di farla) un quadratino più piccolo, anche molto più piccolo del piano rettangolare che stiamo usando; una specie di “mattonella ideale”, la mattonella “unitaria”. Se vogliamo fare un pavimento completo con quei mattoni sul nostro piano, quanti ce ne serviranno? (Naturalmente, non è detto che si possa ricoprire il piano con mattonelle intere: ma questo è banalmente comprensibile e rimediabile). Chiedere quanti, significa scegliere una unità di misura dello spazio piano, appunto il “mattone unitario”, di area convenzionalmente uguale a 1; per poi dire: l’area del nostro piano rettangolare e di “tot” mattoni-unitari; misurata cioè, in quelle unità, dal numero di mattoni che riempiono la superficie chiusa che è il nostro piano. L’esperienza più significativa è ora questa: se cambiamo il lato dei mattoni-unità, per esempio raddoppiandone la lunghezza, scopriremo che il numero di mattoni necessari per coprire il piano è 4 (quattro) volte più piccolo. Se usiamo mattoni di lato tre volte più lungo, ce ne vorrà un numero 9 (nove) volte minore; se usiamo invece mattoni di lato lungo metà, ce ne vorranno 4 (quattro) volte di più. Osservate: 4=2x2, 9=3x3, eccetera. L’area cambia come il prodotto lunghezza5lunghezza del mattoncino-unitario. Già questo è un passo formidabile. Ma allora, siete capaci di capire da voi che, se sul bordo del nostro piano riportiamo solo la lunghezza del lato del mattoncino e misuriamo quanti lati di mattoncino  ci stanno su due lati perpendicolari del rettangolo, il prodotto del numero di lati-mattoncino sui due segmenti perpendicolari che identificano il rettangolo è esattamente il numero di mattoncini che il piano conterrebbe? Dunque: l’area del rettangolo è il prodotto “base per altezza”, cioè le lunghezze della base e dell’altezza del rettangolo misurate con unità di misura scelte da noi (i lati del mattone-unitario, oppure le unità indicate sul righello). Se siete capaci di spiegarlo anche a un bambino di 5 o 6 anni, avete diritto alla corona di supermaestro. Ma il teorema di Pitagora richiede ancora un piccolo sforzo.

 


 
Fig. 1

 Prendete una superficie piana, chiusa, di forma qualsiasi; scegliete due punti come vi pare, sul perimetro, diciamo (vedi figura 1) A e B. Disegnate una linea (AB, nel seguito) che vada da A a B, di forma serpeggiante o no, dentro il perimetro (per non complicarsi la percezione della figura: ma non cambia nulla, dopo ve ne renderete conto da soli). Misurate la lunghezza della linea AB: basta sovrapporre uno spago, poi tenderlo e misurarlo con il righello. Diciamo che la lunghezza AB è L. Adesso viene il bello: immaginiamo di fare un ingrandimento omogeneo della figura (con le fotocopiatrici di oggi è semplicemente possibile): tutte le dimensioni del piano si espandono ugualmente. Naturalmente, se rimpicciolissimo sarebbe lo stesso. E’ evidente che la lunghezza L di AB si allunga, diciamo cambia per un fattore numerico di ingrandimento che chiameremo k: L ® kL. L diventa k-volte L. Che cosa succederà all’area di quella superficie piana ingrandita, cioè al numero di mattoni unitari in essa collocabili? Dovrebbe essere banalmente comprensibile, come nell’esempio del rettangolo, che l’area aumenta di k5k volte o, come si abbrevia convenientemente, k2 volte (non a caso questa notazione si chiama “quadrato”, in onore dell’area della più semplice figura piana, appunto il quadrato). Gli scettici possono sempre scomporre la figura, per complicata che sia, in quadratini; e farsi un’idea di ciò che succede all’area dei quadratini sotto ingrandimento. Il modo di cambiare delle aree con il fattore di ingrandimento k è perciò diverso da quello delle lunghezze: indipendentemente  dalla forma della figura piana e della linea AB scelta in essa, l’area cambia come k2 e le lunghezze come k. Il risultato importante, che discende dalla sola definizione di area, sta in quella parola “indipendentemente”. Ora lo riformuliamo meglio, premettendo alcune parole chiave:

1 – al posto di “ingrandire” e “rimpicciolire” useremo il verbo “scalare” che contiene entrambe le possibilità. Il fattore k si chiama “fattore di scala” e può essere maggiore di 1 (k>1) per l’ingrandimento, minore di 1 (k<1) per il rimpicciolimento.

2 – se si scala una figura piana, se ne ottiene un’altra che si chiamerà “simile” perché le somiglia riconoscibilmente: la “similitudine” delle figure piane è il semplice risultato dell’applicazione di un unico fattore di scala, in tutte le direzioni del piano.

3 – La linea AB che abbiamo tracciato e su cui misuriamo il fattore di scala può essere scelta a piacere: generalmente, si sceglie una linea caratterizzante delle proprietà di simmetria della  figura, come il raggio del cerchio, il lato del quadrato, la base o l’ipotenusa di un triangolo, ecc.

            Allora, il risultato sopra illustrato si può riassumere così:

<<L’area di una qualsiasi superficie piana si può rappresentare come il prodotto di un numero, f, che dipende dalla forma ma non dalla scala della figura (il “fattore di forma”) per il quadrato della lunghezza di una qualsiasi linea caratterizzante: area = fL2. Naturalmente, al variare della scelta della linea caratterizzante (ma non della sua lunghezza L) varia il  valore numerico del fattore di forma f>>.

            Si possono fare semplici esercizi, come quello di scrivere l’area del quadrato in funzione della lunghezza della diagonale, o quella del cerchio in funzione della circonferenza, e così via; serve a prendere pratica di come cambia f da una scelta all’altra. Detto questo, prendiamo un triangolo rettangolo (cf. fig. 2). AB è l’ipotenusa, AC e BC i cateti.

 


 
Fig.2

 

Dal vertice C opposto all’ipotenusa, tiriamo il segmento CH perpendicolare all’ipotenusa: otteniamo due triangoli, rettangoli per costruzione di CH; la somma delle aree di ACH e BCH è uguale (guardare per credere) all’area di ABC. Ma ora, AC e BC sono ipotenuse dei due triangoli ACH e BCH, così che, se f è il “fattore di forma” associato a qualsiasi ipotenusa di triangolo rettangolo simile a ABC, se ACH e BCH sono simili ad ABC segue che, essendo AC e BC ipotenuse dei due triangoli ACH e BCH:

            f (AB)2 = f(AC)2 + f(BC)2                                          (D)

ovvero, dividendo per f, cioè eliminando il fattore di forma uguale per ogni triangolo simile: <<il quadrato (della lunghezza) dell’ipotenusa è uguale alla somma dei quadrati (delle lunghezze) dei cateti>>. Che ABC, ACH e BCH siano simili è banale constatarlo, sia misurando i lati e constatando che il fattore di scala è lo stesso per tutti e tre i lati di ciascun triangolo rispetto ai corrispondenti lati di ABC; sia constatando che gli angoli al vertice dei tre sono uguali a due a due (se si adagiano ACH e BCH dentro ABC dopo averli ritagliati e sovrapposti in modo che i tre angoli retti combacino, gli originarii lati AB, BC e AC diventano segmenti paralleli). Dunque il teorema di Pitagora (D) è una semplice e utile conseguenza della definizione di “area”.

 

           4Dalla geometria alla fisica.

 La geometria è una scienza-prototipo tra le scienze sperimentali. Solo in un secondo momento, con la moltitudine di geometrie “inventate” dopo l’euclidea, diventa un vero ramo della matematica pura, non contaminata dagli usi pratici legati all’idea di “misura”. E’ possibile generalizzare il modo di affrontare questi problemi di figure geometriche ben caratterizzate, come i triangoli rettangoli, alle metodologie con cui scovare le proprietà generali di fenomeni fisici, per esempio il moto dei corpi o le proprietà dei gas o le manifestazioni dell’elettricità e del magnetismo?

Sì, è possibile: il processo richiede di “idealizzare” la rappresentazione della realtà osservata in modo che gli elementi dell’evento in considerazione si staglino schematicamente sullo sfondo delle condizioni iniziali che lo “indicizzano” (ci vorrebbe un buon equivalente dell’inglese “to label”) nell’universo. Questa modalità non è diversa da altre di uso comune se non per il deliberato intento di schematizzare le peculiarità salienti dell’evento stesso, riportandole in un linguaggio che si libera per quanto possibile delle connotazioni, per così dire, “geografiche” e dunque convenzionali, spazio-temporali. Per fare un esempio terra-terra, se incontriamo una persona che ci restituisce inopinatamente 1000 euro che le avevamo prestato, poco importa che l’incontro avvenga alle 11.30 del mattino a via del Cavallo Vapore o alle 17.15 del pomeriggio in piazza del Kilowattora. Più significativa, nella differenza tra l’analisi di eventi naturali e la registrazione di eventi mondani, è la schematizzazione dei primi, che ne permette la rielaborazione formalizzata e qualche generalizzazione al riparo dall’intrusione delle “opinioni personali”. Questo va sottolineato perché rappresenta da un lato, quando è rispettato, un pregio, per così dire “automatizzato”, del linguaggio scientifico; dall’altro, fornisce uno strumento di controllo esplicito delle proposizioni con regole razionalmente collaudate come quelle della matematica.

Un buon esempio – e magistrale – ce lo dà Galilei. La caduta dei gravi appartiene alla classe degli eventi semplici da analizzare. Una successione di misure sulla corrispondenza quota-tempo nella caduta libera di un oggetto pesante, se tradotta nel linguaggio della geometria (fig. 3) come fece Galilei, mostra che la velocità di caduta aumenta progressivamente, in modo proporzionale, con il tempo. Sicché il rapporto velocità- tempo, detto “accelerazione”, non cambia durante la caduta e il moto può essere classificato come “uniformemente accelerato”. Questo è alla portata di tutti, assai più che non la sua conseguenza, oggetto di elaborazione matematica, che consiste nel fatto che la successione delle quote procede con una legge quadratica, nel tempo, di aumento della separazione verso il basso dalla quota iniziale.

Fig. 3 Il disegno originale di Galilei: i segmenti orizzontali nel triangolo a destra mostrano come cresce la velocità al passare del tempo per intervalli uguali (da D a C).

 

E però la fig.3 mostra come la schematizzazione geometrizzante di Galilei raffigura tutto ciò in modo inequivocabile. Tuttavia, il vero capolavoro dell’analisi galilaeana dell’evento è in parte occulto: Galilei sapeva benissimo che una foglia o una piuma non cadono come un sasso, ma aveva deciso, guidato dall’intuizione o “naso” che dir si voglia, di semplificare l’universo delle condizioni iniziali immaginando che, in esso, l’aria non ci fosse.  Le semplificazioni sono probabilmente un passo più in là del senso comune: non di rado sono opinabili, ma questa, di Galilei, sembra fondata; comunque è in buona misura verificabile, anche senza fare esperienze nel vuoto. Effettivamente, questa semplificazione procede come un’operazione di “limite” che consente di sperimentare nonostante l’aria. Si tratta di capire con “sensate esperienze” che, all’aumentare del peso del grave, l’effetto di resistenza alla caduta prodotto dall’aria diventa sempre più trascurabile. Sicché si arriva a ipotizzare che nel vuoto, quando l’aria non c’è, piuma e sasso cadano allo stesso modo, con accelerazione costante. E qui spunta, inattesa, la “scoperta” folgorante, quella che mostra la natura di “superamento del senso comune” della fisica: l’accelerazione di caduta, nel vuoto, di qualsiasi grave, è indipendente dal suo peso! Sembra una affermazione che fa a pugni con ciò che ci immaginiamo senza sperimentare: ci immaginiamo che ciò che più pesa cada più rapidamente in basso perché il peso lo “tira” di più. L’accelerazione, detta di gravità, alla superficie della Terra, dove siamo circondati dalle abituali condizioni iniziali umane, è unica: chiamiamola dunque g una volta per tutte e per tutti. Quanto vale? 9,8 m/s2, il che vuole dire che la velocità di caduta aumenta, in ogni secondo, dall’inizio fino all’impatto al suolo, cioè finché il corpo cade, di 9,8 m/s  (sarebbero circa 35,3 km/h: l’uso dell’auto determina dimestichezza con queste unità anziché i metri e i secondi; molti purtroppo sono ancora così analfabeti da non saper “convertire” m/s in km/h).  In ogni caso, nel ‘600, quando non c’erano le riviste di auto e moto a esemplificare con la velocità raggiunta in un secondo con partenza da fermo (virtù della “sgommata”!), la nozione di accelerazione era assai ostica. Si osservi che oggi abbiamo notazioni che semplificano moltissimo l’identificazione e l’uso di questi concetti; ma a quel tempo…

 

5 – Il mondo è bello perché è vario.

La matematica e la geometria (che ne è parte fondante) toccano concezioni astratte di grande difficoltà logica. Però hanno il vantaggio di lavorare su “oggetti” mentali non molto assortiti: numeri decontestualizzati, variabili e parametri rigorosamente anonimi, figure che al più ricordano remoti antenati qualificati come lunghezze misurabili e loro derivati. E’ come vivere in un Club esclusivo dove si giocano partite raffinatissime e si discute di strategie di gioco e, per regolamento, nient’altro.. Un fisico, come gli altri “naturalsti”, non si è imposto alcun limite sulla varietà di oggetti di interesse. Semmai, va molto al di là dei pur ottimi scienziati che sono presi soprattutto dalla preoccupazione di inventariare la realtà (zoologi, botanici, geologi, astronomi classici). I fisici smontano i fenomeni per vedere come funzionano; nel fare questo, sono specialisti nel costruire simulacri della realtà, modelli, che in un certo “spazio mentale” sembrano riprodurre gli eventi spazzando via il superfluo e puntando il dito sull’essenziale. Che poi sarebbe, appunto, “la Fisica”. Per fare questo, non esitano a saccheggiare il Club dei matematici, trasformando la refurtiva in un modo che quelli considerano così volgare da non volerla più indietro. Gli oggetti matematici più disparati acquistano nuove etichette che agli ex proprietari[4] sembrano ributtanti: diventano densità di massa, campo elettrostatico, temperatura critica, integrale d’azione e tante altre cose che ai matematici sembrano prese in un negozio di impianti igienici ed elettrodomestici.

Il fatto è che la realtà ha una misteriosa molteplicità di “qualità essenziali”, oltre le lunghezze (e i tempi); qualità che si possono combinare in modo da generarne infinite altre, a piacere (ma non è detto che poi servano tutte, che abbiano un senso: anzi, la fisica ha il suo bel da fare a trovare quelle che servono veramente). Ci sono le masse, le forze, i campi, le temperature, le cariche elettriche, i dipoli magnetici, i momenti angolari, le costanti universali, le funzioni termodinamiche, e decine e decine di altre nozioni complesse. E’ vero che non è da queste che si parte, ma anche l’apparentemente semplice obiettivo di costruire un “sistema scientifico di spiegazione” basato non sulla sola nozione di lunghezza, come in geometria, ma su masse, lunghezze e tempi, è una sfida formidabile: se dalle lunghezze nascevano aree, volumi, ipervolumi, qui, come abbiamo già elencato, nasce una varietà enorme di parole/strumenti.

L’esser massa di una massa avrebbe fatto la felicità dei filosofi medievali: è una “quidditas”, una “essenza” come nessuna altra pensata nel passato lo è mai stata. Così per le altre varie grandezze.  E’ di queste essenze che ai matematici non importa nulla; anzi, le considerano un fastidioso fardello. E’ per questo che la fisica ha dovuto sviluppare una “matematica delle dimensioni”, in cui si generalizza il concetto di similitudine in modo assai originale. Questa matematica delle dimensioni è strettamente simbolica e molto “linguistica”, in questo senso: constatato che tutte le proposizioni o asserzioni utili che rappresentano leggi fisiche sono del tipo A = B, dove A è qualcosa e B qualcos’altro (entità, sino a quel momento storico, non ritenute equivalenti, comunque distinte) la matematica delle dimensioni introduce e verifica una regola del gioco, un vero e proprio “principio semantico”. A e B devo avere la stessa natura, devono essere grandezze “omogenee”. Se A è una lunghezza, B non può essere un tempo o una massa, e nemmeno un’area o un volume; e così via. Viene istituito un “principio di omogeneità” che presiede alla correttezza del linguaggio, il che è una novità assoluta: perché non di correttezza grammaticale o sintattica si tratta, ma di correttezza di senso.

Si può dire in parole povere su che cosa esercita la sua “sorveglianza” questo principio di omogeneità? Esso garantisce che le nostre scelte umane, arbitrarie, non si mescolino con i fatti naturali. Se una legge di natura è vera, lo è indipendentemente dal fatto che scegliamo un certo campione di lunghezze, un certo di tempi, un certo di masse, per misurare le grandezze che figurano in quella legge Questa scelta si chiama “la scelta del sistema di unità di misura”: non è unica e lascia la doppia libertà di cambiare il campione per un fattore di scala oppure di cambiare la natura della grandezza campione, purché il numero di quelle “indipendenti”, cioè non riconducibili l’una all’altra, sia sempre lo stesso (3, nel caso della fisica attuale). Per esempio, lunghezze, tempi e masse possono essere sostituite da velocità, frequenze e densità; ma non da densità, masse e volumi (perché una densità è massa/volume). La superiorità dei numeri senza attributi dimensionali rispunta sotto questo rigoroso aspetto “disumanizzante”, cioè depurato da arbitri umani per innocui che siano: una buona legge deve essere traducibile in una relazione tra puri numeri, cioè numeri che non cambiano sotto trasformazioni  di scala (vedi Riquadro R1) o (che è circa lo stesso) di unità di misura.

 

R 2 – Nuove similitudini

Torniamo al problema della caduta dei gravi e alle scoperte di Galilei (§ 4). Dunque, Galilei dice che per qualsiasi corpo che cade nel vuoto ci apettiamo che tutto sia regolato da un solo parametro, g, una accelerazione. Questo g  è una velocità diviso un tempo; la velocità, a sua volta, è una lunghezza (distanza) diviso un tempo. Sicché, per ottenere una  lunghezza (la quota di caduta h) dal tempo di caduta t e da  g non si può fare altra combinazione che gt2. Ma gt2 non è h: non abbiamo modo di indovinare, per questa via, il fattore numerico f mancante (del tipo dei fattori di forma, di cui in R 1 la definizione per la geometria). Allora, ciò che si può dire è che

                                               h =fgt2                                   (H )           

il che permetterebbe di ricavare f da misure (anche una sola!) di h, t e g , ma indipendente dalle unità, purchè sempre nello stesso (qualsivoglia) sistema per le tre grandezze (p.es.: metri per h, secondi per t e quindi m/s2 per g).  Ma la (H )  si può usare in altro modo: supponiamo di voler confrontare i tempi di caduta t1  e t2 da due quote diverse h1 e  h2. Allora, basta verificare dalla (H )  che, se f non dipende da nulla, è un puro numero, allora

                        h1/h2 =(t1/t2)2                                      (H ) (H )

In tal caso, la legge di caduta, indipendente a vista dalla scelta di unità di misura, si ripropone come legge di “similitudine”. Nella forma (H ) (H )  permette di scegliere una delle due misure di caduta come “campione” e rapportare l’altra a quel campione.

Ma non tutto, in fisica, si esaurisce nell’applicazione del principio di omogeneità ai risultati delle misure. Le situazioni possono essere più complicate e richiedere formulazioni basate su “congetture” di altra natura. C’è un linguaggio soggiacente alle congetture?

 

6 Il linguaggio delle congetture.

L’interpretazione dei dati dell’esperienza conduce a una modalità di analisi che si chiama, espressivamente,“fenomenologia”. Nella ricostruzione fenomenologica, i dati vengono elaborati in forma diagrammatica in modo da suggerire certe relazioni al loro interno. Queste relazioni hanno nome di “dipendenze funzionali” e  la loro presentazione utilizza la stessa efficacia visuale che fa capire gli oggetti geometrici nel piano. Abbondano gli espedienti che aiutano l’occhio: carta logaritmica, semilogaritmica, quadratica, polare, eccetera. Una volta identificata questa dipendenza funzionale, si cerca di darne una rilettura che riconduca la fenomenologia a “principi primi”: questo richiede una grande esperienza. In Italia, abbiamo avuto in Enrico Fermi un grande fenomenologo, dalla cui opera scientifica possiamo imparare le enormi difficoltà concettuali della fenomenologia. Per fare un esempio non banale, supponiamo di mescolare due sostanze gassose e di osservare che la comparsa di un certo composto, che si può evidenziare in qualche modo con il passare del tempo, corrisponde a quantità crescenti tanto più rapidamente quanto più grandi sono le densità (o le pressioni) dei due gas mescolati. Ebbene, se la velocità di reazione cresce con il prodotto delle pressioni (densità), questo corrisponde a ipotizzare un meccanismo di “urti binari”, urti in cui una molecola del primo gas incontra una molecola del secondo e reagisce con essa formando una molecola di composto. Se l’urto fosse ternario e una molecola del primo gas dovesse incontrarne due del secondo per fare il composto, la velocità di reazione andrebbe con la densità del primo e il quadrato della densità del secondo; e così via.Questa   modalità  di intuizione non sipresenta  in genere come conoscenza  resa in forma proposizionale esplicita.

Ma poi, ci sono modalità più vicine alla “creazione artistica”, alla pittura o all’evocazione poetica. Albert Einstein, Werner Heisenberg, Erwin Schroedinger, Paul   Dirac, Niels Bohr, Richard Feynman, e, tra i nostri, Ettore Majorana, Bruno Pontecorvo, Bruno Touschek (e tanti altri, come si dice per mettersi al riparo da possibili gaffes bio-bibliografiche) hanno avuto intuizioni fuori del senso comune, fuori dalla percezione diretta della realtà. Essi “creano” un’immagine mentale che non può essere formulata direttamente nel linguaggio comune ma corrisponde a strutture formali elaborate direttamente nel cervello senza evidenti osservazioni pregresse. Il dualismo onda-corpuscolo delle particelle subatomiche, la rappresentazione di forze con lo scambio di mediatori, i campi come portatori di segnali nel vuoto, i quark, le oscillazioni dei neutrini, che qui suonano forse come un elenco di “parole in libertà”, sono in realtà ingredienti della realtà resi accessibili attraverso il supporto linguistico creato per essi dagli specialisti. La loro motivazione principale è che sono “possibili”, una classe di entità più vasta del reale, nella quale si pesca come in un enorme magazzino di universi alternativi. Da qualche anno a questa parte, la fisica ha acquistato una spregiudicatezza intollerabile per le epistemologie classiche: il metodo scientifico non ha più la funzione di guidare la ricerca ma spesso si trova nella condizione di accreditarla. E’ qui che la matematica rientra, sottraendosi alla clausura a cui i matematici la vorrebbero condannare e si dimostra – loro malgrado – unica lingua possibile per superare quella del senso comune. Devo insistere sul fatto che la fenomenologia ha bisogno di strumenti linguistici assai meno esotici di quanto non lo sia la creazione teorica, ma i confini tra le due non sono così netti. Questo forse meriterebbe una analisi approfondita: probabilmente, questa analisi aiuterebbe a riconciliare epistemologia e fisica in modi auspicati tanti anni fa dal circolo di Vienna e, particolarmente, da Richard von Mises[5]. Ma qui mi fermo, sperando di riprendere il discorso su questi ultimi aspetti più problematici.

 

[1] R.M.F.Houtappel, H.van Dam, E.P.Wigner, The Conceptual Basis and Use of Geometric Invariance Principles, Rev. of Mod. Physics, 37,1965, p. 595

[2] F.Jacob, Il gioco dei possibili, Mondadori, 1980

[3] Vedi, p.es. in R.V.Gamkrelidze (ed.), Geometry I, in “Encyclopaedia of Mathematical Sciences”, vol.28, Springer Verlag, 1991: D.V.Alekseevski, A.M.Vinogradov, V.V.Lychagin, “Basic Ideas and Concepts of Differential Geometry”, §3, “On the History of  Geometry”

[4] Godfrey Harold Hardy, A mathematician Apology, Cambridge U.P., 1967

[5] R. von Mises, Manuale di critica scientifica e filosofica, Longanesi, 1950

Torna alla pagina principale