Agli inizi dell’autunno 2011, i media si sono occupati di una notizia che ha suscitato sensazione: quella riguardante alcuni neutrini, particelle elementari leptoniche, i quali avrebbero viaggiato più veloci della luce… lungo i 735 km di rocce sotterranee che separano il CERN di Ginevra (dove si trova l’acceleratore di particelle LHC, da cui sono stati emessi i neutrini veloci) e le caverne del Gran Sasso, dove si trovano i rilevatori di neutrini del progetto OPERA.
La sensazionalità della notizia, mal riportata e mal commentata dai non specialisti, a ennesima riprova che “un bel tacer non fu mai detto” (troppi giornalisti scrivono a vanvera), concerneva la conseguenza dell’esistenza di neutrini superluminali, ovvero il crollo della Teoria della Relatività di Albert Einstein (TdR), uno dei capisaldi della fisica, secondo la quale la velocità della luce (C = 299.792,458 km/sec.) costituisce limite di velocità insuperabile, certamente per corpi dotati di massa. Al di là delle molte considerazioni udite sulla disinformazione dei media, sulla gioia dei detrattori della scienza e dei fautori dell’assenza di solide leggi fisiche che tutto permetterebbe, inclusi i colloqui con gli spettri e i viaggi nelle altre dimensioni, vorrei in questo articolo esprimere la mia opinione di astrofilo e divulgatore scientifico chiarita dal titolo: anche se giungesse la conferma dell’esistenza di particelle più veloci di C la TdR non verrebbe confutata ma corretta e integrata. Cominciamo dalla TdR.Il fisico olandese H.A. Lorentz, alla fine del XIX secolo, rielaborò la teoria del campo elettromagnetico di J.C. Maxwell, poiché essa non contemplava l’esistenza degli elettroni (da lì a poco dimostrati definitivamente da J.J Thompson e A. Millikan). Nella sua revisione della teoria di campo, Lorentz utilizzò lo strumento matematico delle “trasformazioni”, dette poi trasformazioni di Lorentz (le trasformazioni consentono il passaggio da un sistema di coordinate, come lunghezza, massa, ecc. ad un altro, lasciando invariate le leggi di partenza): i risultati ottenuti furono sorprendenti, indicando che un oggetto, come l’elettrone appunto, che si approssima alla velocità C, vede incrementare la propria massa verso valori infiniti, contrarsi lo spazio nella direzione del moto, dilatarsi lo scorrere del tempo fino ad arrestarsi. Lorentz non intuì la portata delle sue scoperte, Einstein sì, e partì proprio da Lorentz e Maxwell (che fu tra l’altro il primo a comprendere che la luce è un fenomeno elettromagnetico) nonché dagli esperimenti di A. Michelson e E. Morley (che misurarono con buona precisione la velocità C, nel 1887) per elaborare un’idea semplice ma geniale perché controintuitiva: se la velocità C non può essere superata e la velocità è data dallo spazio percorso nell’unità di tempo, allora devono essere lo spazio e il tempo a dover variare, come dimostravano i calcoli di Lorentz. Bisognava aver coraggio a demolire la concezione Newtoniana, resistente da secoli, che lo Spazio e il Tempo non possiedono valore assoluto e invariante. Infatti, la TdR Speciale o Ristretta (la TdR Generale riguarda invece oggetti che si muovono di moto accelerato, non uniforme, dunque concerne la gravità e la curvatura dello spazio), sostiene che, a seconda del moto degli osservatori rispetto a un sistema di riferimento, il tempo non scorre alla stessa maniera e le distanze tra oggetti non si mantengono le stesse per tutti. Paradigmatico è il Paradosso dei gemelli: un gemello resta sulla Terra mentre l’altro si imbarca su un’astronave che viaggia al 99% di C, circa 297.000 km/s, per raggiungere una stella lontana 9,5 anni luce, corrispondenti a 90 mila miliardi km. Al ritorno sulla Terra, il gemello rimasto a casa misura in 180 mila miliardi i km percorsi dall’astronave e in circa 19 anni il tempo trascorso dalla partenza del fratello. Il contachilometri dell’astronave, invece, misura 7.800 miliardi di km percorsi e solo 0,9 anni il tempo trascorso, sicché un gemello risulterà invecchiato solo il 4,3% rispetto all’altro. Da questi dati appare evidente che concetti come simultaneità, sincronizzazione, ecc. non hanno validità assoluta, e se noi li usiamo tutti i giorni è perché a velocità non relativistiche, a cui siamo avvezzi, gli scarti di tempo e spazio tra osservatori diversi sono irrilevanti. Veniamo ai neutrini, particelle appartenenti alla famiglia dei leptoni (= leggeri) insieme a elettroni (e-), muoni (μ) e particelle tau (τ). I neutrini vengono prodotti nelle stelle nel corso delle fusioni nucleari, nelle esplosioni stellari, nel decadimento degli isotopi radioattivi come l’uranio (decadimento beta, quando un neutrone si trasforma in un protone) e negli acceleratori di particelle, dove i protoni vengono fatti scontrare tra loro a elevatissime velocità. I neutrini possiedono talune caratteristiche uniche, come il fatto di oscillare, cioè di cambiare “sapore”; tre sono i sapori neutrinici: neutrini elettronici, muonici e tauonici a seconda se siano associati a emissione e decadimento dei rispettivi leptoni. Ebbene, mentre si spostano nello spazio-tempo, i neutrini mutano da elettronico a muonico o a tauonico, come accade, per esempio nel viaggio dal Sole alla Terra, ove giungono soltanto un terzo dei neutrini elettronici emessi dalla nostra stella (gli altri 2/3 sono intanto diventati μ e τ). Altra prerogativa assai importante dei neutrini, è la scarsissima interazione con le altre particelle di materia (sono soggetti alla sola interazione debole, la forza che si manifesta nei decadimenti radioattivi), cosicché essi possono attraversare montagne, pianeti, stelle, galassie intere, senza essere fermati o deviati, tanto da essere utilissimi in astronomia, poiché essi arrivano dall’altra parte dell’universo intatti, come furono generati dalla sorgente, permettendoci di ricevere informazioni originali da luoghi lontanissimi (oltretutto, mentre i fotoni di luce di ogni frequenza elettromagnetica, onde radio, I.R., U.V., raggi X e gamma, interagirono con la materia bollente al tempo dell’universo primordiale, cosicché noi possiamo “vedere” il cosmo soltanto quando si raffreddò a sufficienza da far trasparire i fotoni, 370 mila anni dopo la sua nascita, i neutrini invece si diffusero subito, pertanto, se potremo “fotografare” il primo istante del cosmo e, forse, prima, lo potremo grazie all’astronomia neutrinica). Veniamo adesso alla cronaca recente.L’esperimento OPERA è stato ideato per verificare proprio le oscillazioni dei neutrini emessi dall’acceleratore LHC di Ginevra e indirizzati verso le caverne del Gran Sasso; in particolare, si è lavorato sui neutrini tau, e siccome la particella tau ha massa notevole, essendo la più pesante tra i leptoni, i neutrini necessari per l’esperimento dovevano essere assai veloci, cioè molto energetici (ricordiamo che la nota E = mc2 della TdR pone equivalenza tra massa e energia). Nel corso degli esperimenti, è stato registrato che questi neutrini superveloci hanno raggiunto il bersaglio non solo prima del previsto, ma addirittura hanno superato la velocità C, violando due volte la TdR Speciale, giacché i corpi dotati di massa non potrebbero neanche raggiungere la velocità C (la massa diventerebbe infinita), figuriamoci superarla. A questo punto, la notizia sarebbe scientificamente clamorosa. Ma vi sono molti aspetti da valutare e su cui riflettere:
- i neutrini, particelle di cui sappiamo ancora poco e per molti versi “particolari”, hanno impiegato circa 2,5 millesimi di secondo per percorrere i 735 km sotto terra, mentre lo scarto, rispetto a C, è stato di 60 miliardesimi di secondo, dunque una frazione inferiore di decine di milioni di volte, uno scarto che potrebbe rientrare nell’errore sistematico di misurazione
- l’esperimento, per quanto ripetuto, ha utilizzato lo stesso protocollo, pertanto necessita che i suoi risultati siano replicati in condizioni diverse, con altri strumenti, in altre circostanze (dagli Usa arriveranno nuovi dati entro un anno) e solo allora si potranno formulare conclusioni e ipotesi serie
- in passato, molte volte è successo che nuove esperienze contraddicessero teorie consolidate; a volte le teorie sono state del tutto confutate, altre volte solo corrette, altre volte ancora hanno avuto ragione le teorie, come quando sembrava che la meccanica celeste di Newton fosse contraddetta dall’orbita irregolare di Urano, finché si scoperse Nettuno, vero responsabile delle irregolarità;
- vi sono teorie che non meritano tale attributo, essendo ancora soltanto ipotesi di lavoro o congetture e pertanto nessuno trova eclatante la loro critica e demolizione; di recente, la osservazione di galassie ben formate, vecchie oltre 10 miliardi di anni (formatesi cioè dopo solo tre miliardi di anni dal Big Bang) contraddice i modelli teorici attuali di formazione delle galassie; la stella SDSSJ102915 composta di solo idrogeno e elio, sta mettendo in dubbio i modelli standard di formazione stellare: questi sono due esempi attualissimi di come teorie scientifiche siano rimesse in discussione, ma esse non sono teorie ancora degne di tale appellativo bensì modelli provvisori
- la crisi della TdR sarebbe gravida di conseguenze, talune assai stimolanti, altre alquanto preoccupanti, giacché andrebbe in crisi anche la teoria del campo elettromagnetico di Maxwell ( è una teoria intrinsecamente relativistica, d’altronde Einstein partì proprio da lì), oppure, se si mantenesse intatta la TdR e la teoria di Maxwell, andrebbe in crisi la teoria della interazione elettrodebole (unione di elettromagnetismo e interazione debole, a cui soggiacciono i neutrini) che è teoria di campo relativistica e che è valsa il premio Nobel a A.Salam, C. Rubbia e altri
- la TdR ha ricevuto migliaia e migliaia, forse milioni, di conferme sperimentali, dalle misurazioni degli scostamenti del tempo su veicoli spaziali e lontano da Terra, al tempo di sopravvivenza dei muoni prodotti dai raggi cosmici primari in atmosfera terrestre; dagli effetti relativistici negli acceleratori di particelle, alla luce di sincrotrone emessa dalla materia in caduta accelerata presso stelle e buchi neri; pertanto non è così semplice accettare che una singola esperienza possa negare la validità di una teoria che è stata verificata in molteplici e diversissime occasioni.
Veniamo, allora, alla considerazione epistemologica. Tra la gente comune e gli scienziati è concezione diffusa che la Natura possieda una propria uniformità, una unitarietà, delle regolarità intrinseche, tali da poter giustificare il concetto di “Leggi di Natura”. Le teologie di numerose religioni, incluse quelle monoteiste, hanno contribuito a rinforzare questa idea, tanto che per connotare i fenomeni più aberranti si dice che essi sono “contro natura”, laddove la natura è creata e regolata dalla volontà di Dio e ne rispecchia la perfezione. La fiducia degli scienziati quando indagano la natura, e della gente nella scienza, si fonda sul presupposto che la scienza sappia identificare, svelare e descrivere le regolarità e le invarianze della natura, ovvero le sue Leggi, sotto forma di teorie scientifiche. Questa prospettiva ha fatto sì che le teorie scientifiche siano state caricate di valore nomico (= legiforme), che in realtà possiedono soltanto in parte. In altri termini, un certo numero di filosofi, come i positivisti e i neopositivisti e anche alcuni filosofi analitici recenti, hanno attribuito a certe teorie delle scienze “dure” (fisica in primis) proprietà di “verità fondamentali di validità universale” che invece non possiedono, non sempre. La filosofia della scienza più recente ha riconsiderato che cosa sia una legge scientifica, riconoscendone valore fondamentale ma in precisi ambiti di dominio, limitandone le pretese di universalismo, enfatizzando la clausola “ceteris paribus” ossia “a parità di condizioni.., a certe condizioni.., a condizione che..,” con ciò significando che le teorie scientifiche possono non rendere conto di fenomeni che si svolgono o succedono in determinate condizioni. Queste riconsiderazioni non sminuiscono il valore delle leggi scientifiche, tutt’altro, e contrastano l’opinione dei filosofi, quali T. Kuhn e P. Feyerabend, che intravedono una instabilità paradigmatica nella scienza che la rende mai certa e mai portatrice di verità definitive. A titolo di esempio, la meccanica gravitazionale di Newton non è stata smentita dalla Relatività Generale di Einstein, bensì ricondotta a particolari condizioni, quelle non relativistiche; né la meccanica quantistica ha demolito il determinismo della fisica classica, ma lo ha confinato al suo dominio: si provi, ad esempio, a osservare un masso in caduta, per vedere se lo si sposta come si fa con una particella (ruolo dell’osservatore nella fisica dei quanti), io vi consiglio di scostarvi. Proprio la meccanica dei quanti, parlando di “proprietà relazionali” tra oggetti e tra fenomeni ed enfatizzando gli aspetti probabilistici, corrobora la prospettiva del “realismo contestuale” delle teorie scientifiche: a seconda di come misuro un sistema quantizzato come la luce, farò emergere le proprietà disposizionali ondulatorie (es. fenomeni d’interferenza) oppure corpuscolari (es. effetto fotoelettrico). In altre parole, la luce possiede entrambe le proprietà strutturali e funzionali disposizionali, onda e corpuscolo, e noi faremo emergere le une o le altre contestualmente alla misurazione, assieme al corteo di leggi che le descrivono.
Ben prima dei neutrini superluminali, la TdR Speciale ha mostrato di non saper spiegare la dinamica dell’universo a grande scala, tant’è che dobbiamo ipotizzare l’esistenza della Energia Oscura, di cui abbiamo solo vaga idea di che cosa possa essere. E in effetti, nessuno è in grado di dire se materia oscura e talune particelle come i neutrini (che da tempo si sa violare principi come quelli di parità e l’invarianza di Lorentz) potrebbero non ubbidire alla TdR., né escludere che la TdR si manifesti diversamente o non valga in particolari condizioni.
In definitiva, è parecchio che non si confutano più le teorie scientifiche moderne ma le si corregge, modifica, contestualizza, a meno che esse non siano ancora teorie verificate e consolidate ma modelli, ipotesi, congetture. Chi difende ancora la prospettiva positivista di una scienza fatta di leggi universalmente valide, si scontra con scienze come la cosmologia che lo smentiscono, ma anche chi pensa di demolire teorie solide e confermate da milioni di esperimenti, non ha capito molto della scienza moderna, che si tratti della scienza della Relatività o un’altra.
- i neutrini, particelle di cui sappiamo ancora poco e per molti versi “particolari”, hanno impiegato circa 2,5 millesimi di secondo per percorrere i 735 km sotto terra, mentre lo scarto, rispetto a C, è stato di 60 miliardesimi di secondo, dunque una frazione inferiore di decine di milioni di volte, uno scarto che potrebbe rientrare nell’errore sistematico di misurazione
- l’esperimento, per quanto ripetuto, ha utilizzato lo stesso protocollo, pertanto necessita che i suoi risultati siano replicati in condizioni diverse, con altri strumenti, in altre circostanze (dagli Usa arriveranno nuovi dati entro un anno) e solo allora si potranno formulare conclusioni e ipotesi serie
- in passato, molte volte è successo che nuove esperienze contraddicessero teorie consolidate; a volte le teorie sono state del tutto confutate, altre volte solo corrette, altre volte ancora hanno avuto ragione le teorie, come quando sembrava che la meccanica celeste di Newton fosse contraddetta dall’orbita irregolare di Urano, finché si scoperse Nettuno, vero responsabile delle irregolarità;
- vi sono teorie che non meritano tale attributo, essendo ancora soltanto ipotesi di lavoro o congetture e pertanto nessuno trova eclatante la loro critica e demolizione; di recente, la osservazione di galassie ben formate, vecchie oltre 10 miliardi di anni (formatesi cioè dopo solo tre miliardi di anni dal Big Bang) contraddice i modelli teorici attuali di formazione delle galassie; la stella SDSSJ102915 composta di solo idrogeno e elio, sta mettendo in dubbio i modelli standard di formazione stellare: questi sono due esempi attualissimi di come teorie scientifiche siano rimesse in discussione, ma esse non sono teorie ancora degne di tale appellativo bensì modelli provvisori
- la crisi della TdR sarebbe gravida di conseguenze, talune assai stimolanti, altre alquanto preoccupanti, giacché andrebbe in crisi anche la teoria del campo elettromagnetico di Maxwell ( è una teoria intrinsecamente relativistica, d’altronde Einstein partì proprio da lì), oppure, se si mantenesse intatta la TdR e la teoria di Maxwell, andrebbe in crisi la teoria della interazione elettrodebole (unione di elettromagnetismo e interazione debole, a cui soggiacciono i neutrini) che è teoria di campo relativistica e che è valsa il premio Nobel a A.Salam, C. Rubbia e altri
- la TdR ha ricevuto migliaia e migliaia, forse milioni, di conferme sperimentali, dalle misurazioni degli scostamenti del tempo su veicoli spaziali e lontano da Terra, al tempo di sopravvivenza dei muoni prodotti dai raggi cosmici primari in atmosfera terrestre; dagli effetti relativistici negli acceleratori di particelle, alla luce di sincrotrone emessa dalla materia in caduta accelerata presso stelle e buchi neri; pertanto non è così semplice accettare che una singola esperienza possa negare la validità di una teoria che è stata verificata in molteplici e diversissime occasioni.
Veniamo, allora, alla considerazione epistemologica. Tra la gente comune e gli scienziati è concezione diffusa che la Natura possieda una propria uniformità, una unitarietà, delle regolarità intrinseche, tali da poter giustificare il concetto di “Leggi di Natura”. Le teologie di numerose religioni, incluse quelle monoteiste, hanno contribuito a rinforzare questa idea, tanto che per connotare i fenomeni più aberranti si dice che essi sono “contro natura”, laddove la natura è creata e regolata dalla volontà di Dio e ne rispecchia la perfezione. La fiducia degli scienziati quando indagano la natura, e della gente nella scienza, si fonda sul presupposto che la scienza sappia identificare, svelare e descrivere le regolarità e le invarianze della natura, ovvero le sue Leggi, sotto forma di teorie scientifiche. Questa prospettiva ha fatto sì che le teorie scientifiche siano state caricate di valore nomico (= legiforme), che in realtà possiedono soltanto in parte. In altri termini, un certo numero di filosofi, come i positivisti e i neopositivisti e anche alcuni filosofi analitici recenti, hanno attribuito a certe teorie delle scienze “dure” (fisica in primis) proprietà di “verità fondamentali di validità universale” che invece non possiedono, non sempre. La filosofia della scienza più recente ha riconsiderato che cosa sia una legge scientifica, riconoscendone valore fondamentale ma in precisi ambiti di dominio, limitandone le pretese di universalismo, enfatizzando la clausola “ceteris paribus” ossia “a parità di condizioni.., a certe condizioni.., a condizione che..,” con ciò significando che le teorie scientifiche possono non rendere conto di fenomeni che si svolgono o succedono in determinate condizioni. Queste riconsiderazioni non sminuiscono il valore delle leggi scientifiche, tutt’altro, e contrastano l’opinione dei filosofi, quali T. Kuhn e P. Feyerabend, che intravedono una instabilità paradigmatica nella scienza che la rende mai certa e mai portatrice di verità definitive. A titolo di esempio, la meccanica gravitazionale di Newton non è stata smentita dalla Relatività Generale di Einstein, bensì ricondotta a particolari condizioni, quelle non relativistiche; né la meccanica quantistica ha demolito il determinismo della fisica classica, ma lo ha confinato al suo dominio: si provi, ad esempio, a osservare un masso in caduta, per vedere se lo si sposta come si fa con una particella (ruolo dell’osservatore nella fisica dei quanti), io vi consiglio di scostarvi. Proprio la meccanica dei quanti, parlando di “proprietà relazionali” tra oggetti e tra fenomeni ed enfatizzando gli aspetti probabilistici, corrobora la prospettiva del “realismo contestuale” delle teorie scientifiche: a seconda di come misuro un sistema quantizzato come la luce, farò emergere le proprietà disposizionali ondulatorie (es. fenomeni d’interferenza) oppure corpuscolari (es. effetto fotoelettrico). In altre parole, la luce possiede entrambe le proprietà strutturali e funzionali disposizionali, onda e corpuscolo, e noi faremo emergere le une o le altre contestualmente alla misurazione, assieme al corteo di leggi che le descrivono.
Ben prima dei neutrini superluminali, la TdR Speciale ha mostrato di non saper spiegare la dinamica dell’universo a grande scala, tant’è che dobbiamo ipotizzare l’esistenza della Energia Oscura, di cui abbiamo solo vaga idea di che cosa possa essere. E in effetti, nessuno è in grado di dire se materia oscura e talune particelle come i neutrini (che da tempo si sa violare principi come quelli di parità e l’invarianza di Lorentz) potrebbero non ubbidire alla TdR., né escludere che la TdR si manifesti diversamente o non valga in particolari condizioni.
In definitiva, è parecchio che non si confutano più le teorie scientifiche moderne ma le si corregge, modifica, contestualizza, a meno che esse non siano ancora teorie verificate e consolidate ma modelli, ipotesi, congetture. Chi difende ancora la prospettiva positivista di una scienza fatta di leggi universalmente valide, si scontra con scienze come la cosmologia che lo smentiscono, ma anche chi pensa di demolire teorie solide e confermate da milioni di esperimenti, non ha capito molto della scienza moderna, che si tratti della scienza della Relatività o un’altra.
Nessun commento:
Posta un commento