Finale: la Meccanica Quantistica può essere innocua?

Siamo quindi arrivati alla fine di questa serie di post su un possibile approccio “non convenzionale” alla risoluzione di alcuni dei nodi storici della Meccanica Quantistica (MQ).

Proviamo a riepilogare:

  1. La MQ “funziona” benissimo, ma ha degli aspetti controversi. Un grande fisico come Feynman diceva che nessuno capisce davvero la MQ, ma il problema maggiore è che la MQ, specie se accompagnata dalla sua “canonica” interpretazione detta di Copenhagen, confuta o almeno mette in seria difficoltà alcuni principi fondanti della scienza classica: il Realismo Scientifico, il Principio di Località, il Determinismo. Esistono da molti anni dei tentativi per “salvare” almeno qualcuno di questi principi: ad esempio le teorie delle variabili nascoste come quella di Bohm  appunto ipotizzando delle variabili reali ma inaccessibili che determinino gli aspetti apparentemente casuali dei fenomeni quantistici. Nessuno di questi tentativi però si è sinora affermato. 
  2. Esaminando più da vicino il problema, mi pare si possa dire che tutti gli aspetti “imbarazzanti” della MQ siano legati alle nozioni di Spazio e di Tempo. Il Principio di Indeterminazione di Heisenberg si applica tipicamente a grandezze, come la posizione, la velocità o l’energia di una particella, che hanno a che fare con lo Spazio e il Tempo, e non si applica a grandezze non spaziotemporali come la massa a riposo, lo spin o la carica elettrica.
  3. Parallelamente, l’altra grande e rivoluzionaria teoria fisica del Novecento, la Relatività Generale einsteiniana, fondandosi sul principio di equivalenza perfetta tra i sistemi di riferimento di tutti i possibili osservatori, ci ha “costretto” a considerare con sospetto la nozione di “punto” dello spazio-tempo. La Fisica non è in grado di distinguere tra due Universi che si differenzino solo per una trasformazione dello spazio-tempo che non modifichi le relazioni tra gli oggetti fisici (tecnicamente, un diffeomorfismo dello spazio-tempo e della sua metrica); questa caratteristica può anche essere espressa come background-independence, ossia la descrizione fisica del mondo non dipende dallo specifico “sfondo” spaziotemporale che usiamo. Se accettiamo l’antico principio di identità degli indiscernibili introdotto da Leibniz, non si tratterebbe di due Universi distinti, ma dello stesso Universo descritto in due modi diversi. Lo Spazio e il Tempo, quindi, non sarebbero adatti a fornire una descrizione “fondamentale” della realtà fisica.
  4. Dalle considerazioni precedenti, viene naturale chiedersi se si possa elaborare una teoria fondamentale che non faccia uso dei concetti di Spazio e di Tempo. Una teoria del genere dovrebbe essere essenzialmente relazionale, ossia basarsi solo su oggetti elementari e le loro relazioni, e sarebbe “naturalmente” background-independent.  Lo Spazio dovrebbe emergere quando si descriva un sistema “abbastanza grande” perché abbia senso definirne una “dimensione”, ma questa definizione sarebbe basata sulle grandezze “fondamentali” che costituiscono la descrizione relazionale. Ricordiamoci però che “perdere” lo spaziotempo significa perdere anche la Gravitazione einsteiniana, che è indissolubile da esso. Quindi, se vogliamo ricostruire il nostro apparato bisogna che al crescere della “dimensione” del sistema  oltre allo spaziotempo emerga anche la Gravità.
  5. Fortunatamente, ci sono delle teorie escogitate appunto per fare questo, ossia “riprodurre” la Gravitazione einsteiniana a partire da un substrato fondamentale relazionale. La più accreditata di queste è la teoria delle Spin Networks, che adotta come descrizione fondamentale della realtà fisica una rete costituita da unità dotate di spin e dalle loro relazioni. Questa teorie, ancora non elaborate in modo compiuto, sembrano però in grado di far emergere sia lo spazio-tempo, sia la Gravità, sia, anche, le leggi base della MQ.
  6. Se queste teorie fossero esatte, “salverebbero” due dei tre principi che ho citato prima e renderebbero la MQ sostanzialmente “innocua”:
    1. Il Realismo Scientifico sarebbe preservato, perché le “reti” e le loro proprietà sarebbero ben definite anche indipendentemente dal fatto di essere sottoposte a un osservazione o meno. La rete stessa, e quindi le sue NxN relazioni, costituirebbe l’insieme di variabili nascoste che giustificherebbero l’apparente ambiguità delle descrizioni quantistiche spaziotemporali.
    2. Per lo stesso motivo, sarebbe preservato anche il Determinismo, visto che le componenti probabilistiche della teoria quantistica sarebbero rimpiazzate da calcoli deterministici a partire dalle variabili “fondamentali”.
    3. Invece il Principio di Località sarebbe abbandonato, proprio perché fondato su una nozione, la contiguità spaziale, che non ha un corrispettivo nella descrizione fondamentale della realtà. Il disegno qui sotto, prelevato da uno degli articoli che ho citato, mostra perché:

locality in networks

Se nella rete il nodo i ha una relazione con j, k, l, m, quando lo Spazio “emerge” può accadere che uno di questi nodi, in questo esempio k, si trovi “spazialmente lontano” da i. Non è insomma garantito che all’esistenza di una relazione nella rete fondamentale corrisponda poi una distanza spaziale “piccola”. La nozione di “locale” non è traducibile a livello delle proprietà fondamentali.

Restano da dire, credo, solo altre due cose. Una è che non vorrei aver dato l’idea che questo percorso logico attraverso cui vi ho condotto sia la “nuova verità” della Fisica: non c’è al momento, per quanto posso dire, un consenso sul fatto che le cose stiano effettivamente così, e, data la forma fortemente teorica del tutto, è difficile che siano le osservazioni sperimentali a decidere quale teoria sia quella “giusta”. Ci sono nuove teorie della Fisica fondamentale che competono con quelle “relazionali” (come la Teoria delle Stringhe) e non so quale prevarrà.

L’altra cosa riguarda il Tempo. Forse avrete notato che ho lasciato il Tempo fuori dalle mie ultime considerazioni; il motivo è che mentre secondo l’approccio che ho descritto lo Spazio è decisamente una grandezza non “reale” a livello “fondamentale”, il Tempo “esisterebbe” anche nella descrizione fondamentale della realtà. L’autore che, insieme a Lee Smolin, ha scritto alcuni degli articoli che sto citando, ne ha pubblicato uno (leggetelo, se siete interessati al tema “tecnico”) dall’eloquente titolo Lo spazio non esiste, così il tempo può esistere. La sua tesi, sostanzialmente, è che l’eliminazione dello Spazio dalle grandezze “veramente fondamentali” consente di risolvere i paradossi legati al Tempo che, come saprete, è difficile definire nella rappresentazione relativistica einsteiniana.

Chiudo con una notazione personale. Quando, verso la fine del 2007 ho aperto questo blog, il mio scopo era in realtà anche avere una scusa per ragionare e informarmi meglio su alcuni temi che rientravano tra i miei interessi ma che non riuscivo ad approfondire; avere un pubblico vero o presunto mi ha “obbligato” a essere più organico e rigoroso nelle mie piccole esplorazioni. Il percorso che ho sintetizzato qui sopra mi sembra che almeno per ora risponda in modo promettente a uno dei quesiti che sollevavo allora. Confesso che ne sono molto contento, anche se le cose che ho trovato e vi ho raccontato c’erano quasi tutte già allora. Ero io che non le sapevo…

Ma la Meccanica Quantistica è proprio inevitabile?

Nel post precedente abbiamo visto che la Meccanica Quantistica (MQ) presenta almeno tre caratteristiche “imbarazzanti” per chi come me è legato a una concezione scientifica più tradizionale (sembra singolare dire questo dopo quasi un secolo dall’elaborazione della MQ, ma il punto è proprio che nonostante il passare del tempo alcuni principi della Fisica pre-quantistica sono difficili da abbandonare, e l’alternativa proposta dalla MQ è nella migliore delle ipotesi oscura, nella peggiore contraddittoria). Infatti la MQ, secondo la sua interpretazione canonica, abbandona  o rende problematici i seguenti tre principi cardine della Fisica classica (v. sempre post precedente):

  1. Il Realismo.
  2. Il Determinismo.
  3. Il Principio di Località.

A queste caratteristiche si oppose a suo tempo Einstein, che ne colse appieno gli elementi  “eversivi” ma non riuscì a trovare alternative possibili. La sua opinione era che la MQ non fornisca “una descrizione completa della realtà fisica”, e che quindi debba esistere una teoria più profonda che superi la MQ e le sue aporie.

Ma, prima di capire se una teoria simile possa esistere, è interessante chiedersi quali margini ci siano per un’alternativa alla MQ. È possibile che una teoria per ora ignota elimini le tre scomode caratteristiche che ho citato? Su questo, ossia su quali vincoli dovrebbe comunque rispettare una simile teoria, i fisici hanno già ragionato a lungo.

Un primo risultato su cui esiste un consenso generale è che Realismo e Principio di Località non possono essere entrambi veri. Esiste infatti il cosiddetto Teorema di Bell che dimostra che qualsiasi teoria che cerchi di rispettare entrambi questi principi dovrà prevedere dei risultati sperimentali diversi da quelli previsti dalla MQ, in particolar modo per sistemi costituiti da due o più particelle entangled. È quindi possibile con un esperimento verificare se nella realtà siano corrette le previsioni della MQ o quelle di una qualsiasi teoria “realista locale”. Esperimenti del genere sono stati effettivamente realizzati, e i risultati dimostrano che nessuna teoria “realista locale” può essere esatta, e che quindi almeno uno tra i principi 1 e 3 va abbandonato.

Un secondo tipo di “dimostrazione generale” è invece relativa alla forma matematica della MQ. Alcuni autori, infatti (ad esempio qui e qui), hanno cercato di dimostrare che sulla base di assiomi “ragionevoli” e piuttosto generali è possibile stabilire che la forma della MQ (escludendo il controverso “processo di misura”) è fortemente determinata appena si introduce un qualche assioma che escluda la “tradizionale” Meccanica Classica, che come sappiamo su scala microscopica “non funziona”. Come è scritto nelle conclusioni del secondo articolo che citavo (attenzione, è difficile, uno di quegli articoli in cui io “guardo solo le figure”): “una teoria che vada oltre la MQ deve violare almeno uno degli assiomi [su cui si è basata la dimostrazione] e quindi deve distaccarsi radicalmente dalle consuete assunzioni apriori che adottiamo circa la struttura delle leggi fisiche” (traduzione e grassetto sono miei).

Infine, possiamo dire che la caratteristica più controversa ed “attaccabile” della MQ ortodossa è il modo in cui è rappresentata l’operazione di misura. Infatti questo è l’unico punto della teoria dove per calcolare i risultati si usa un procedimento intrinsecamente stocastico, che impedisce quindi di prevedere tali risultati in modo deterministico. Questo Non-determinismo è una caratteristica che molti hanno considerato “posticcia” rispetto alla MQ e hanno cercato di eliminare; ho già discusso in molti vecchi post diverse proposte in merito, la maggior parte delle quali in un modo o nell’altro ipotizzano che l’apparente casualità sia in realtà sintomo dell’esistenza di variabili fisiche nascoste che codeterminano l’evoluzione di un sistema quantistico ma che non siamo in grado di osservare. Tuttavia, anche qualsiasi “teoria delle variabili nascoste” dovrebbe rispettare i vincoli molto stretti che ho descritto in precedenza, in particolare quelli imposti dal Teorema di Bell. Insomma, il Determinismo può essere difendibile o in modo “tattico” introducendo un qualche meccanismo ad hoc per spiegare l’apparente casualità della misura (v. ad es. questo post) o in modo “strategico”, assegnando alle variabili nascoste un significato ontologicamente molto più profondo.

In conclusione, l’impresa di trovare una teoria fisica che superi la MQ preservando alcuni dei principi “tradizionali” della Fisica sembra quasi disperata, in quanto una simile teoria dovrebbe:

  1. Riprodurre tutte le previsioni della MQ, almeno per quanto riguarda gli esperimenti che siamo stati in grado di realizzare finora e che hanno confermato l’esattezza assoluta della MQ.
  2. Abbandonare comunque almeno uno tra Realismo e Principio di Località.
  3. Rappresentare una radicale rivoluzione nel modo di strutturare le teorie fisiche, sovvertendo qualcosa di “fondamentale”, visto che altrimenti la MQ è sostanzialmente “inevitabile”. Una teoria così, ammesso che possa esistere, dovrebbe però poi ricondursi alla MQ nel limite in cui quest’ultima “funziona”, un po’ come la MQ si riconduce alla Meccanica Classica nel limite di sistemi “grandi”.

Nel prossimo post proporrò qualche riflessione su se ci sia qualche indizio su dove cercare una simile teoria.

Cosa c’è che non va nella Meccanica Quantistica?

Già: cosa c’è che non va? E c’è davvero qualcosa che non va? In questo post riassumeremo e ripeteremo alcuni concetti base già discussi in passato, ma è utile farlo per introdurre correttamente il problema.

Come abbiamo già visto molte volte, la Meccanica Quantistica è una teoria di eccezionale successo. Su di essa è basato il Modello Standard delle particelle elementari, che descrive con incredibile precisione tutti i fenomeni della Fisica microscopica, e che ha appena completato il suo mosaico di particelle elementari con la scoperta del Bosone di Higgs. Si può dire che, dopo quasi un secolo dalla sua formulazione, non esista alcun dato sperimentale che contraddica le previsioni della MQ, eppure gli esperimenti che da allora sono stati compiuti hanno certo superato qualsiasi immaginazione dei padri della Fisica moderna.

Quindi, c’è davvero qualcosa che non va? Sì, c’è.

Per dire che qualcosa non va, basterebbe forse osservare quale sia ancora oggi il livello di dibattito e considerare i mille tentativi di trovare delle alternative teoriche o interpretative a una teoria così efficace. Infatti la MQ mette in crisi alcuni dei pilastri fondamentali della scienza tradizionale, e anche del modo in cui noi consideriamo il nostro rapporto con la realtà “esterna”. Per sintetizzare, secondo me gli aspetti controversi o “imbarazzanti” della MQ sono:

  1.  L’esistenza di “stati misti” di un sistema quantistico, per cui in un dato istante esso è in generale descritto come una sovrapposizione di stati “univocamente definiti”, o puri. Da qui viene fuori il famoso paradosso del Gatto di Schrödinger, che sarebbe allo stesso tempo vivo e morto.
  2. Il meccanismo di misura, che richiede che ogni volta che si desidera calcolare il risultato di un esperimento si debba ricorrere a un procedimento intrinsecamente casuale e indeterministico.
  3. L’esistenza di stati entangled di sistemi composti, ossia l’esistenza di intercorrelazioni tra oggetti distinti (ad esempio due elettroni), indipendentemente dalla collocazione spaziale di questi ultimi (ad esempio i due elettroni potrebbero trovarsi a una distanza anche molto grande tra loro).

Questi tre elementi chiave della MQ minano alla base tre corrispondenti pilastri concettuali della scienza:

  1. Il Realismo Scientifico, ossia l’idea che “il mondo studiato dalla scienza esiste, ed ha le proprietà che ha indipendentemente dalle nostre credenze […] , e lo scopo della scienza è descrivere e spiegare quel mondo, inclusi i suoi molti aspetti che non sono direttamente osservabili“, per citare un testo di Filosofia della Scienza. Secondo l’interpretazione “ortodossa” della MQ, invece, non ha senso parlare di “realtà” di un sistema quantistico se non in corrispondenza con un’osservazione sperimentale (“only an observed phenomenon is a phenomenon”, disse Bohr). Questa interpretazione è fortemente controversa, ma è in pratica quella che credo ancora oggi venga insegnata nelle Università come quella “di riferimento”. La MQ ortodossa, quindi, contraddice il Realismo.
  2. Il Determinismo, ossia l’assunto che il futuro comportamento di un sistema fisico sia completamente determinato dal suo stato iniziale e dalle leggi della Fisica. La MQ ammette solo una previsione probabilistica dei risultati di un’operazione di misura, e, indipendentemente dal fatto che si consideri il cosiddetto “collasso della funzione d’onda” un processo fisico reale o solo una tecnica di calcolo (v. ad es. questo vecchio post), non consente neanche in linea di principio di prevedere in modo certo il risultato di future osservazioni su un sistema noto.
  3. Il Principio di Località, che sostanzialmente afferma che un sistema fisico può essere influenzato solo da entità ad esso fisicamente prossime. Questo principio, fortemente sostenuto da Einstein, è appunto contraddetto dall’entanglement quantistico. Due oggetti entangled sono in una relazione che non può essere eliminata o indebolita allontanandoli materialmente uno dall’altro.

Abbandonare questi tre principi fondamentali è ovviamente qualcosa che qualsiasi fisico fa molto malvolentieri, ancora oggi. Ma abbiamo davvero scelta? Possiamo magari sperare che, come la Gravitazione Newtoniana è stata alla fine superata dalla Relatività Einsteiniana, una futura teoria sconfessi la MQ e ripristini appieno i principi della Fisica classica?

Nel prossimo post vedremo quanto sia “inevitabile” la MQ, e quali spazi ci siano per ipotetiche teorie alternative.

Torniamo alla Fisica – Allacciate le cinture di sicurezza!

Cari lettori (ma esistono davvero cose come i lettori di un blog come questo? O sono un espediente letterario?), dopo un lungo silenzio dedicato tra l’altro a seguire le elezioni politiche italiane, torno volentieri a parlare di Fisica.

Lo faccio riprendendo e “incrociando” due temi che ho toccato spesso in passato, a partire proprio dai primissimi post di questo blog, anni fa. Si tratta di:

  1. Le caratteristiche “paradossali” della Meccanica Quantistica, e la loro interpretazione che contrasta con il Realismo Scientificosono “inevitabili”? Il Problema della Misura è un inghippo irriducibile? Oppure esiste un modo di preservare contemporaneamente i risultati della Meccanica Quantistica e un’interpretazione epistemologica della teoria che riconosca e giustifichi la nozione di realtà oggettiva e persistente “là fuori” che è tradizionalmente alla base della scienza?
  2. Ammesso che questa espressione abbia un senso, qual è la “vera” struttura fondamentale della “realtà”? In particolare, è verosimile che di questa struttura fondamentale non faccia parte lo spazio fisico come lo percepiamo?

Ebbene, la convinzione che mi sto formando, dopo questi anni di incompetenti divagazioni nei territori della Fisica, è che le due domande hanno una stessa risposta. Se riuscirò nei prossimi giorni a mettere nero su bianco le ragioni di questa convinzione, vi inviterò ad accompagnarmi in questa escursione che, per fortuna, seguirà un percorso già tracciato da gente che di Fisica si occupa professionalmente. Come sa chi mi legge, su questi temi non posso certo produrre contributi originali, semmai posso rileggere cose esistenti con l’occhio dell’ “uomo della strada istruito”, e forse questa è la prospettiva che può essere utile a chi sia curioso ma non specialista del ramo. Dove, eventualmente, introdurrò delle mie speculazioni personali non mancherò di renderlo chiaro.

Riassumendo

Gli ultimi post, me ne rendo conto, sono stati un po’ un bombardamento di considerazioni un po’ esoteriche sulle difficoltà logiche ed epistemologiche sollevate dalla Fisica Quantistica, nella sua interpretazione standard ("di Copenhagen"), e su alcune idee alternative. Meno male che questo blog non lo legge nessuno, altrimenti avrei il rimorso di poter avere disorientato e stancato i lettori.

A beneficio dei posteri, riassumo i contenuti delle mie ultime elucubrazioni di argomento fisico:

  1. La Fisica Quantistica è una teoria di grandissimo successo, che ha anche portato con sé un profondo ripensamento dell’epistemologia. La sua interpretazione "da libro di testo" sostiene un approccio Strumentalista, e propone una teoria della misura che è da sempre al centro di un profondo disagio per i fisici (sostanzialmente, è una schifezza).
  2. Ho cercato di dimostrare (con una tesi molto personale, non prendetela per valida!) che lo Strumentalismo, in particolare per una teoria come la FQ, è insostenibile, e che è necessario recuperare una qualche forma di Realismo Scientifico.
  3. Ho riportato alcune teorie che, ipotizzando che la teoria quantistica non sia completa, permettono contemporaneamente di risolvere il "problema della misura" e di recuperare un approccio epistemologico Realista:
    – la teoria a variabili nascoste di Bohm
    – la teoria del collasso spontaneo della funzione d’onda, di Ghirardi-Rimini-Weber
    – la teoria del collasso della funzione d’onda provocato dall’interazione con la gravità, di Penrose
  4. Tra queste, ho fatto capire di preferire l’ultima, anche se non è stata formulata rigorosamente, appunto perché rendere coerenti la FQ e la Relatività Generale è uno dei grandi problemi aperti della Fisica. Si tratta, in sostanza, di una ipotesi di lavoro, che però io trovo assolutamente persuasiva, e che (a differenza della teoria di Bohm) non è escluso possa essere sottoposta a verifica sperimentale (lo stesso Penrose ha fatto delle proposte in questo senso).

Con questo, quindi, chiudo questo filone di discussione dedicato al punto 2 dell’elenco dei problemi fisici irrisolti che avevo ripreso in un mio recente post dal libro L’Universo senza Stringhe. Potete tirare un sospiro di sollievo.

Il collasso è “grave”?

Nel post precedente, ho brevemente descritto la teoria del "collasso spontaneo" della funzione d’onda (o teoria GRW), una delle teorie alternative all’interpretazione standard (nel seguito, IS) della FQ che hanno lo scopo di offrire una soluzione ad alcune delle anomalie che sin dalla nascita della teoria quantistica hanno messo a disagio i fisici.

Abbiamo visto che uno dei principali punti deboli della teoria GRW è che introduce un meccanismo fisico non spiegato, una specie di deus ex machina, per giustificare il "collasso" della funzione d’onda (peraltro, nella IS il "collasso" correlato alle operazioni di misura è almeno altrettanto ad hoc). Per rendere più accettabile questa teoria sarebbe insomma necessario identificare una ragione fisica per il collasso, che permetta anche di giustificarne la frequenza, che nella teoria GRW è un parametro arbitrario, determinato solo fenomenologicamente.
Una proposta in questa direzione è stata presentata da un grande fisico matematico, Roger Penrose. Vediamo di che si tratta.

L’idea di base di Penrose è che l’origine del collasso spontaneo della funzione d’onda risieda nella Gravità. E’ un’idea audace, perché la teoria della Gravità è la Relatività Generale (RG), e uno dei principali problemi della Fisica moderna è conciliare RG e FQ. Quindi è molto complicato cercare di capire quali effetti possa avere la RG sulla FQ, e Penrose cerca di fare proprio questo.
Non tenterò di spiegare l’ipotesi di Penrose, perché richiede una conoscenza della Fisica troppo approfondita (in realtà, non la capisco a fondo neanche io). Mi limiterò a essere approssimativo, dicendo che in presenza di un campo gravitazionale non omogeneo l’indeterminazione sulla posizione di una particella che si trovi in uno stato "misto" comporta una indeterminazione dell’energia della particella, e questa indeterminazione dell’energia comporta a sua volta l’instabilità degli stati "misti" e il conseguente collasso della funzione d’onda. Questa instabilità, trascurabile per una particella singola, diventa fortissima per un corpo macroscopico, dotato di una massa grandissima in confronto a una particella; quindi, per un corpo macroscopico, il collasso della funzione d’onda avviene in tempi brevissimi.

Mi rendo conto di essere stato piuttosto oscuro, e me ne scuso, ma spero di aver reso un minimo l’idea. Nel prossimo post tirerò le somme del discorso fatto sulla Fisica Quantistica.

Il collasso è una realtà?

Come dicevo nel post precedente, una teoria interessante, come alternativa all’Interpretazione Standard della Fisica Quantistica, è quella che ipotizza che al collasso della funzione d’onda corrisponda un fenomeno fisico reale. Questa teoria è in realtà una famiglia di teorie, che possono differire ovviamente per la natura del fenomeno fisico ipotizzato.

Una di queste teorie, forse la prima cronologicamente parlando, è la teoria di Ghirardi-Rimini-Weber o GRW, per brevità. Questi signori hanno ipotizzato un meccanismo relativamente semplice: che ogni "tot" tempo, si verifichi spontaneamente il collasso della funzione d’onda di una particella (ad esempio, un elettrone). Spontaneamente significa che il collasso non avviene in coincidenza con un’operazione di misura, ma che la particella subisce questa transizione "da sola", un po’ come decade un atomo radioattivo, e che questo è un fenomeno fisico reale, nel senso che non è semplicemente un’interpretazione della FQ alternativa alla IS.

Naturalmente, perché questa teoria non sia in contrasto con i risultati degli esperimenti, bisogna che il tempo "tot" sia molto lungo, perché altrimenti ci saremmo già accorti di questo fenomeno. Però anche se questo tempo per una singola particella è molto lungo, la cosa interessante è che, se consideriamo un oggetto macroscopico (come il famoso "gatto di Schroendiger), il "collasso" della funzione d’onda complessiva avviene quando almeno una delle particelle che lo compongono subisce il "suo" collasso, quindi in un tempo brevissimo. Tanto per fare un esempio, Ghirardi in questa ottima sintesi della sua ipotesi dice che per una particella il tempo di "collasso" potrebbe essere di 100 milioni di anni, eppure un corpo macroscopico potrebbe collassare in un decimilionesimo di secondo.

La teoria GRW non è ancora stata sottoposta a un test sperimentale, in quanto è difficile progettarne uno, e ha lo svantaggio di essere una teoria "fenomenologica", ossia che ipotizza un fenomeno fisico senza spiegarlo, e senza poterne determinare i parametri (i "cento milioni di anni", per capirci) se non cercando di ricavarli dal comportamento sperimentale della materia. Tuttavia ha il grande vantaggio di essere una teoria deterministica compatibile con la FQ, e quindi di essere compatibile con il Realismo Scientifico, che abbiamo scelto come nostra posizione epistemologica. In un prossimo post vedremo un’altra teoria della stessa famiglia, che però ha alcuni importantissimi vantaggi sulla GRW.

Un collasso da spiegare

Ritornando al tema delle più interessanti ipotesi alternative all’interpretazione standard della Fisica Quantistica (la cosiddetta Interpretazione di Copenhagen, che nel seguito chiameremo IC, e che come abbiamo visto "incorpora" un approccio epistemologico che abbandona il Realismo Scientifico classico), dobbiamo spendere qualche parola sul problema della misura nella FQ e sul cosiddetto "collasso della funzione d’onda". Il tema è piuttosto tecnico, quindi se non siete interessati alla Fisica temo che questo post non faccia per voi.

Sarebbe impossibile riassumere qui in modo soddisfacente il problema della misura (una spegazione in inglese non troppo esauriente c’è su Wikipedia, oppure, meglio, qui). Accontentiamoci quindi di dire che secondo la FQ un sistema fisico può in genere essere descritto da una funzione matematica, detta funzione d’onda. La funzione d’onda in generale è una combinazione di funzioni elementari relative a stati differenti (ad esempio, rispetto alla sua polarizzazione, un fotone può avere una funzione d’onda corrispondente a "70% di polarizzazione destrorsa e 30% di polarizzazione sinistrorsa"). Questa combinazione determina la probabilità dei risultati di una eventuale misura (se si misura la polarizzazione del fotone di cui sopra, si avrà il 70% di ottenere come risultato destrorsa e 30% sinistrorsa); ovviamente, i risultati della misura, a differenza della funzione d’onda prima della misura, non sono "misti", ma la misura produce un risultato e uno solo. Dopo la misura, il sistema fisico osservato può essere descritto da una funzione d’onda "univoca" (ad esempio, 100% destrorsa).

Quindi, l’operazione di misura provoca un cambiamento della funzione che descrive lo stato del sistema (sto cercando di evitare di dire che la misura cambia lo stato del sistema, perché sarebbe una formulazione "Realista" poco compatibile con la IC); questo cambiamento istantaneo è spesso chiamato "collasso" della funzione d’onda.
Dal punto di vista della IC, questo "collasso" non è un fenomeno fisico distinto dall’operazione di misura: ricordiamo che la IC parte da un approccio Strumentalista, e quindi per essa la funzione d’onda è solo uno strumento matematico, che non ha nessuna relazione necessaria con la "realtà fisica": l’unica cosa che ha senso sono i risultati delle osservazioni, e la funzione d’onda non è un osservabile.

Altre teorie della FQ, invece, ritengono che al "collasso" della funzione d’onda corrisponda un effettivo fenomeno fisico. Queste teorie, che ovviamente rispondono a un approccio epistemologico Realistico, sono particolarmente interessanti in quanto, a differenza della teoria di Bohm, possono in linea di principio prevedere risultati sperimentali diversi dalla FQ, e quindi sono teorie a tutti gli effetti distinte da essa (anche secondo il punto di vista Strumentalista). Nei prossimi post vedremo un paio di queste teorie.

Alternative… nascoste

In realtà, esistono alternative "fisiche" alla cosiddetta Interpretazione di Copenhagen della Fisica Quantistica, che tanti grattacapi suscita nei fisici e in particolare nei filosofi della scienza. Parlo di alternative fisiche, in quanto esistono anche alternative "interpretative", che cioè non ipotizzano leggi fisiche diverse, ma si limitano a interpretare diversamente le leggi della FQ. Vediamone almeno alcune che considero particolarmente interessanti.

La più conosciuta teoria alternativa alla FQ è la cosiddetta teoria delle Variabili Nascoste. Questa teoria, che è probabilmente anche la più vicina al pensiero di Einstein, fu proposta inizialmente da David Bohm. In sintesi, questa teoria ipotizza che esistano delle grandezze fisiche non osservabili, che contribuiscono a determinare i valori delle grandezze fisiche osservabili. E’ un po’ quello che succede se diciamo che al momento di fare un’ecografia morfologica un embrione ha il 50% di probabilità di essere maschio e il 50% di essere femmina. In realtà, il sesso non è una variabile casuale, ma è determinato da una variabile "nascosta" (ossia non visibile a occhio nudo) che è il suo corredo cromosomico. Se potessimo vedere il DNA di un embrione, sapremmo con certezza se è maschio o femmina ben prima che sia morfologicamente formato.

Epistemologicamente parlando, questa teoria ha alcuni pregi, tra cui il fatto che preserva sia il Realismo (tutte le proprietà fisiche sarebbero definite univocamente in qualunque istante), sia il Determinismo (non esisterebbero processi casuali che determinano il risultato delle operazioni di misura: "Dio non gioca ai dadi", come diceva Einstein). Ha tuttavia anche dei significativi svantaggi: è matematicamente molto "scomoda", e di fatto produce le stesse previsioni per i risultati sperimentali rispetto alla FQ standard. Quindi, se da un punto di vista, diciamo così, ontologico è nettamente diversa dalla teoria quantistica ortodossa, da un punto di vista verificazionista non è distinguibile da essa. Ecco perché viene spesso definita un’interpretazione, più che una teoria.

Se però si adotta un approccio Realista, allora si deve secondo me considerarla una teoria distinta e alternativa rispetto alla FQ standard, e io tale la considero. Esamineremo altre possibilità in prossimi post.

Perché non possiamo non dirci Realisti

Per completare il ragionamento avviato nel post precedente, riassumo brevemente le “puntate precedenti”, esposte più diffusamente in alcuni post a tema fisico:

  1. Il Realismo Scientifico è stato a lungo il presupposto epistemologico della ricerca scientifica. In breve, si tratta dell’ipotesi secondo la quale “il mondo studiato dalla scienza esiste, ed ha le proprietà che ha indipendentemente dalle nostre credenze […] , e lo scopo della scienza è descrivere e spiegare quel mondo, inclusi i suoi molti aspetti che non sono direttamente osservabili” (dal Glossario di un volumone di Filosofia della Scienza di 1300 pagine in inglese che forse prima o poi dovrei leggere…).
  2. Questa tesi è stata messa in crisi dalla Fisica Quantistica (d’ora in poi, FQ), che ha confutato alcune attese “ingenue” del Realismo (ad esempio, l’attesa che una particella abbia delle proprietà definite in qualunque momento, anche se non osservate, v. la discussione sul paradosso EPR, ad esempio su Wikipedia, la voce inglese perché quella italiana è scritta male).
  3. La corrente dominante negli anni ’30 e ’40 ha prodotto un’interpretazione “ortodossa” della FQ chiamata interpretazione di Copenhagen, che adotta una posizione strumentalista. Lo Strumentalismo sostiene che la realtà in sé non è indagabile, e che le nostre teorie scientifiche hanno valore solo come strumenti per la descrizione e la previsione dei fenomeni come da noi percepiti.
  4. Questa interpretazione, ad esempio in Heisenberg, uno dei maggiori esponenti della FQ, comporta che gli enti concettuali di una teoria siano validi solo come funzionali alla costruzione dello strumento-teoria e non abbiano una necessaria relazione con enti della “realtà esterna”. Vale il principio della complementarità delle teorie scientifiche, nel senso che ognuna descrive una categoria di fenomeni, senza pretendere di essere valida in assoluto.
  5. Lo Strumentalismo così definito, a mio parere, oltre a non essere adatto a ispirare il comportamento reale di un ricercatore scientifico (che secondo me parte sempre da un atteggiamento realistico, esplicito o meno), è anche insostenibile. Vediamo perché, utilizzando anche l’esempio dell’evaporazione dei buchi neri citata nel post precedente.

Nella situazione attuale della Fisica, la FQ e la Relatività Generale (RG) sono teorie complementari: descrivono in modo estremamente soddisfacente categorie di fenomeni generalmente distinte. Ora, l’ipotesi dell’evaporazione dei buchi neri di Hawking si basa sull’utilizzo contemporaneo di due concetti:

  • I buchi neri, frutto della RG
  • Le fluttuazioni del vuoto quantistico, frutto della FQ

Se io ho una posizione epistemologica realistica, entrambi questi concetti corrisponderanno, nei limiti di esattezza delle mie teorie, a enti fisici reali. Di conseguenza, se considero valide sia la FQ che la RG, posso senza contraddizione chiedermi cosa succede ai buchi neri a causa delle fluttuazioni quantistiche e alla conseguente creazione di coppie di antiparticelle virtuali. Potrò o meno essere capace di trovare una risposta, ma la domanda ha un senso.

Se io invece ho una posizione strumentalista, non posso neanche pormi questa domanda. Infatti, buchi neri e particelle quantistiche sono concetti appartenenti a due teorie diverse, e privi di senso fuori di esse. In assenza di una realtà sottostante che garantisca la continuità tra le due teorie, è impossibile “trasportare” un concetto da una teoria a un’altra. Ne consegue che:

  • E’ impossibile studiare fenomeni “di confine”, a meno di unificare esplicitamente le teorie (o costruirne una terza per descrivere appunto tali fenomeni).
  • Ogni teoria deve essere totalmente autosufficiente nella descrizione dei propri concetti. Se si parla di elettroni in Fisica, non è detto che si possa farlo, mettiamo, in Chimica, e quand’anche lo si faccia (ossia se in Chimica esiste un concetto di elettrone autonomamente definito) è possibile affermare che i due concetti si identificano solo se si è in grado di unificare le due teorie. Non è così semplice, ad esempio, dire che gli elettroni della Chimica sono dotati di spin (bisogna unificare FQ e Chimica, cosa poi effettivamente fatta).

Quindi, la “complementarità” invocata dallo Strumentalismo è interamente valida solo per categorie di fenomeni rigorosamente distinte e non sovrapponibili. Ma la FQ stessa nasce come teoria complementare alla Fisica classica, da cui dipende per la definizione stessa dell’operazione di misura! Ne consegue il paradosso che la FQ è per costruzione incompatibile con lo Strumentalismo, e richiede la nozione di una realtà esterna unificante per poter essere definita. L’unica forma di teoria che può “sopportare” lo Strumentalismo è una “teoria del tutto”, che non presenti necessità di “giunzioni” con sistemi concettuali diversi: paradossalmente, il tipo di teoria che i più eminenti realisti a partire da Einstein hanno sempre ricercato, e che gli strumentalisti hanno sempre considerato superflua.

Questo mio ragionamento, se corretto, (e sarei molto curioso di sapere cosa ne pensino gli addetti ai lavori) mi porta a ritenere fuorviante il concetto di complementarità delle teorie scientifiche e a considerare inevitabile una posizione epistemologica in qualche forma aderente al Realismo. Ma se il Realismo è epistemologicamente corretto, l’attuale interpretazione della FQ non può esserlo, e quindi ci ritroviamo daccapo, come Einstein, a chiederci: la descrizione quantistica della realtà fisica può dirsi completa? E a rispondere: “No”