Finale: la Meccanica Quantistica può essere innocua?

Siamo quindi arrivati alla fine di questa serie di post su un possibile approccio “non convenzionale” alla risoluzione di alcuni dei nodi storici della Meccanica Quantistica (MQ).

Proviamo a riepilogare:

  1. La MQ “funziona” benissimo, ma ha degli aspetti controversi. Un grande fisico come Feynman diceva che nessuno capisce davvero la MQ, ma il problema maggiore è che la MQ, specie se accompagnata dalla sua “canonica” interpretazione detta di Copenhagen, confuta o almeno mette in seria difficoltà alcuni principi fondanti della scienza classica: il Realismo Scientifico, il Principio di Località, il Determinismo. Esistono da molti anni dei tentativi per “salvare” almeno qualcuno di questi principi: ad esempio le teorie delle variabili nascoste come quella di Bohm  appunto ipotizzando delle variabili reali ma inaccessibili che determinino gli aspetti apparentemente casuali dei fenomeni quantistici. Nessuno di questi tentativi però si è sinora affermato. 
  2. Esaminando più da vicino il problema, mi pare si possa dire che tutti gli aspetti “imbarazzanti” della MQ siano legati alle nozioni di Spazio e di Tempo. Il Principio di Indeterminazione di Heisenberg si applica tipicamente a grandezze, come la posizione, la velocità o l’energia di una particella, che hanno a che fare con lo Spazio e il Tempo, e non si applica a grandezze non spaziotemporali come la massa a riposo, lo spin o la carica elettrica.
  3. Parallelamente, l’altra grande e rivoluzionaria teoria fisica del Novecento, la Relatività Generale einsteiniana, fondandosi sul principio di equivalenza perfetta tra i sistemi di riferimento di tutti i possibili osservatori, ci ha “costretto” a considerare con sospetto la nozione di “punto” dello spazio-tempo. La Fisica non è in grado di distinguere tra due Universi che si differenzino solo per una trasformazione dello spazio-tempo che non modifichi le relazioni tra gli oggetti fisici (tecnicamente, un diffeomorfismo dello spazio-tempo e della sua metrica); questa caratteristica può anche essere espressa come background-independence, ossia la descrizione fisica del mondo non dipende dallo specifico “sfondo” spaziotemporale che usiamo. Se accettiamo l’antico principio di identità degli indiscernibili introdotto da Leibniz, non si tratterebbe di due Universi distinti, ma dello stesso Universo descritto in due modi diversi. Lo Spazio e il Tempo, quindi, non sarebbero adatti a fornire una descrizione “fondamentale” della realtà fisica.
  4. Dalle considerazioni precedenti, viene naturale chiedersi se si possa elaborare una teoria fondamentale che non faccia uso dei concetti di Spazio e di Tempo. Una teoria del genere dovrebbe essere essenzialmente relazionale, ossia basarsi solo su oggetti elementari e le loro relazioni, e sarebbe “naturalmente” background-independent.  Lo Spazio dovrebbe emergere quando si descriva un sistema “abbastanza grande” perché abbia senso definirne una “dimensione”, ma questa definizione sarebbe basata sulle grandezze “fondamentali” che costituiscono la descrizione relazionale. Ricordiamoci però che “perdere” lo spaziotempo significa perdere anche la Gravitazione einsteiniana, che è indissolubile da esso. Quindi, se vogliamo ricostruire il nostro apparato bisogna che al crescere della “dimensione” del sistema  oltre allo spaziotempo emerga anche la Gravità.
  5. Fortunatamente, ci sono delle teorie escogitate appunto per fare questo, ossia “riprodurre” la Gravitazione einsteiniana a partire da un substrato fondamentale relazionale. La più accreditata di queste è la teoria delle Spin Networks, che adotta come descrizione fondamentale della realtà fisica una rete costituita da unità dotate di spin e dalle loro relazioni. Questa teorie, ancora non elaborate in modo compiuto, sembrano però in grado di far emergere sia lo spazio-tempo, sia la Gravità, sia, anche, le leggi base della MQ.
  6. Se queste teorie fossero esatte, “salverebbero” due dei tre principi che ho citato prima e renderebbero la MQ sostanzialmente “innocua”:
    1. Il Realismo Scientifico sarebbe preservato, perché le “reti” e le loro proprietà sarebbero ben definite anche indipendentemente dal fatto di essere sottoposte a un osservazione o meno. La rete stessa, e quindi le sue NxN relazioni, costituirebbe l’insieme di variabili nascoste che giustificherebbero l’apparente ambiguità delle descrizioni quantistiche spaziotemporali.
    2. Per lo stesso motivo, sarebbe preservato anche il Determinismo, visto che le componenti probabilistiche della teoria quantistica sarebbero rimpiazzate da calcoli deterministici a partire dalle variabili “fondamentali”.
    3. Invece il Principio di Località sarebbe abbandonato, proprio perché fondato su una nozione, la contiguità spaziale, che non ha un corrispettivo nella descrizione fondamentale della realtà. Il disegno qui sotto, prelevato da uno degli articoli che ho citato, mostra perché:

locality in networks

Se nella rete il nodo i ha una relazione con j, k, l, m, quando lo Spazio “emerge” può accadere che uno di questi nodi, in questo esempio k, si trovi “spazialmente lontano” da i. Non è insomma garantito che all’esistenza di una relazione nella rete fondamentale corrisponda poi una distanza spaziale “piccola”. La nozione di “locale” non è traducibile a livello delle proprietà fondamentali.

Restano da dire, credo, solo altre due cose. Una è che non vorrei aver dato l’idea che questo percorso logico attraverso cui vi ho condotto sia la “nuova verità” della Fisica: non c’è al momento, per quanto posso dire, un consenso sul fatto che le cose stiano effettivamente così, e, data la forma fortemente teorica del tutto, è difficile che siano le osservazioni sperimentali a decidere quale teoria sia quella “giusta”. Ci sono nuove teorie della Fisica fondamentale che competono con quelle “relazionali” (come la Teoria delle Stringhe) e non so quale prevarrà.

L’altra cosa riguarda il Tempo. Forse avrete notato che ho lasciato il Tempo fuori dalle mie ultime considerazioni; il motivo è che mentre secondo l’approccio che ho descritto lo Spazio è decisamente una grandezza non “reale” a livello “fondamentale”, il Tempo “esisterebbe” anche nella descrizione fondamentale della realtà. L’autore che, insieme a Lee Smolin, ha scritto alcuni degli articoli che sto citando, ne ha pubblicato uno (leggetelo, se siete interessati al tema “tecnico”) dall’eloquente titolo Lo spazio non esiste, così il tempo può esistere. La sua tesi, sostanzialmente, è che l’eliminazione dello Spazio dalle grandezze “veramente fondamentali” consente di risolvere i paradossi legati al Tempo che, come saprete, è difficile definire nella rappresentazione relativistica einsteiniana.

Chiudo con una notazione personale. Quando, verso la fine del 2007 ho aperto questo blog, il mio scopo era in realtà anche avere una scusa per ragionare e informarmi meglio su alcuni temi che rientravano tra i miei interessi ma che non riuscivo ad approfondire; avere un pubblico vero o presunto mi ha “obbligato” a essere più organico e rigoroso nelle mie piccole esplorazioni. Il percorso che ho sintetizzato qui sopra mi sembra che almeno per ora risponda in modo promettente a uno dei quesiti che sollevavo allora. Confesso che ne sono molto contento, anche se le cose che ho trovato e vi ho raccontato c’erano quasi tutte già allora. Ero io che non le sapevo…

E se Spazio e Tempo non esistessero?

Nei post precedenti abbiamo visto i principali problemi concettuali sollevati dalla Meccanica Quantistica (MQ), rispetto a quella che era, poco più di un secolo fa, la nostra visione della realtà e della conoscenza di essa; abbiamo anche visto che questi problemi concettuali non riguardano in realtà, come talvolta si dice, lo status della realtà fisica nel suo complesso, bensì le proprietà spaziotemporali degli oggetti fisici. Einstein, il principale critico della MQ, diceva che «La luna esiste anche quando non la vediamo», ma la mia impressione è che quello che la MQ sostiene non è che quando non la osserviamo non si possa dire che la luna esiste, bensì che non abbia senso affermare che la luna si trovi in una certa posizione. Questo fu sufficiente per rappresentare una rivoluzione epistemologica, ma anziché un “difetto di realtà” della luna, potrebbe indicare un difetto di realtà del concetto di posizione.

Abbiamo poi visto che nella Relatività Generale, la grande teoria einsteiniana che ancora oggi è valida per descrivere la Gravitazione e la Fisica su scala cosmica, lo status del “tessuto” spaziotemporale (nota terminologica: in inglese la parola tecnica usata è manifold, il cui corrispondente in italiano sarebbe varietà, ma preferisco evitare termini il cui significato matematico è diverso da quello corrente) è meno consistente che in Relatività Ristretta (e quindi in MQ). In realtà, dobbiamo comprendere che il concetto di “punto-istante” dello spazio-tempo non ha significato fisico, a meno che a quel “punto” sia associato un evento fisico osservabile, come un’interazione tra due particelle. Una teoria che accetti l’einsteiniano Principio di Equivalenza di tutti gli osservatori deve infatti essere indipendente dalla struttura del “tessuto” spaziotemporale, ossia deve essere background-independent. Un modo radicale di essere background-independent, ovviamente, è di rinunciare allo Spazio e al Tempo come entità “fondamentali” e trattarli invece come emergenti, un po’ come quello che chiamiamo pressione di un gas “in realtà” è riducibile al movimento di miliardi di molecole.

Ma esistono teorie che nei loro fondamenti facciano a meno di Spazio e Tempo? Sì, esistono, e sono generalmente teorie nate per riconciliare MQ e Gravitazione. Tipicamente, sono teorie relazionali, nel senso che il loro livello fondamentale di descrizione è costituito da “oggetti elementari” (come fossero particelle), e dalle relazioni tra di esse. Un esempio che abbiamo incontrato molto tempo fa sono le Spin Networks, una teoria della Gravitazione che, a partire da “unità di spin” e da relazioni tra di esse, ha come “livello fondamentale” di descrizione sostanzialmente una rete:

spin network

Questa rete non è nello spazio ordinario: è semplicemente una rete di relazioni. Chi ha sviluppato la teoria delle Spin Network, però, è riuscito a dimostrare che si può definire in modo sensato un’area e un volume a partire dalle relazioni della rete. Quindi, è possibile “ricostruire” la nozione di Spazio a partire da una “realtà ultima” in cui lo Spazio “non esiste”. Ma è anche possibile, a partire da questa o da altre teorie relazionali, ricostruire la MQ, facendo in modo quindi che a emergere non sia solo lo Spazio, ma anche la MQ che usa il concetto ordinario di Spazio? Se si ottenesse questo, automaticamente si soddisferebbe l’esigenza di conservare i moltissimi risultati sperimentalmente confermati della MQ.

Ci sono diversi fisici teorici che hanno cercato di ottenere proprio questo risultato. Un esempio è un articolo di F. Markopoulou e Lee Smolin, autore di alcuni validissimi libri di divulgazione. Traducendo a braccio dall’abstract, l’articolo mostra che «da un modello background-independent privo di meccanica quantistica, la teoria quantistica emerge nello stesso limite nel quale appaiono le proprietà spaziali».

Nei termini in cui tradizionalmente si discutono le alternative alla MQ, questo tipo di teoria sarebbe una teoria delle variabili nascoste non locali, dove le variabili nascoste, sempre secondo gli autori, sarebbero le relazioni (gli archi) che collegano i nodi della rete (che in questo caso non è necessariamente una spin network, ma segue una logica simile).

Quindi, in un certo senso, se questi signori hanno ragione il nostro cerchio è chiuso: lo Spazio non è “reale”, o almeno è reale quanto lo sono tutte quelle grandezze fisiche (come la pressione, o la temperatura) che sono definibili solo, collettivamente, per sistemi “grandi” ma non hanno senso a livello microscopico. Se le proprietà spaziali degli oggetti non sarebbero reali, oggetti e relazioni invece lo sarebbero, e quindi il Realismo Scientifico sarebbe valido.

Nel prossimo post, comunque, proverò a riassumere e tirare le somme, che in questo caso è un’operazione un po’ complicata… e richiede anche un po’ di Tempo.

Meccanica Quantistica: dov’è il trucco?

Nel post precedente, abbiamo visto che, nel corso dei decenni, da un lato si sono accumulate le prove sperimentali favorevoli alla Meccanica Quantistica (MQ), dall’altro si è osservato che alcune caratteristiche della MQ sono “inevitabili”, anche nel caso in cui si riuscisse a elaborare una teoria alternativa ad essa.

Quindi, il buon senso potrebbe indurci ad adottare la linea di pensiero più naturale, e semplicemente accettare la MQ come la teoria “giusta” della Fisica fondamentale. Il fatto che essa non sia conciliabile con la Relatività Generale potrebbe essere alla fine risolto da una delle versioni della Teoria delle Stringhe, che sono tutto sommato un’estensione dell’approccio della MQ, e ne condividono punti concettualmente forti e discutibili. “Se non puoi batterli, unisciti a loro”, dice l’adagio, no?

Io invece, almeno per ora, vorrei esplorare insieme a voi le ragioni per cercare un’alternativa. La prima ragione, ovviamente, va ricercata nelle caratteristiche controverse della MQ di cui abbiamo già parlato; per ragioni che ho in parte già esposto altrove, io credo che sia molto difficile abbandonare il Realismo Scientifico e continuare ad avere la pretesa di avere una conoscenza coerente e affidabile di ciò che non siamo noi stessi. Inoltre, sono ugualmente poco incline ad accettare un Indeterminismo “fondamentale”, cioè non derivante da una nostra ignoranza di qualche elemento della realtà. Dato che abbiamo visto che il Realismo e il Principio di Località non sono entrambi veri, quindi, devo rinunciare al Principio di Località. Si tratta di un’idea apparentemente ragionevole, quasi scontata: ogni oggetto può essere influenzato solo da ciò che è nelle sue immediate vicinanze. Ossia, è un principio che si basa sul concetto di contiguità spazio-temporale; se è falso, allora in questa nozione apparentemente evidente c’è qualcosa che non torna. Ricordiamocelo, e andiamo avanti.

Volendo quindi preservare il Realismo, andiamo a esaminare più da vicino come mai la MQ lo metta in discussione. Come sappiamo, l’interpretazione canonica della MQ dice che non ha senso parlare delle proprietà, ad esempio delle particelle elementari, se non quando le si osservano. Ma quali proprietà? Non tutte! Lo stesso Bohr, padre dell’interpretazione strumentalista della MQ, dice che “l’uso di concetti spaziotemporali nella descrizione dei fenomeni atomici deve essere limitato alla registrazione di osservazioni” (il grassetto è mio). Infatti, se immaginiamo di osservare la posizione di un elettrone in due diversi punti A e B, la MQ dice che nei nostri calcoli dobbiamo tener conto di tutti i possibili percorsi che l’elettrone potrebbe aver seguito per andare da A a B, proprio perché non possiamo sapere nulla della sua posizione e della sua velocità quando non lo osserviamo.

path integral

Benissimo: però un elettrone ha anche altre proprietà, e ce ne sono alcune che sono note e che consideriamo invariabili anche quando non osserviamo l’elettrone. Di quelle ha senso parlare anche quando non stiamo osservando l’elettrone: ad esempio lo spin o la carica elettrica dell’elettrone non cambiano mai. Come mai c’è questa differenza?

Il motivo “matematico” è che alcune grandezze fisiche, come la posizione o la velocità di un elettrone, sono soggette al famoso Principio di Indeterminazione di Heisenberg, il che vuol dire che ci sono stati dell’elettrone in cui la posizione è determinata e la velocità no, e altri in cui vale il contrario. Invece, la carica elettrica non è soggetta al Principio di Indeterminazione: in qualsiasi possibile stato, l’elettrone ha sempre la stessa carica. Un modo di vedere la differenza con la Fisica Classica è proprio questo: in MQ, ci sono grandezze fisiche sottoposte al Principio di Indeterminazione. E quali sono?

Sono, guarda un po’, quelle che hanno a che fare con lo spazio-tempo. Ecco perché nella citazione di Bohr prima ho evidenziato il fatto che fossero i concetti spaziotemporali a dover essere usati con cautela. Ed ecco perché ho sottolineato il fatto che se il Principio di Località non è valido, potrebbe darsi che sia il concetto di Località a essere mal definito.

Insomma, quello che viene da sospettare è che il “trucco” della MQ non stia nel fatto che non abbia senso parlare della realtà quando non la osserviamo, ma che siano le proprietà spaziotemporali della realtà a non essere… reali. Forse le curiose proprietà della MQ dipendono dal fatto che è una teoria che presuppone un “tessuto” di spazio-tempo (in Fisica si dice che è una teoria background-dependent), che potrebbe non essere un concetto così affidabile.

Nel prossimo post, vedremo che in realtà lo stesso Einstein aveva individuato questa debolezza nella sua stessa teoria della Relatività Ristretta, e che aveva faticosamente abbandonato questo presupposto nella teoria della Relatività Generale.

Ma la Meccanica Quantistica è proprio inevitabile?

Nel post precedente abbiamo visto che la Meccanica Quantistica (MQ) presenta almeno tre caratteristiche “imbarazzanti” per chi come me è legato a una concezione scientifica più tradizionale (sembra singolare dire questo dopo quasi un secolo dall’elaborazione della MQ, ma il punto è proprio che nonostante il passare del tempo alcuni principi della Fisica pre-quantistica sono difficili da abbandonare, e l’alternativa proposta dalla MQ è nella migliore delle ipotesi oscura, nella peggiore contraddittoria). Infatti la MQ, secondo la sua interpretazione canonica, abbandona  o rende problematici i seguenti tre principi cardine della Fisica classica (v. sempre post precedente):

  1. Il Realismo.
  2. Il Determinismo.
  3. Il Principio di Località.

A queste caratteristiche si oppose a suo tempo Einstein, che ne colse appieno gli elementi  “eversivi” ma non riuscì a trovare alternative possibili. La sua opinione era che la MQ non fornisca “una descrizione completa della realtà fisica”, e che quindi debba esistere una teoria più profonda che superi la MQ e le sue aporie.

Ma, prima di capire se una teoria simile possa esistere, è interessante chiedersi quali margini ci siano per un’alternativa alla MQ. È possibile che una teoria per ora ignota elimini le tre scomode caratteristiche che ho citato? Su questo, ossia su quali vincoli dovrebbe comunque rispettare una simile teoria, i fisici hanno già ragionato a lungo.

Un primo risultato su cui esiste un consenso generale è che Realismo e Principio di Località non possono essere entrambi veri. Esiste infatti il cosiddetto Teorema di Bell che dimostra che qualsiasi teoria che cerchi di rispettare entrambi questi principi dovrà prevedere dei risultati sperimentali diversi da quelli previsti dalla MQ, in particolar modo per sistemi costituiti da due o più particelle entangled. È quindi possibile con un esperimento verificare se nella realtà siano corrette le previsioni della MQ o quelle di una qualsiasi teoria “realista locale”. Esperimenti del genere sono stati effettivamente realizzati, e i risultati dimostrano che nessuna teoria “realista locale” può essere esatta, e che quindi almeno uno tra i principi 1 e 3 va abbandonato.

Un secondo tipo di “dimostrazione generale” è invece relativa alla forma matematica della MQ. Alcuni autori, infatti (ad esempio qui e qui), hanno cercato di dimostrare che sulla base di assiomi “ragionevoli” e piuttosto generali è possibile stabilire che la forma della MQ (escludendo il controverso “processo di misura”) è fortemente determinata appena si introduce un qualche assioma che escluda la “tradizionale” Meccanica Classica, che come sappiamo su scala microscopica “non funziona”. Come è scritto nelle conclusioni del secondo articolo che citavo (attenzione, è difficile, uno di quegli articoli in cui io “guardo solo le figure”): “una teoria che vada oltre la MQ deve violare almeno uno degli assiomi [su cui si è basata la dimostrazione] e quindi deve distaccarsi radicalmente dalle consuete assunzioni apriori che adottiamo circa la struttura delle leggi fisiche” (traduzione e grassetto sono miei).

Infine, possiamo dire che la caratteristica più controversa ed “attaccabile” della MQ ortodossa è il modo in cui è rappresentata l’operazione di misura. Infatti questo è l’unico punto della teoria dove per calcolare i risultati si usa un procedimento intrinsecamente stocastico, che impedisce quindi di prevedere tali risultati in modo deterministico. Questo Non-determinismo è una caratteristica che molti hanno considerato “posticcia” rispetto alla MQ e hanno cercato di eliminare; ho già discusso in molti vecchi post diverse proposte in merito, la maggior parte delle quali in un modo o nell’altro ipotizzano che l’apparente casualità sia in realtà sintomo dell’esistenza di variabili fisiche nascoste che codeterminano l’evoluzione di un sistema quantistico ma che non siamo in grado di osservare. Tuttavia, anche qualsiasi “teoria delle variabili nascoste” dovrebbe rispettare i vincoli molto stretti che ho descritto in precedenza, in particolare quelli imposti dal Teorema di Bell. Insomma, il Determinismo può essere difendibile o in modo “tattico” introducendo un qualche meccanismo ad hoc per spiegare l’apparente casualità della misura (v. ad es. questo post) o in modo “strategico”, assegnando alle variabili nascoste un significato ontologicamente molto più profondo.

In conclusione, l’impresa di trovare una teoria fisica che superi la MQ preservando alcuni dei principi “tradizionali” della Fisica sembra quasi disperata, in quanto una simile teoria dovrebbe:

  1. Riprodurre tutte le previsioni della MQ, almeno per quanto riguarda gli esperimenti che siamo stati in grado di realizzare finora e che hanno confermato l’esattezza assoluta della MQ.
  2. Abbandonare comunque almeno uno tra Realismo e Principio di Località.
  3. Rappresentare una radicale rivoluzione nel modo di strutturare le teorie fisiche, sovvertendo qualcosa di “fondamentale”, visto che altrimenti la MQ è sostanzialmente “inevitabile”. Una teoria così, ammesso che possa esistere, dovrebbe però poi ricondursi alla MQ nel limite in cui quest’ultima “funziona”, un po’ come la MQ si riconduce alla Meccanica Classica nel limite di sistemi “grandi”.

Nel prossimo post proporrò qualche riflessione su se ci sia qualche indizio su dove cercare una simile teoria.

Cosa c’è che non va nella Meccanica Quantistica?

Già: cosa c’è che non va? E c’è davvero qualcosa che non va? In questo post riassumeremo e ripeteremo alcuni concetti base già discussi in passato, ma è utile farlo per introdurre correttamente il problema.

Come abbiamo già visto molte volte, la Meccanica Quantistica è una teoria di eccezionale successo. Su di essa è basato il Modello Standard delle particelle elementari, che descrive con incredibile precisione tutti i fenomeni della Fisica microscopica, e che ha appena completato il suo mosaico di particelle elementari con la scoperta del Bosone di Higgs. Si può dire che, dopo quasi un secolo dalla sua formulazione, non esista alcun dato sperimentale che contraddica le previsioni della MQ, eppure gli esperimenti che da allora sono stati compiuti hanno certo superato qualsiasi immaginazione dei padri della Fisica moderna.

Quindi, c’è davvero qualcosa che non va? Sì, c’è.

Per dire che qualcosa non va, basterebbe forse osservare quale sia ancora oggi il livello di dibattito e considerare i mille tentativi di trovare delle alternative teoriche o interpretative a una teoria così efficace. Infatti la MQ mette in crisi alcuni dei pilastri fondamentali della scienza tradizionale, e anche del modo in cui noi consideriamo il nostro rapporto con la realtà “esterna”. Per sintetizzare, secondo me gli aspetti controversi o “imbarazzanti” della MQ sono:

  1.  L’esistenza di “stati misti” di un sistema quantistico, per cui in un dato istante esso è in generale descritto come una sovrapposizione di stati “univocamente definiti”, o puri. Da qui viene fuori il famoso paradosso del Gatto di Schrödinger, che sarebbe allo stesso tempo vivo e morto.
  2. Il meccanismo di misura, che richiede che ogni volta che si desidera calcolare il risultato di un esperimento si debba ricorrere a un procedimento intrinsecamente casuale e indeterministico.
  3. L’esistenza di stati entangled di sistemi composti, ossia l’esistenza di intercorrelazioni tra oggetti distinti (ad esempio due elettroni), indipendentemente dalla collocazione spaziale di questi ultimi (ad esempio i due elettroni potrebbero trovarsi a una distanza anche molto grande tra loro).

Questi tre elementi chiave della MQ minano alla base tre corrispondenti pilastri concettuali della scienza:

  1. Il Realismo Scientifico, ossia l’idea che “il mondo studiato dalla scienza esiste, ed ha le proprietà che ha indipendentemente dalle nostre credenze […] , e lo scopo della scienza è descrivere e spiegare quel mondo, inclusi i suoi molti aspetti che non sono direttamente osservabili“, per citare un testo di Filosofia della Scienza. Secondo l’interpretazione “ortodossa” della MQ, invece, non ha senso parlare di “realtà” di un sistema quantistico se non in corrispondenza con un’osservazione sperimentale (“only an observed phenomenon is a phenomenon”, disse Bohr). Questa interpretazione è fortemente controversa, ma è in pratica quella che credo ancora oggi venga insegnata nelle Università come quella “di riferimento”. La MQ ortodossa, quindi, contraddice il Realismo.
  2. Il Determinismo, ossia l’assunto che il futuro comportamento di un sistema fisico sia completamente determinato dal suo stato iniziale e dalle leggi della Fisica. La MQ ammette solo una previsione probabilistica dei risultati di un’operazione di misura, e, indipendentemente dal fatto che si consideri il cosiddetto “collasso della funzione d’onda” un processo fisico reale o solo una tecnica di calcolo (v. ad es. questo vecchio post), non consente neanche in linea di principio di prevedere in modo certo il risultato di future osservazioni su un sistema noto.
  3. Il Principio di Località, che sostanzialmente afferma che un sistema fisico può essere influenzato solo da entità ad esso fisicamente prossime. Questo principio, fortemente sostenuto da Einstein, è appunto contraddetto dall’entanglement quantistico. Due oggetti entangled sono in una relazione che non può essere eliminata o indebolita allontanandoli materialmente uno dall’altro.

Abbandonare questi tre principi fondamentali è ovviamente qualcosa che qualsiasi fisico fa molto malvolentieri, ancora oggi. Ma abbiamo davvero scelta? Possiamo magari sperare che, come la Gravitazione Newtoniana è stata alla fine superata dalla Relatività Einsteiniana, una futura teoria sconfessi la MQ e ripristini appieno i principi della Fisica classica?

Nel prossimo post vedremo quanto sia “inevitabile” la MQ, e quali spazi ci siano per ipotetiche teorie alternative.

Perché credere in Higgs o nei neutrini, ovvero del pregiudizio inevitabile

Una questione “collaterale” ma interessante legata ai recenti risultati sperimentali sul bosone di Higgs, che ho commentato nei post precedenti, è in un certo senso metodologica, e riguarda i “criteri di accettazione” che ognuno di noi applica a questo tipo di notizie.

A parte i criteri, diciamo così, “istituzionali” di validazione in uso in ciascuna comunità scientifica, alla fine ognuno si forma un’opinione più o meno bene informata. Ma questa opinione non è determinata solo dai dati presentati, o dalla credibilità degli autori delle ricerche.
Una persona mi ha chiesto: “come mai tu non credi che i neutrini vadano più veloce della luce ma credi che sia stato trovato il bosone di Higgs, quando il “livello di confidenza” della prima misura è 6 σ, mentre quella della seconda è a malapena 3 σ?” [per chi non è uso a questi parametri, significa che nel primo caso la probabilità che il dato dipenda da una “fluttuazione statistica” è meno di una su 500 milioni, mentre nel secondo è di 3 su 1000].

Già, perché? Non perché io creda che la prima ricerca sia meno seria della seconda: la qualificazione dei ricercatori nei due casi è equivalente, e la qualità degli apparati più o meno anche. Anzi, nel primo caso i dati sono molto più “maturi”, mentre nel secondo sono sostanzialmente quasi preliminari.

La risposta è semplice: perché il primo risultato è molto improbabile, mentre il secondo è piuttosto probabile. Direi che questa affermazione, per quanto molto intuitiva, merita una discussione, no? Vuol dire che ho dei preconcetti?

In un certo senso, sì, ma di preconcetti “sani”: si tratta semplicemente dell’applicazione non formalizzata della regola di inferenza bayesiana, che poi utilizza una forma della cosiddetta probabilità condizionata:

Tradotto in linguaggio ordinario: la probabilità di A, sapendo che è vera B, è data dalla probabilità “apriori” di A, moltiplicata per la probabilità di B quando è vera A, divisa per la probabilità totale di B. Questa, che è una formula elementare di calcolo delle probabilità, ha delle interessanti implicazioni una volta interpretata “secondo Bayes”.

Vediamo di applicare la regola al nostro caso: una volta effettuata la misura, l’ipotesi che si vuole verificare con la misura stessa viene corroborata o scoraggiata a seconda che P(B/A) / P(B) sia maggiore o minore di 1. Questo rapporto, in sostanza, sta a indicare se il valore trovato dalla misura sia più compatibile con la teoria da testare di un valore casuale. Nei casi che abbiamo visto, questo rapporto è inversamente proporzionale alla verosimiglianza che il risultato della misura non sia frutto di una fluttuazione casuale, e quindi nel caso dei neutrini è molto maggiore che nel caso di Higgs. Ma resta da considerare l’altro fattore P(A): infatti, cosa mai è quella che ho chiamato la “probabilità apriori” P(A)?

Beh, in sostanza, è la probabilità che in partenza assegno all’ipotesi da verificare. Questo può sembrare metodologicamente scorretto, in quanto è chiaro che se io conoscessi già la verosimiglianza dell’ipotesi in modo attendibile forse non farei neanche l’esperimento, tuttavia come ci insegna Bayes è necessario, e introduce un elemento di soggettività, qualora non sia possibile trovare un criterio oggettivo per valutare a priori P(A). Farò ora, ispirandomi al bel libro L’Illusione di Sapere, un paio di esempi per chiarire, e per evidenziare gli errori cui saremmo esposti se non tenessimo conto del criterio di Bayes nel valutare le probabilità.

Supponiamo che voi siate i giurati di un processo. Un testimone dichiara di aver visto allontanarsi dal luogo del delitto un’auto marrone scuro. Però il marrone scuro potrebbe confondersi col nero, e supponiamo anche che in città per ogni auto marrone scuro ne circolino 19 nere (tanto per dire). I giudici quindi non si fidano, e fanno fare una prova da cui emerge che il testimone ha un ottimo occhio e 9 volte su 10 distingue correttamente un’auto marrone da una nera (e viceversa). Un giurato potrebbe accontentarsi, e considerare attendibile la testimonianza, no?
Un attimo, vediamo cosa direbbe mr. Bayes: per applicare la formula che ho riportato sopra, vediamo come si applica a questo caso:
– A sta per “l’auto è marrone”, e quindi P(A) è la probabilità che un’auto, osservata a caso, sia marrone.
– B sta per “il testimone giudica l’auto marrone”, e quindi P(B) è la probabilità che, presa un’auto a caso nella popolazione esistente, il testimone dica che è marrone.
– quindi, la probabilità condizionata P(B/A) è la probabilità che il testimone giudichi marrone un’auto marrone, e così via.

Per quello che abbiamo detto, P(B/A) = 0,9; P(A) = 0,05, visto che le auto marroni sono un ventesimo del totale (ignoriamo tutte le auto di altri colori, tanto il ragionamento su più di due colori sarebbe lo stesso). Infine, qual è la probabilità che, presa un’auto a caso tra tutte quelle che ci sono, marroni o nere, il testimone dica che è marrone? Ovviamente, la somma tra la probabilità che l’auto sia marrone e che il testimone valuti esattamente (e quindi 0,05 * 0,9) e quella che l’auto sia nera e il testimone sbagli (0,95 * 0,1). Quindi,  P(B) = 0,14.
Alla fine, qual è la probabilità che l’auto vista dal testimone sia davvero marrone? Ebbene, solo poco più del 32%. Ve l’aspettavate, o avreste condannato un innocente?

Un altro caso illuminante è quello di uno screening clinico, diciamo per trovare una malattia gravissima e rara, che colpisca una persona su 10.000. Supponiamo di avere un test che risulti positivo sull’80% dei malati, e sull’ 1% dei sani: un test quindi che sembra decisamente buono. Sarebbe una buona idea, costi a parte, sottoporre a uno screening tutta la popolazione? Certamente no: chi risultasse positivo al test avrebbe  circa il 92,6% di probabilità di non avere la malattia. Ecco (uno dei) perché gli screening si fanno sulle categorie a rischio.

Alla fine, cosa concludere, specie nei casi in cui non conosciamo in modo così preciso il valore della probabilità “apriori” P(A)? Che, in qualsiasi valutazione sulla verosimiglianza di un fatto riportato, non solo sarebbe difficilissimo non farsi influenzare dai “pregiudizi” (ossia da una nostra idea preliminare di quanto sia “probabile a priori” quello che ci viene prospettato), ma sarebbe sbagliato, e potrebbe condurci a considerare erroneamente plausibili, che so, le storie di fantasmi. Quando qualcuno critica la “chiusura mentale” di chi ha un approccio scettico alle teorie sui cerchi nel grano o sugli effetti degli astri sul carattere, sta in realtà cercando di indurci in un disastroso errore cognitivo, quello di considerare “ugualmente plausibile” ciò che è coerente con le nostre conoscenze e ciò che è, per così dire, “campato in aria”.

Il punto non è evitare di avere “pregiudizi” nel senso sopra chiarito: è avere i pregiudizi “giusti”, e un esperto, alla fine, è una persona che ha sviluppato giudizi probabilistici a priori validi su un settore della conoscenza, e che li incorpora, più o meno consapevolmente, nelle sue valutazioni sul suo campo di attività. Ricordiamocelo.

Ma forse eliminare la Fisica non è così semplice

Vorrei, con questo post, chiudere la mia opinabile “escursione” nella Filosofia della Scienza provocata dalla lettura degli articoli di Max Tegmark e dell’ultimo libro di Douglas Hofstadter; dico “opinabile perché temo sia stata, e sarà ancora, tutt’altro che filosoficamente rigorosa.

Dicevamo che Tegmark propone di “eliminare” i modelli fisici della realtà come inutili, in quanto, a suo dire, la matematica è sufficiente a “descrivere” in modo esauriente la realtà stessa; anzi, nell’ipotesi che sia possibile costruire un modello matematico completamente isomorfo alla realtà (quello che in Fisica sarebbe una Teoria del Tutto, ossia il Sacro Graal della Fisica), si dovrebbe concluderne che matematica e realtà sono la stessa cosa. I nostri modelli fisici della realtà sarebbero in sostanza solo dei “mediatori cognitivi” a beneficio delle nostre umane capacità di comprensione e di modellizzazione, e andrebbero rigettati in nome di un sano Principio Anti-antropico che ho accennato in un post precedente. Per Tegmark, addirittura, proprio perché la matematica sarebbe la realtà, dovremmo attenderci di ritrovare nella “realtà” quello che crediamo di costruire nella matematica per così dire “astratta”. Contrastare questa tesi è materia da filosofi puri, e probabilmente sfocerebbe in una discussione sulla riducibilità della realtà fisica a informazione e strutture matematiche calcolabili alla quale non mi sento al momento incline. Si rischierebbe di ipotizzare equivalenti “fisici” dei qualia della Filosofia della Mente, che peraltro sono un concetto che trovo eliminabile a sua volta.

In questo post, però, non vorrei discutere la versione “forte” delle tesi di Tegmark, che incorpora sicuramente delle assunzioni ontologiche per me troppo forti e difficilmente difendibili se non come congetture, e mi concentrerei su una “mia” versione indebolita di esse, che non coinvolga l’ontologia ma “solo” l’epistemologia. In altre parole, anziché la tesi secondo cui la matematica sia la realtà, vorrei discutere quella secondo cui ne sia una rappresentazione necessaria e sufficiente dal punto di vista conoscitivo, rendendo superflui se non addirittura fuorvianti i modelli fisici che ordinariamente la accompagnano.

In questa forma, la tesi di Tegmark sarebbe meno rivoluzionaria, suonando un po’ assonante ad esempio all’approccio di Heisenberg alla Meccanica Quantistica. E’ dunque il caso di abbandonare i concetti fisici come particelle, forze, campi, e limitarci alle equazioni matematiche e al confronto tra i risultati che ne ricaviamo e gli esperimenti? In un certo senso è un’idea sostenibile, e in qualche modo coerente con un approccio Strumentalista alla Filosofia della Scienza, per quanto Tegmark sia un Realista Scientifico.
Senza voler dare una risposta a questa domanda, vorrei però fare una considerazione: se si prendono in esame le strutture matematiche che nel corso del tempo sono state impiegate nelle teorie fisiche più “in voga”, troviamo che esse sono cambiate in modo notevole. Lo stesso Tegmark cita le “curve di minima azione in R4” corrispondenti alla meccanica classica newtoniana, i “campi tensoriali su una varietà riemanniana 3+1-dimensionale”, i “campi quadridimensionali in uno spazio di Hilbert che rispettano le equazioni dinamiche e le regole di commutazione” della Meccanica Quantistica. Ai miei occhi, questi “dispositivi” matematici non hanno poi molto in comune, e mi sfugge, se esiste, il “filo” di continuità che avrebbe potuto far evolvere l’una nell’altra queste rappresentazioni matematiche della realtà se non ci fossero stati a determinarle i corrispondenti modelli fisici, la cui evoluzione è invece molto più chiara. Non è un caso, a mio parere, che Tegmark proponga la sua tesi riferendola solo alla situazione ideale e probabilmente irrealizzabile in cui sia stata (già) trovata la Teoria del Tutto e quindi ci si trovi in una situazione da “fine della Fisica”.

Se dovessimo considerare le teorie fisiche come una specie di “epifenomeno” dell’uso della matematica per rappresentare (o essere, nella tesi “forte” di Tegmark) la realtà, allora dovrebbe anche esistere un modo in cui un modello matematico può evolvere in un altro più esattamente corrispondente alla realtà senza passare dalla Fisica. Dovrebbe insomma esistere una sorta di “spazio fittizio” dei modelli matematici in cui, applicando una “ricerca operativa” del modello meglio corrispondente ai dati sperimentali disponibili, si possa selezionare il modello (contingentemente) migliore. Ma un’idea del genere dovrebbe, a mio parere, implicare che il modello che man mano viene selezionato sia “poco diverso” dal precedente, fino all’auspicabile convergenza nel modello corrispondente alla fantomatica Teoria del Tutto. Invece, a me pare che tale continuità non ci sia, né ci siano segni di una convergenza in tal senso, mentre esiste sicuramente una continuità nei modelli fisici che adottiamo. Questo potrebbe ovviamente dipendere dal fatto che siamo noi umani a produrre questa evoluzione, soggetti quindi a quella dipendenza “antropica” da rifiutare di cui ho parlato; però rimane da capire come potrebbe la matematica, da sola, ottenere un analogo risultato, magari a opera di supercomputer anziché esseri umani.

Insomma, finché un Tegmark non abbia chiarito come sarebbe possibile fare a meno della Fisica non nella condizione terminale (e nei fatti irrealizzabile, e in ogni caso non verificabile) in cui avessimo una teoria che descriva in modo esauriente e perfettamente esatto la realtà, ma nella concreta condizione epistemologica in cui si trova qualsiasi “mente scientifica”, inclusa quella di un alieno o di un computer, io resterò probabilmente dell’idea un po’ tradizionalista che è la Fisica a guidare la Matematica nello studio della realtà, e non viceversa, e che se una realtà esterna esiste è fatta di elettroni e non di equazioni.

Eliminare la Fisica?

Dunque, nell'ultimo post ho esposto i motivi per cui ritengo sia ragionevole, da un punto di vista filosofico, adottare quello che ho chiamato Principio Anti-Antropico. Questo principio ha sostanzialmente lo scopo di eliminare dai nostri modelli della Realtà gli enti che sono essenzialmente dipendenti dal nostro modo di acquisire e rappresentare la conoscenza, e che sono arbitrari o riconducibili a enti più fondamentali rispetto ai quali non aggiungono contenuti ontologicamente autonomi.

Questo principio implica, tanto per fare un esempio, che non "Esiste" una cosa come la "pioggia". Per carità: è assolutamente logico e sensato usare la pioggia come un concetto indispensabile sia nella nostra vita di tutti i giorni che nella Fisica dell'Atmosfera. Eppure, credo che siamo tutti d'accordo che se dovessimo fare una lista degli enti ontologicamente indipendenti che costituiscono la realtà non vi includeremmo la pioggia, così come non vi includeremmo il "fegato" o la "madreperla". Certamente, la pioggia, i fegati e la madreperla "esistono", ma esistono come concetti aggregati che unificano enti e forze fondamentali in qualcosa di adeguato alle nostre dimensioni materiali e di "trattabile" dalle nostre facoltà cognitive. Insomma, non tutto ciò che esiste Esiste. Se gli abitanti di una lontana stella studiassero la Fisica, difficilmente parlerebbero di "piani inclinati", "circuiti elettrici" o "macchine termiche", ma quasi certamente parlerebbero di elettroni, fotoni e quark (ammesso che i nostri modelli della Fisica siano esatti). O no?

Non è detto. La Fisica, che impietosamente ha l'abitudine di "eliminare" le altre discipline, e anche molte parti di se stessa, trasformandole da cose che Esistono in cose che esistono, potrebbe cadere a sua volta vittima della stessa scure logica. Questa è almeno la tesi, che citavo in qualche post precedente, di Max Tegmark (e di altri autori; non prendete questi miei post come un'esposizione organica di alcun argomento filosofico: sono pur sempre l'Incompetente!).

Cediamo virtualmente la parola a Tegmark: se esiste una realtà fisica indipendente da noi osservatori umani (ed è un grosso se: questa è la tesi tutt'altro che pacifica del Realismo Scientifico, che ho discusso tempo fa e al quale ho affermato di aderire), allora una ideale Teoria del Tutto, che rappresenti in modo esatto e completo ogni elemento fondamentale della realtà deve essere espressa in forma indipendente anche dalla cultura e dalla biologia umane, e "deve essere ben definita anche per esseri senzienti non umani (che siano alieni o supercomputers) cui manchi la comprensione dei concetti comuni che noi umani abbiamo sviluppato, come particella, o osservazione, o anche qualsiasi parola" di una lingua umana (sto traducendo abbastanza liberamente l'originale).

Ecco quindi da dove nasce la tesi eliminativista di Tegmark, che punta a eliminare dall'ontologia ogni elemento dei nostri modelli fisici, e ricorrere alla matematica come descrizione fondamentale della realtà: dal Principio Anti-Antropico, lo stesso che userei per dichiarare eliminabili gli enti "psicologici" su cui si basano le descrizioni dei fenomeni mentali. Accidenti, e ora? Mi trovo di fronte al dilemma di scegliere tra le seguenti alternative:

  1. Accettare la "fine della Fisica", e sposare una qualche teoria dell'Informazione come Realtà.
  2. Dichiarare fallace il ragionamento di Tegmark (che però devo confessare mi pare solido).
  3. Individuare un contenuto "ineliminabile" della Fisica, ossia trovare una ragione persuasiva per sostenere che la Fisica contiene delle informazioni sulla realtà che la Matematica non coglie.

Forse, in un prossimo post, tenterò di approfondire il punto 3; per ora, però, devo confessare che non ho argomentazioni valide per contestare il buon Tegmark. Avrà mica ragione lui?

Una proposta: il Principio Anti-Antropico

Facendo una breve appendice al post precedente, vorrei quindi proporre una generalizzazione dell’argomento di cui ho tentato di esporre i fondamenti: un livello di rappresentazione della realtà che risponda agli schemi cognitivi umani, ma che sia ridondante o potenzialmente alternativo ma incompleto rispetto a un livello di cui è possibile stabilire empiricamente la validità almeno al meglio delle attuali conoscenze, va considerato eliminabile. Il suo status, come dicevo prima, potrebbe essere definito “antropico”, ma non ontologicamente autonomo.

Enti come le credenze, la volontà, i desideri, esisterebbero in quanto costrutti utili, anche necessari, per i nostri processi conoscitivi, ma non sarebbero “oggettivi”, e non perché corrispondono a fenomeni mentali e quindi non oggettivabili, ma perché modellati sul nostro modo di percepire il mondo in generale e i modelli mentali in particolare. Se noi cambiassimo i nostri modelli conoscitivi, questi enti perderebbero senso, mentre nozioni come neuroni o sinapsi no; se le nostre menti fossero studiate da alieni dotati di processi cognitivi incommensurabili coi nostri, per loro questi oggetti sarebbero ancora parte della loro spiegazione di come "funzioniamo".

Proviamo, quindi, a sintetizzare questa posizione in un Principio Anti-Antropico: «Ogni ente che faccia parte di un modello di rappresentazione della realtà “debole” (nel senso indicato sopra) rispetto a uno più fondamentale, ma che sia strumentale alla rappresentazione della conoscenza, ossia che trovi la sua ragion d’essere esclusivamente nella sua utilità strumentale ai fini degli schemi cognitivi umani, è eliminabile».
Se quindi accettiamo questo principio nell’ambito della Filosofia della Mente, per coerenza dobbiamo essere disposti ad adottarlo anche in altri contesti… e come vedremo nel prossimo post, questo principio non è esattamente farina del mio sacco.

Tegmark e l’Eliminativismo

Vorrei, con un deplorevole ritardo per il quale bisogna ringraziare, oltre che la necessità di un minimo di riflessione, le fastidiose incombenze di lavoro che mi impediscono di occuparmi di sesso degli angeli tutto il giorno, aggiungere qualche riflessione agli ultimi post dedicati alla relazione tra modelli matematici, modelli fisici e “realtà”.

Il punto di partenza era la tesi di Max Tegmark secondo cui la matematica non sarebbe un modo di descrivere la realtà, ma sarebbe essa stessa la realtà. Provo a spiegare, rinviando comunque agli articoli di Tegmark il lettore interessato: se disponiamo di un “modello” matematico che produce predizioni accurate circa i risultati delle nostre osservazioni dei fenomeni fisici, questo “modello” non richiede un corrispondente modello fisico per essere interpretato e correlato alla realtà esterna, ma è esso stesso isomorfo con la realtà. In altre parole, la Fisica sarebbe una costruzione accessoria realizzata da noi esseri umani a solo beneficio delle nostre specifiche modalità cognitive, ma priva di relazione con la realtà, e, infine, epistemologicamente superflua. Se la matematica è isomorfa alla realtà, allora essa è la realtà, e la Fisica serve solo a noi umani per dare un’organizzazione intellegibile alle aride equazioni matematiche.

In questo post e nei successivi, vorrei esplorare alcune implicazioni di questa idea, o meglio accostarla ad alcune posizioni “classiche” in Filosofia della Mente, sperando che l’accostamento risulti stimolante. Credo infatti che ci siano aspetti comuni che possono risultare interessanti per entrambi gli ambiti.

In particolare, per quanto riguarda la Filosofia della Mente, il dibattito ontologico ha ormai alle spalle diversi secoli, e non tenterò di riassumerlo, rinviando semmai all’eccellente enciclopedia filosofica online di Stanford chi volesse ripercorrerlo. Mi limito qui a dare per scontata l’adozione di una prospettiva interamente materialista, e quindi l’abbandono di ogni tentativo dualistico, esplicito come quello originario di Cartesio o implicito come quello di alcuni filosofi più recenti. Con queste premesse, è a mio parere ragionevole uno schema che preveda che esistano diversi possibili livelli di descrizione dei fenomeni “mentali”:

  • Uno assolutamente fondamentale, che chiamerò Fisico, che corrisponde al livello “di base” di descrizione di qualsiasi parte della realtà fisica, e che è basato sulla dinamica di particelle elementari (Elettroni, Fotoni, Protoni, …) e forze fondamentali, in particolare l’Elettromagnetismo.
  • Uno, che chiamerò Neurologico, che studia i fenomeni mentali a partire dallo studio dei costituenti “elementari” del cervello e del sistema nervoso centrale umano (che assumiamo qui essere la “sede riconosciuta” della materia che costituisce la Mente), ossia Neuroni, Sinapsi, Neurotrasmettitori, e tutte le strutture che da essi sono o possono essere formate.
  • Uno, che chiamerò Psicologico, che studia i fenomeni mentali quali noi li descriveremmo usando i modelli mentali che ci formiamo relativamente a noi stessi e agli altri. Gli oggetti di cui questo livello si occupa sono quindi Percezioni, Emozioni, Credenze, Pulsioni, e altre nozioni analoghe. Queste nozioni possono appartenere a quella che Daniel Dennett e altri autori chiamano la Folk Psychology, ossia quella psicologia “spicciola” su cui noi persone qualsiasi interpretiamo il comportamento delle persone, o possono appartenere a modelli delle diverse scuole psicologiche o psicoanalitiche.

In realtà, si potrebbe essere tentati di introdurre un livello intermedio tra quello Neurologico e quello Psicologico, che sarebbe un livello Funzionale, che descrivesse, ad esempio, i processi percettivi o elaborativi “di basso livello” in modo indipendente dal substrato neurologico. Un simile livello potrebbe consentire di prendere in considerazione possibili altri substrati per la “realizzazione” di una Mente, purché sia possibile produrre risultati, appunto, funzionalmente equivalenti. Questo approccio, che è uno degli approcci tradizionali degli studi sull’Intelligenza Artificiale, non mi interessa qui e quindi assumerò che un’eventuale descrizione funzionale a un livello inferiore a quello Psicologico sia correlabile a strutture che ricadono nell’ambito del livello Neurologico (nella misura in cui si riesca ovviamente a individuare queste strutture e le loro funzioni).

Ora, se si assume che il livello Fisico e il livello Neurologico siano connessi da una relazione tale per cui:

  1. Il livello Neurologico è riducibile, ossia è possibile, almeno in linea di principio, fornire una costruzione completa di tutti gli oggetti del livello Neurologico a partire da quelli del livello Fisico;
  2. Il livello Neurologico è completo, ossia non richiede il ricorso a oggetti del livello Fisico per le proprie descrizioni dei fenomeni mentali,

allora è possibile utilizzare indifferentemente l’uno o l’altro senza perdita di informazione; ovviamente, in termini pratici, è il livello Neurologico a essere utilizzato, ma è chiaro che questa scelta corrisponde comunque a un approccio riduzionista.

Dopo questa lunga premessa, arrivo a una delle questioni centrali della Filosofia della Mente: i due livelli di descrizione a cui ci siamo ristretti, quello Neurologico e quello Psicologico, sono entrambi, in linea di principio, necessari? Oppure ci sono motivi per ritenere che uno dei due sia fallace, o ridondante rispetto all’altro?

Ovviamente, questa domanda non ha necessariamente un senso pratico immediato: ora come ora, gli ambiti naturali di applicazione dei modelli neurologici e psicologici della mente sono largamente non sovrapponibili. Tuttavia, esiste una rispettabile corrente di pensiero che sostiene l’Eliminativismo Materialista, che vorrebbe “abolire” il livello Psicologico, per lasciare campo libero allo sviluppo della descrizione della mente secondo i modelli prodotti dal livello Neurologico. I difensori della Psicologia, e della Folk Psychology in particolare (senza usare questa espressione, Hofstadter ne ha fatto una vigorosa apologia nel libro di cui ho parlato qualche post fa, Anelli nell’Io), ne sottolineano il valore esplicativo e predittivo, che gli approcci di “livello” più basso non sono (per ora?) in grado di fornire.

E’ in un certo senso interessante che Hofstadter, nel difendere la Folk Psychology, usi un argomento da “Eliminativista” (e, in effetti, un sostenitore dell’AI Forte non dovrebbe essere un Eliminativista?): in linea di principio, il livello Psicologico è interamente ricostruibile a partire da quello Fisico (e verosimilmente da quello Neurologico, aggiungo io; a volte nello scritto di Hofstadter non è chiaro se faccia distinzione tra i due), ma, date le nostre capacità cognitive che non ci consentono di studiare il cervello a livello di elettroni e fotoni, il livello che ha senso usare quando si parla di Mente è quello Psicologico.
Per mostrare come in realtà un simile argomento si presti a essere utilizzato per sostenere una tesi eliminativista, esso può essere riformulato nel seguente modo:

  1. Il livello Fisico è completo: tutti i fenomeni mentali sono in ultima analisi determinati dalla dinamica di elettroni, neutroni, protoni, ecc.. Hofstadter accetta il materialismo, e non sembra pensare che alla Fisica che conosciamo oggi manchi qualcosa di essenziale, una “materia della mente”, per così dire.
  2. Il livello Psicologico esiste in quanto le nostre caratteristiche cognitive sono quello che sono. Se noi percepissimo elettroni e fotoni, potremmo ragionare direttamente in termini fisici, ma per come siamo fatti abbiamo bisogno del livello Psicologico.

La conclusione naturale, secondo me, è che si potrebbe fare interamente a meno del livello Psicologico, e pur tuttavia essere in grado di descrivere in modo compiuto i fenomeni mentali, allo stesso modo in cui sarebbe possibile in linea di principio descrivere i fenomeni atmosferici usando i normali concetti di termodinamica e fluidodinamica, senza mai parlare di “nubi”, o “venti”, o “piogge”. Sarebbe incredibilmente complicato, ma è chiaro che venti e piogge hanno per noi molto senso perché sono nozioni “a dimensione d’uomo”; un computer inconcepibilmente potente potrebbe benissimo non aver bisogno di questi concetti per analizzare e descrivere gli stessi fenomeni a livello molecolare, oppure un essere estremamente piccolo non avrebbe ragione di dare nomi a possibili regolarità macroscopiche nei moti delle molecole di gas. Nessuno ovviamente dubita di questo, e tutti siamo consapevoli del fatto che, alla fin fine, tutto si riduce a molecole, atomi, e, ancora più in piccolo, particelle e forze fondamentali.

Ecco quindi perché mi sembra ragionevole dire che, mentre per noi il livello Psicologico di descrizione dei fenomeni mentali è imprescindibile, guardando le cose da un punto di vista “oggettivo” esso è di fatto strettamente “antropico”: utile certamente, ma non necessario. Nel prossimo post, proverò a trasporre queste considerazioni al tema proposto da Tegmark.