Principio Antropico, Multiverso e altre affascinanti cose in cui non credo

Ho appena finito di leggere Il Paesaggio Cosmico, di Leonard Susskind, un libro di alcuni anni fa in cui l’autorevole fisico americano espone le sue idee sul Principio Antropico (che trova utile se non addirittura inevitabile), la Teoria delle Stringhe e quella del Multiverso, ossia l’idea che il nostro Universo sia solo uno tra moltissimi, e che le leggi fondamentali della Fisica differiscano da un Universo all’altro.

Devo dire che è abbastanza raro che io legga un libro divulgativo sulla Fisica moderna e mi ritrovi a non essere d’accordo su praticamente niente di quello che l’autore sostiene. E’ insolito perché normalmente i libri divulgativi riguardano scoperte consolidate o almeno teorie sufficientemente condivise, e dissentirne sarebbe da parte mia un esercizio di presunzione; ed è insolito perché il dissenso in questo caso non riguarda semplicemente il maggiore o minore “ottimismo” sul possibile successo di una teoria, ma l’intera impalcatura del pensiero che Susskind espone. Proverò quindi a riassumere il succo del libro e le mie perplessità.

Il punto di partenza implicito, ma non tanto, è: la Teoria delle Stringhe è giusta; arriverei a dire che Susskind ragiona come se la Teoria delle Stringhe dovesse essere giusta, perché altrimenti certi “passaggi logici” sarebbero inspiegabili. Ricordiamocelo.

Il punto di partenza esplicito, invece, è: il nostro Universo, e le leggi della Fisica che lo governano, appare straordinariamente adatto a ospitare la vita umana, e anzi questa “predisposizione” è incredibilmente precisa, perché una serie di costanti fisiche e di “condizioni iniziali” dell’Universo, se fossero state anche di poco diverse, avrebbero fatto la differenza tra un Universo come il nostro e uno in cui la vita come la conosciamo sarebbe impossibile. Questa configurazione richiede un tale fine tuning dei parametri che Susskind dichiara serenamente che non si può semplicemente attribuirla al caso, perché dovremmo ipotizzare che si sia verificato un evento inconcepibilmente improbabile. Da questa “constatazione”, nasce l’interesse per il Principio Antropico (ossia l’idea che l’esistenza della [nostra] vita intelligente sia in qualche modo una condizione necessaria del perché l’Universo sia come è). Susskind vede il P.A. come difficilmente confutabile e pericoloso per alcuni principi fondamentali della scienza, se esso fosse interpretato come una prova a favore del cosiddetto Intelligent Design, ossia in sostanza a favore del Creazionismo. Questo non tanto per negare l’esistenza di (un) Dio, ma per negare che si tratti di un’ipotesi necessaria, che sia richiesta da qualche caratteristica riscontrabile nel mondo naturale.

La soluzione di Susskind (o meglio, cui Susskind aderisce) è la cosiddetta teoria del Multiverso: in realtà di Universi ne esistono praticamente infiniti; quindi, anche se il nostro ha caratteristiche “speciali”, la cosa non sorprende, perché ci sono miliardi di altri Universi ciascuno con le sue caratteristiche, e quindi alla fine noi viviamo in un Universo peculiare semplicemente perché solo un Universo peculiare può sostenere la vita. Questa interpretazione del Principio Antropico, che è quella cui Susskind aderisce, è “scientificamente innocua”, e quindi accettabile. A questo punto, per il “nostro”, restano altri due passaggi logici da completare:

  1. Esiste una teoria che preveda l’esistenza di un numero esorbitante di Universi regolati da leggi della Fisica diverse?
  2. Esiste un meccanismo che potrebbe aver generato tutti questi Universi?

Per fortuna (toh!) a entrambe le domande la risposta è sì. La prima è la Teoria delle Stringhe (toh!); il secondo corrisponde a quella che viene chiamata l’Eternal Inflation.
Quindi, tutto bene quel che finisce bene? La pensa sicuramente così un altro “testimonial” della Teoria delle Stringhe, quel Brian Greene autore del bel libro L’Universo Elegante: lo vedete qui in una breve, brillante e scenografica conferenza sull’argomento.

Purtroppo, io non sono altrettanto entusiasta, e non sono solo. A me sembra che l’elaborata impalcatura su cui poggia questa che chiamerei congettura sia poco solida e priva di basi nell’evidenza sperimentale. Proviamo a fare un elenco delle sorprendenti ipotesi che l’idea del Multiverso definita in questo modo (ossia come “estensione” della Teoria delle Stringhe) implica:

  1. La cosiddetta teoria della Supersimmetria è vera. Quindi, per ogni particella elementare che conosciamo, ce n’è una “simmetrica” che è un leptone se quella nota è un barione, e viceversa.
  2. La (o una…) Teoria delle Stringhe è vera. Quindi, per esempio, esistono 10 dimensioni spaziali, di cui 7 non sono osservabili.
  3. L’Eternal Inflation è vera. Quindi, tra l’altro, esiste un numero esorbitante di Universi più o meno “vicini” tra loro, con caratteristiche diverse.
  4. Premesso che la Teoria delle Stringhe al momento appare compatibile con un numero elevatissimo se non infinito di diverse combinazioni dei parametri che definiscono le proprietà fisiche di un Universo, ciascuna di queste combinazioni descrive un Universo reale, e non un possibile Universo.
  5. Infine, gli innumerevoli Universi che derivano dai punti 3 e 4 corrispondono, ossia l’Eternal Inflation è in grado di generare tutti e soli gli Universi “configurabili” in base alla Teoria delle Stringhe.

Giusto fin qui? Spero di sì, perché questo non è un tema semplice, e, anche se qualcosa ne capisco, in proporzione sono altrettanto Incompetente su questo quanto sulle questioni economiche.

Proviamo ora a chiederci: cosa siamo in grado di dire sull’attendibilità delle congetture 1 – 5 qui sopra? Beh, direi che questo post è già abbastanza lungo, e conviene riprendere l’argomento nel prossimo.

Perché credere in Higgs o nei neutrini, ovvero del pregiudizio inevitabile

Una questione “collaterale” ma interessante legata ai recenti risultati sperimentali sul bosone di Higgs, che ho commentato nei post precedenti, è in un certo senso metodologica, e riguarda i “criteri di accettazione” che ognuno di noi applica a questo tipo di notizie.

A parte i criteri, diciamo così, “istituzionali” di validazione in uso in ciascuna comunità scientifica, alla fine ognuno si forma un’opinione più o meno bene informata. Ma questa opinione non è determinata solo dai dati presentati, o dalla credibilità degli autori delle ricerche.
Una persona mi ha chiesto: “come mai tu non credi che i neutrini vadano più veloce della luce ma credi che sia stato trovato il bosone di Higgs, quando il “livello di confidenza” della prima misura è 6 σ, mentre quella della seconda è a malapena 3 σ?” [per chi non è uso a questi parametri, significa che nel primo caso la probabilità che il dato dipenda da una “fluttuazione statistica” è meno di una su 500 milioni, mentre nel secondo è di 3 su 1000].

Già, perché? Non perché io creda che la prima ricerca sia meno seria della seconda: la qualificazione dei ricercatori nei due casi è equivalente, e la qualità degli apparati più o meno anche. Anzi, nel primo caso i dati sono molto più “maturi”, mentre nel secondo sono sostanzialmente quasi preliminari.

La risposta è semplice: perché il primo risultato è molto improbabile, mentre il secondo è piuttosto probabile. Direi che questa affermazione, per quanto molto intuitiva, merita una discussione, no? Vuol dire che ho dei preconcetti?

In un certo senso, sì, ma di preconcetti “sani”: si tratta semplicemente dell’applicazione non formalizzata della regola di inferenza bayesiana, che poi utilizza una forma della cosiddetta probabilità condizionata:

Tradotto in linguaggio ordinario: la probabilità di A, sapendo che è vera B, è data dalla probabilità “apriori” di A, moltiplicata per la probabilità di B quando è vera A, divisa per la probabilità totale di B. Questa, che è una formula elementare di calcolo delle probabilità, ha delle interessanti implicazioni una volta interpretata “secondo Bayes”.

Vediamo di applicare la regola al nostro caso: una volta effettuata la misura, l’ipotesi che si vuole verificare con la misura stessa viene corroborata o scoraggiata a seconda che P(B/A) / P(B) sia maggiore o minore di 1. Questo rapporto, in sostanza, sta a indicare se il valore trovato dalla misura sia più compatibile con la teoria da testare di un valore casuale. Nei casi che abbiamo visto, questo rapporto è inversamente proporzionale alla verosimiglianza che il risultato della misura non sia frutto di una fluttuazione casuale, e quindi nel caso dei neutrini è molto maggiore che nel caso di Higgs. Ma resta da considerare l’altro fattore P(A): infatti, cosa mai è quella che ho chiamato la “probabilità apriori” P(A)?

Beh, in sostanza, è la probabilità che in partenza assegno all’ipotesi da verificare. Questo può sembrare metodologicamente scorretto, in quanto è chiaro che se io conoscessi già la verosimiglianza dell’ipotesi in modo attendibile forse non farei neanche l’esperimento, tuttavia come ci insegna Bayes è necessario, e introduce un elemento di soggettività, qualora non sia possibile trovare un criterio oggettivo per valutare a priori P(A). Farò ora, ispirandomi al bel libro L’Illusione di Sapere, un paio di esempi per chiarire, e per evidenziare gli errori cui saremmo esposti se non tenessimo conto del criterio di Bayes nel valutare le probabilità.

Supponiamo che voi siate i giurati di un processo. Un testimone dichiara di aver visto allontanarsi dal luogo del delitto un’auto marrone scuro. Però il marrone scuro potrebbe confondersi col nero, e supponiamo anche che in città per ogni auto marrone scuro ne circolino 19 nere (tanto per dire). I giudici quindi non si fidano, e fanno fare una prova da cui emerge che il testimone ha un ottimo occhio e 9 volte su 10 distingue correttamente un’auto marrone da una nera (e viceversa). Un giurato potrebbe accontentarsi, e considerare attendibile la testimonianza, no?
Un attimo, vediamo cosa direbbe mr. Bayes: per applicare la formula che ho riportato sopra, vediamo come si applica a questo caso:
– A sta per “l’auto è marrone”, e quindi P(A) è la probabilità che un’auto, osservata a caso, sia marrone.
– B sta per “il testimone giudica l’auto marrone”, e quindi P(B) è la probabilità che, presa un’auto a caso nella popolazione esistente, il testimone dica che è marrone.
– quindi, la probabilità condizionata P(B/A) è la probabilità che il testimone giudichi marrone un’auto marrone, e così via.

Per quello che abbiamo detto, P(B/A) = 0,9; P(A) = 0,05, visto che le auto marroni sono un ventesimo del totale (ignoriamo tutte le auto di altri colori, tanto il ragionamento su più di due colori sarebbe lo stesso). Infine, qual è la probabilità che, presa un’auto a caso tra tutte quelle che ci sono, marroni o nere, il testimone dica che è marrone? Ovviamente, la somma tra la probabilità che l’auto sia marrone e che il testimone valuti esattamente (e quindi 0,05 * 0,9) e quella che l’auto sia nera e il testimone sbagli (0,95 * 0,1). Quindi,  P(B) = 0,14.
Alla fine, qual è la probabilità che l’auto vista dal testimone sia davvero marrone? Ebbene, solo poco più del 32%. Ve l’aspettavate, o avreste condannato un innocente?

Un altro caso illuminante è quello di uno screening clinico, diciamo per trovare una malattia gravissima e rara, che colpisca una persona su 10.000. Supponiamo di avere un test che risulti positivo sull’80% dei malati, e sull’ 1% dei sani: un test quindi che sembra decisamente buono. Sarebbe una buona idea, costi a parte, sottoporre a uno screening tutta la popolazione? Certamente no: chi risultasse positivo al test avrebbe  circa il 92,6% di probabilità di non avere la malattia. Ecco (uno dei) perché gli screening si fanno sulle categorie a rischio.

Alla fine, cosa concludere, specie nei casi in cui non conosciamo in modo così preciso il valore della probabilità “apriori” P(A)? Che, in qualsiasi valutazione sulla verosimiglianza di un fatto riportato, non solo sarebbe difficilissimo non farsi influenzare dai “pregiudizi” (ossia da una nostra idea preliminare di quanto sia “probabile a priori” quello che ci viene prospettato), ma sarebbe sbagliato, e potrebbe condurci a considerare erroneamente plausibili, che so, le storie di fantasmi. Quando qualcuno critica la “chiusura mentale” di chi ha un approccio scettico alle teorie sui cerchi nel grano o sugli effetti degli astri sul carattere, sta in realtà cercando di indurci in un disastroso errore cognitivo, quello di considerare “ugualmente plausibile” ciò che è coerente con le nostre conoscenze e ciò che è, per così dire, “campato in aria”.

Il punto non è evitare di avere “pregiudizi” nel senso sopra chiarito: è avere i pregiudizi “giusti”, e un esperto, alla fine, è una persona che ha sviluppato giudizi probabilistici a priori validi su un settore della conoscenza, e che li incorpora, più o meno consapevolmente, nelle sue valutazioni sul suo campo di attività. Ricordiamocelo.

Con Higgs il Modello Standard è a posto. O no?

Nel post precedente ho riassunto i risultati presentati a dicembre dagli scienziati al lavoro all’LHC, concludendo che bisognerà ancora attendere diversi mesi per averne prove più certe, ma che è probabile che l’elusivo bosone di Higgs sia finalmente stato trovato.  Se è così, la massa della nuova particella sarebbe intorno ai 124-125 GeV.

A questo punto, vale la pena ricordare che il bosone di Higgs è l’ultima particella prevista dal cosiddetto Modello Standard che non sia ancora stata trovata. Verrebbe quindi da pensare che con la sua scoperta (imminente, se le cose stanno come molti si aspettano) si chiuda un’epoca nella ricerca della Fisica fondamentale, e in un certo senso è così. Inoltre, mentre molti fisici credono che esistano altre particelle oltre a quelle previste dal Modello Standard, in particolare quelle previste dalle Teorie Supersimmetriche (tra cui quelle delle Stringhe supersimmetriche, o Superstringhe), finora non ne è stata trovata nessuna.
Insomma, non solo trovare il bosone di Higgs sembrerebbe la conferma finale del Modello Standard, ma ci troveremmo in un certo senso in una situazione potenzialmente “definitiva”, in cui tutte le particelle esistenti siano state trovate e le teorie che ne prevedono altre siano potenzialmente sbagliate a meno di prova contraria. La Fisica delle Particelle Elementari, come si chiamava qualche anno fa (ora si preferisce dire Fisica delle Alte Energie), sarebbe “finita”.

Inutile dire che di queste affermazioni occorre sempre diffidare. Non solo perché c’è un limite naturale alla validità del Modello Standard, ed è il fatto che esso non integra la Gravitazione con le altre forze fondamentali, e quindi è destinato a non “funzionare” alle altissime energie a cui la Gravitazione e le altre forze dovrebbero convergere (nella scala della cosiddetta Energia di Planck).
Non solo per questo, dicevo, ma perché la Fisica nasconde spesso qualche sorpresa.

Infatti, è vero che il Modello Standard prevede l’esistenza del bosone di Higgs, anzi ne ha bisogno per avere un meccanismo per assegnare massa a tutte le altre particelle, e questa massa deriva proprio dall’interazione di ciascuna particella con il campo di Higgs. Tuttavia, la presenza di Higgs comporta un’altra interazione: quella del bosone di Higgs con se stesso. Il risultato è che a seconda della massa del bosone di Higgs il Modello Standard potrebbe prevedere “imbarazzanti”, come un’ “esplosione” se la massa di Higgs fosse troppo grande (l’auto-interazione non convergerebbe) o, se la massa di Higgs fosse troppo bassa, come la presenza di uno stato di “minima energia” che non coinciderebbe con l’ordinario “vuoto” previsto dalla teoria standard che sarebbe soltanto un minimo locale dell’energia. Per essere più chiaro (per chi è più bravo di me, tutta la storia si trova in questo paper), è come se noi fossimo una pallina nella “buca” di sinistra del diagramma qui sotto, preso dalla voce su Wikipedia relativa al “falso vuoto”.

Il vuoto “ordinario” sarebbe un “falso” minimo di energia, uno stato solo parzialmente stabile. A seconda della massa di Higgs, questo stato avrebbe una durata media più o meno lunga, dopo di che “cadrebbe” verso il vero stato di energia minima (3), con spiacevoli implicazioni per il nostro benessere. Ma è chiaro che una previsione di questo tipo può semplicemente significare che il Modello Standard non è del tutto corretto, e che c’è qualcos’altro che spiega perché le cose non stanno così.

Ebbene, una massa di Higgs intorno ai 125 GeV escluderebbe lo scenario “esplosivo”, ma non quello del “falso vuoto”, e potrebbe quindi far rientrare in gioco altre teorie come quelle supersimmetriche: bisogna aspettare di avere una misura sufficientemente esatta. The jury is still out, insomma.

Un breve punto sulla ricerca del bosone di Higgs

Penso non sia superfluo, anche se ai dati pubblicati dall’LHC è stata data ampia diffusione, fare un breve riepilogo sui risultati sinora ottenuti al CERN nella ricerca del bosone di Higgs, da cui trarrò ispirazione per qualche considerazione “tangenziale”.

Cominciamo da un flash-back. In un post di un bel po’ di tempo fa, avevo mostrato questo diagramma, che è basato su dati precedenti (specie raccolti al Tevatron) che da allora sono stati arricchiti, ma che già così mostravano che l’area più interessante dove cercare era quella tra i 114 e i 160 GeV (inteso come ipotetico valore per la massa dell’elusivo Mr. Higgs).

Cosa hanno trovato i ricercatori dell’LHC? Innanzi tutto, ricordiamoci che ci sono (almeno) due diversi esperimenti all’LHC che potrebbero trovare Higgs: ATLAS e CMS. Ciascuno di essi ha raccolto una certa quantità di dati, e sebbene essi siano ancora insufficienti per consentire affermazioni precise, a dicembre i due team hanno pubblicato i loro “work in progress”.

Secondo ATLAS, i loro dati restringono “la regione di massa più probabile per il bosone di Higgs a 115-130 GeV, e nelle ultime settimane si è cominciato a vedere un’interessante abbondanza di eventi intorno a 125 GeV (v. il comunicato stampa e i dati associati).

Anche secondo CMS, i dati consentono di escludere al 95% tutto l’intervallo da 127 a 600 GeV, e quindi il bosone di Higgs potrebbe trovarsi nell’intervallo tra 115 e 127 GeV. In questo intervallo, “è presente un eccesso di eventi rispetto alle previsioni del Modello Standard […] che è compatibile con l’ipotesi di un Higgs (Modello Standard) di massa
attorno, o inferiore, a 124 GeV, ma con significanza statistica di meno di due
deviazioni standard (2σ)”.

I due esperimenti, pur lavorando entrambi all’LHC, rilevano insiemi di dati diversi, e quindi probabilmente combineranno i loro risultati per ottenere un campione più significativo. L’operazione non è banale, ma il fisico Philips Gibbs ha già tentato di ottenere un’anticipazione di cosa potrebbe venirne fuori. Ecco un grafico che ha ricavato:

La curva nera indica il segnale, le bande colorate intorno 1 e 2 σ. Secondo Gibbs, il segnale combinato ha una significatività di circa 3 σ. Per chi non è addentro alla statistica usata in queste analisi, questo significa che, assumendo una distribuzione gaussiana del segnale, tra l’ampiezza del segnale osservato e quella che dovrebbe avere se il bosone di Higgs non ci fosse la differenza corrisponde a tre volte la deviazione standard, il che corrisponde a una probabilità che il segnale sia casuale di circa lo 0,3 % (in realtà, per discutere correttamente di questo punto bisognerebbe tenere in conto fattori più complicati, tra cui l’effetto Look Elsewhere, di cui ho già parlato. Chi è interessato ad approfondire, può leggere questo post di Gibbs). Per annunciare una nuova scoperta, come sarebbe quella del bosone di Higgs, convenzionalmente si richiede una significatività pari a 5 σ.

In sintesi: per essere sicuri bisogna ancora aspettare, forse fino alla fine del 2012, ma probabilmente Higgs è stato trovato, con massa intorno a 125 GeV. La storia però, forse, non è proprio tutta qui…

Le città, mostruosità ingovernabili o modello di interazioni “peer-to-peer”?

Dunque, facendo seguito ai post precedenti, sono ancora debitore dell’ultimo tratto di strada da fare nel commentare le interessanti notazioni del fisico Geoffrey West sui rapporti matematici che si osservano in natura, tra le strutture sistemiche di diversi organismi animali e il loro metabolismo, e nel più artificiale mondo delle aziende, tra le grandezze che in quel contesto possiamo in qualche modo associare a strutture sistemiche e metabolismo.

Il risultato delle osservazioni è, come abbiamo visto, che:

  • le strutture sistemiche (di “comunicazione”, di “comando”, di “trasporto”) sono proporzionalmente più piccole ed “economiche” negli organismi grandi che in quelli piccoli, ossia scalano secondo una legge sublineare;
  • queste strutture sono organizzate in modo gerarchico, con “nodi centrali” che svolgono un ruolo preponderante (si pensi a organi come il cuore o il cervello, o al CEO di un’azienda), e “nodi periferici” che svolgono compiti via via più elementari, fino a raggiungere (in modo letteralmente “capillare”) tutte le singole unità operative);
  • ho sostenuto, credo in armonia con le considerazioni dello stesso West, che quello che fa sì che tali strutture abbiano una dimensione che cresce meno che linearmente con il “volume” dell’entità che le ospita è che esse hanno una struttura topologica frattale, e quindi una “dimensione efficace” frazionaria, e minore di quella geometrica dello spazio in cui si trovano;
  • il metabolismo più lento degli organismi grandi rispetto ai piccoli è a sua volta dovuto allo stesso motivo, assumendo che la maggior parte del metabolismo stesso sia dovuto o all’attività delle reti stesse (come accennavo, il cervello umano consuma fino al 20% dell’energia utilizzata dall’intero organismo) o alle interazioni che si svolgono tra “nodi” contigui lungo tali reti.

Ebbene, il nostro West, come ho già segnalato, ha esaminato un altro “organismo artificiale” rilevando che non segue le stesse leggi: la città. Le città, secondo i dati che ha raccolto col suo gruppo di ricerca, hanno delle caratteristiche “innaturali”:

  • analogamente ad animali e aziende, hanno strutture sistemiche (ad esempio le reti stradali o di comunicazione) che crescono in modo sublineare con la dimensione della città stessa;
  • il loro metabolismo invece (inteso in senso lato) cresce in modo superlineare, e in realtà esponenziale.

Resta quindi da dare un’interpretazione a quest’ultima osservazione: cosa rende le città così radicalmente diverse dagli organismi “normali”? Ebbene, io credo, complementarmente a quanto visto per animali e aziende, che sia il fatto che nelle città le persone interagiscono in modo non gerarchico: l’interazione è uno-a-uno, o, come si dice, peer-to-peer. In questo senso, una città è da intendersi come una comunità allargata che offra mezzi e occasioni di contatto e interazione tra persone, senza che questi contatti passino per canali centralizzati. Seguendo una terminologia recente, una città consente interazioni Social decentralizzate.

Infatti, se riprendiamo l’esempio che avevo fatto a proposito di un “organismo” bidimensionale, supponiamo di moltiplicarne la dimensione lineare per N. Avremo che il numero delle sue unità elementari crescerà come N2, la dimensione delle sue strutture sistemiche crescerà come N1,5, ma la possibilità di interazione tra due qualsiasi delle sue unità elementari crescerà come il numero delle possibili coppie di tali unità, ossia N4, e quindi con un esponente doppio rispetto a quello con cui cresce il suo “volume”. Se, più realisticamente, introducessimo un “taglio” nella probabilità con cui ogni unità elementare può interagire in modalità peer-to-peer con le altre (ad esempio in funzione della distanza), potremmo ragionevolmente trovare un rapporto tra la “crescita metabolica” e quella dimensionale poco superiore a 1, in accordo con le osservazioni di West.

Tutto ciò, ovviamente, sorprende fino a un certo punto. Sappiamo tutti che contesti ambientali che favoriscono la comunicazione peer-to-peer incrementano il “metabolismo”, anche in termini produttivi (si pensi alla celebre Silicon Valley); tuttavia mi sembra molto interessante che questo fatto si presenti in modo così chiaro e così “trasversale” rispetto a grandezze “metaboliche” anche non economiche. E’ anche chiaro che molte aziende da tempo tendono a favorire la comunicazione interna “non gerarchica”; queste osservazioni danno loro ragione in termini, diciamo, scientifici e quantitativi.

Qual è quindi la conclusione? Direi che la conclusione è diversa a seconda che si abbracci la filosofia della crescita o quella della sostenibilità. Io, che credo che la crescita illimitata sia un pericoloso miraggio, non posso che considerare auspicabili modelli di evoluzione economica che seguano quella “organica” di tutti gli esseri viventi complessi.
Dal punto di vista di un imprenditore “standard” (o di un amministratore pubblico che vuole stimolare la crescita in un’area), invece, ci sono ottime ragioni per perseguire il progressivo confinamento dell’organizzazione gerarchica ai “servizi generali” e, per tutto il resto, puntare a un diverso paradigma, che qualcuno comincia a chiamare della Social Corporation. Adottare il peer-to-peer come modalità prevalente di interazione in un’azienda significa cambiare profondamente la cultura che ancora oggi fa dire spesso «ne deve parlare col mio capo»; significa abbandonare anche per le grandi aziende un modello gerarchico-burocratico che, per quanto male se ne parli, ha una sua ragion d’essere, e la cui sostituzione non è gratuita né indolore. Senza la gerarchia a “smorzare” il metabolismo interno, le aziende potrebbero diventare come le città, ossia comunità a crescita apparentemente illimitata e “sempre giovani”, in termini biologici (potete ridare un’occhiata ai diagrammi di crescita del topo e di Walmart, che evidenziano la relazione tra giovinezza e crescita esponenziale).

Se siete un imprenditore che la pensa così, e dovete trovare un modo per sostenere le vostre idee, Geoffrey West vi ha dato gli strumenti per dimostrare matematicamente che avete ragione. Sempre se ho capito bene… 😉

Animali, burocrazia e frattali

Cari amici, torno rapidamente sul tema degli ultimi post perché voglio sfruttare il momento di buona volontà blogger che mi pervade. Chi mi segue sa che a volte taccio per mesi, quindi quando mi viene voglia di scrivere è bene sfruttarla, specie se, come in questo caso, mi trovo a metà di un argomento. E a onor del vero, neanche questo post chiuderà il discorso, quindi speriamo che la voglia regga almeno fino al prossimo.
Negli ultimi post ho riportato alcuni interessanti dati rilevati da un fisico, Geoffrey West, che non riassumo qui (ma vi autorizzo a fare un salto a rileggerli). Da questi dati, emergono almeno un paio di domande alle quali vorrei provare a trovare una risposta:

  1. Perché animali e aziende presentano economie di scala nelle strutture “di servizio” (sistemi circolatori, nervosi, ecc. in un caso e infrastrutture nell’altro) e nel “metabolismo”, e cosa hanno in comune che giustifichi questa somiglianza?
  2. Perché le città presentano una simile tendenza per le infrastrutture, ma invece hanno un metabolismo che mostra “diseconomie” di scala (ossia, che è in proporzione maggiore per le città più grandi)?

A queste domande potremmo aggiungerne una terza:

  1. Quale utilità possono avere per noi le risposte alle prime due domande (ammesso che le troviamo)?

Auspicabilmente, questo post risponderà alla prima domanda.

Prima di cominciare, vorrei però chiarire una cosa: quello che dirò, con tutta onestà, è in sostanza già nel lavoro di West. Io vi ho segnalato una conferenza di poco più di un quarto d’ora, quindi estremamente sintetica, e un articolo su una parte del lavoro (quello sulle città); in rete oltre a questo ho trovato solo traccia di un’altra conferenza (sugli animali) che però non sono riuscito a vedere perché è in un formato un po’ scomodo. Insomma, è chiaro che c’è molto del lavoro di West che non sono in grado di mostrarvi; sono convinto che le cose che dirò in questo post, però, siano sostanzialmente implicite nella sua presentazione (se l’ho ben capita). Quindi, non vi propongo materiale “originale” ma, nella migliore delle ipotesi, qualche corollario delle affermazioni di West che spero rimanga nel seminato delle sue idee.

Dunque, cominciamo col dire che West ci informa che una qualsiasi struttura sistemica di un organismo animale mostra una regolarità in come “scala” da animali piccoli e piccolissimi ad animali grandi ed enormi. In pratica, l’esponente con cui cresce la dimensione della struttura in esame è inferiore all’esponente con cui cresce la dimensione complessiva dell’animale, e il rapporto tra i due è circa 0,75-0,80. Questo dato è estremamente stabile tra diversi ordini di grandezza di dimensioni. Un rapporto simile vale anche per il metabolismo, nel senso che gli animali grandi hanno un metabolismo in proporzione più lento.

Come si spiega questa cosa? Non a caso, West nel citare questo fattore di scala mostra immagini come quella qui sotto:

West polmoni
Il punto è che la Natura ha dovuto risolvere il problema di trovare un modo efficiente di “coprire” lo spazio occupato da un organismo “servendone” in qualche modo tutte le cellule senza “spendere” in modo proporzionale al numero di cellule, ma ottenendo un’economia di scala. E, come è chiaro dalla presentazione di West, per farlo utilizza strutture gerarchiche, di topologia frattale.

Se non fosse sufficientemente chiaro, consideriamo il frattale illustrato nella figura qui sotto, e cioè il triangolo di Sierpinski, tratto da Wikipedia:Sierpinski triangle

è chiaro che si tratta di un frattale a costruzione gerarchica, con infinite (in linea di principio) diramazioni, che finiscono per ricoprire determinate aree. La somiglianza con la struttura “simil-frattale” di bronchi e vasi sanguigni è evidente.
La cosa interessante è che i frattali godono di una particolare proprietà, che è loro connaturata: hanno una dimensione “effettiva” frazionaria. In altre parole, questa figura ha una dimensione intermedia tra 1 (quella di una linea) e 2 (quella di una superficie); nella geometria siamo abituati ad avere solo valori interi per le dimensioni di un oggetto geometrico, ma per i frattali non è così: se tentassimo di misurare la lunghezza del triangolo di Sierpinski troveremmo che è infinita. Per oggetti come questi, si definisce un concetto esteso di dimensione, che può assumere valori frazionari, e che si chiama dimensione di Hausdorff; questa, per il triangolo di Sierpinski, è pari a circa 1,585, mentre la dimensione geometrica del triangolo “ordinario” che lo delimita è ovviamente 2, come per ogni figura piana.

Questo significa che se prendiamo un triangolo e ci disegniamo sopra il triangolo di Sierpinski, e poi ingrandiamo N volte il lato del triangolo, abbiamo che il “numero di punti” del triangolo (cioè la sua area) cresce di un fattore N2, mentre il “numero di punti” del triangolo di Sierpinski cresce di un fattore N1,585 : il rapporto tra gli esponenti è appunto 1,585 / 2 = 0,793, ovviamente minore di 1: ritroviamo la crescita sublineare. Ecco che quindi l’ “economia di scala” osservata nelle strutture sistemiche si giustifica se consideriamo queste ultime, come peraltro l’osservazione ci invita a fare, come approssimazioni di strutture frattali, ovviamente finite. Quanto al metabolismo, può essere ragionevole ipotizzare che sia correlato a queste stesse dimensioni, in quanto queste strutture implicano un “consumo” di energia proporzionale alla loro dimensione, ad esempio per distribuire il sangue lungo il sistema circolatorio, o per alimentare i segnali lungo il sistema nervoso, o ancora, nel cervello che controlla tutti questi sistemi e che, se non erro, consuma da solo il 17% di tutta l’energia bruciata dal nostro organismo. E infatti i cervelli degli animali più grandi, tolto l’uomo, sono in proporzione più piccoli di quelli dei piccoli animali. Anche qui, abbiamo un’economia di scala. Potete vederlo nel grafico qui sotto, che ho “preso in prestito” da http://www.neurophys.wisc.edu , dove si riscontra più o meno il solito andamento sublineare, con un rapporto 0,66.


Una volta spiegata con i frattali a struttura gerarchica la legge di scaling sublineare individuata da West, riusciamo a spiegare anche, credo, le affinità altrimenti oscure tra animali e aziende: le aziende, infatti, hanno a loro volta delle strutture di servizio e di controllo che sono progettate appunto in modo molto somigliante al triangolo di Sierpinski. E anche il metabolismo di un’azienda tradizionale è fortemente correlato alla lunghezza delle catene gerarchiche, in quanto, idealmente, in una struttura gerarchicamente burocratica ogni “cellula” può comunicare solo con i “nodi” vicini, e ogni comunicazione che dovesse essere necessaria tra “cellule” lontane passa attraverso la struttura gerarchica stessa.

Ecco quello che, a mio parere, è il significato più profondo di quanto esposto da West, e sono convinto che, ora che l’ho espresso pedissequamente, lo riconoscerete in alcuni snodi della conferenza, ammesso che non lo abbiate già fatto.
Rimane da “glossare” la parte della conferenza relativa alle città e alle loro somiglianze e differenze con il modello che abbiamo visto per animali e aziende, ma penso ormai immaginiate dove andrò a parare, se non vi era già chiaro dalle parole di Geoffrey West…

Le città, che strani animali…

Dunque, dopo qualche giorno torniamo alle riflessioni suscitate dall'interessante conferenza del prof. West, di cui ho cominciato a parlare nell'ultimo post.

Come abbiamo visto, secondo West in natura tutti gli organismi crescendo rallentano il loro metabolismo e si organizzano in modo da "economizzare": tutte le strutture che chiameremmo di distribuzione e comunicazione nell'organismo sono, in proporzione, più ridotte nei grandi animali che in quelli piccoli, secondo una legge che West chiama giustamente sublineare. Una cosa interessante emersa dalle osservazioni di West è appunto che la relazione tra le dimensioni di un animale e quelle delle strutture vitali che lo compongono è molto regolare attraverso molte specie anche diversissime, ed appunto sublineare. Lo stesso rapporto vale per il metabolismo, ossia il "consumo" dell'organismo.

Per le aziende, vale la stessa cosa: quelle grandi hanno "economie di scala" sia rispetto a quelle piccole che rispetto a se stesse quando erano piccole, e man mano che crescono rallentano la loro crescita. Sono, insomma, come "animali economici".
Ma, a differenza del mondo animale, in quello socioeconomico le "cellule", cioè le persone, interagiscono e operano in più di un "organismo", e oltre alle aziende West e il suo team hanno preso in considerazione un aggregato che connota la nostra epoca almeno quanto le aziende: le città.

Ebbene, qui West (oltre a quello che dice nella conferenza, ho scovato questo suo articolo) ha scoperto qualcosa di interessante e forse sorprendente. Nelle città, le infrastrutture seguono anch'esse leggi di scaling sublineari; in altre parole, non troppo sorprendentemente, la lunghezza delle strade, delle linee di distribuzione dell'energia, o simili, crescono meno rapidamente delle dimensioni delle città.
Questo è abbastanza logico: le città grandi possono fare, appunto, economia di scala, progettando reti efficienti proprio come in natura si sono evolute reti efficienti per la distribuzione del sangue negli animali.

La cosa sorprendente, o almeno non scontata, è che invece i parametri "metabolici" delle città crescono in modo superlineare (e dato che stiamo parlando di scale logaritmiche, vuol dire che la crescita di questi parametri è più che esponenziale). Parametri come la produzione intellettuale, i salari totali, ma anche la velocità con cui la gente cammina per strada, sono in proporzione maggiori in una città grande che in una piccola. Quindi, mentre le singole aziende sono "animali economici" normali, agglomerati socioeconomici come le grandi città sono "animali strani", che accrescono il loro metabolismo in un modo che in natura non esiste.

Ritroviamo qui uno dei temi ricorrenti di questo blog: la sostenibilità della crescita esponenziale illimitata. Secondo West, ovviamente, l'esito naturale di una simile crescita è il collasso; per evitare il collasso, occorre che da una fase di crescita iperesponenziale si "salti" avviando un'altra fase ancora più accelerata; e, per poter continuare, nel tempo questi salti devono essere sempre più ravvicinati, in un "inseguimento" continuo mostrato nella figura qui sotto, dove le linee tratteggiate verticali rappresentano i momenti in cui si avrebbe il collasso se la crescita non "saltasse" su una curva ancora più accelerata.

West crescita senza collasso
A onor del vero, West non trae da questo la conclusione che io ho tratto nei miei post sulla crescita, e cioè che un modello come questo è destinato alla catastrofe, e che più tardi questa si verificherà e maggiori saranno i danni. Di fronte al paradosso implicito nella figura qui sopra, gli autori dello studio auspicano che l'approfondimento di ricerche come questa aumentino la comprensione dei meccanismi che favoriscono la creatività e l'innovazione, e che grazie a questo si possano trovare "strade lungo le quali le dinamiche sociali possano essere messe a frutto per creare un futuro in cui l'innovazione senza limiti e i miglioramenti nelle condizioni di vita umane siano compatibili con la tutela dei sistemi di supporto vitale del pianeta " [traduzione mia].

Questa utopia, che a me suona come puro wishful thinking, ripropone però quella che, anche sulla base di queste osservazioni, è l'ipotetica via d'uscita che anche gli economisti "standard", se proprio sono costretti a parlarne, prospettano per continuare a sostenere il modello basato sulla crescita: l'innovazione che produce benefici non già costanti, ma illimitatamente crescenti e tali da compensare i maggiori consumi. Che tale astratta via d'uscita possa esistere solo in un grafico matematico ma non nella realtà, è la convinzione di chi come me non crede né nella manna dal cielo, né nelle cose "illimitatamente crescenti", o anzi sempre più crescenti, come ci dice West.
Ma su questo ho già annoiato i pochi che mi hanno letto. In un prossimo post, invece, sarebbe interessante cogliere lo spunto lanciato da West & C. sul perché le città mostrino questo anomalo fenomeno di crescita, e perché in questo senso una città sia diversa da un'azienda, e quest'ultima sia invece simile a un animale (anzi: a qualsiasi animale). West, sia pure molto sinteticamente, ce lo dice sia nella conferenza che nell'articolo, che fa cenno all' unicità della dinamica sociale umana. Su questo quindi rifletteremo nel tentare di interpretare quanto, almeno in queste esposizioni, West lascia tra le righe.

Crescita esponenziale, città e animali

Qualche giorno fa, mi sono imbattuto in una interessantissima conferenza di un fisico, tal Geoffrey West (confesso di non essere preparatissimo su di lui, come su tanti altri), che si sta occupando di studiare fenomeni di scaling su numerosi ordini di grandezza. Detta così, non si capisce granché, e non so neanche se l'ho detta bene, quindi facciamo direttamente gli esempi pertinenti.

Il nostro West (con il suo team) ha preso in esame tutti (tutti?) i tipi di organismi viventi, e con particolare attenzione i mammiferi. E' giunto alla conclusione che esiste una relazione quantitativa precisa tra la massa di qualsiasi mammifero e i suoi parametri vitali, e che questa relazione evidenzia che:

  1. gli animali più grandi presentano economie di scala: hanno bisogno, in proporzione, di "reti" più piccole per la circolazione sanguigna, o per le altre "infrastrutture" del corpo;
  2. corrispondentemente, il metabolismo degli animali cresce più lentamente del loro peso: un topo consuma, per unità di peso, più di un cane, che consuma più di un elefante, il tutto secondo una legge di scalabilità decisamente regolare.

Ecco un grafico che dimostra proprio questo: se si riporta il logaritmo del metabolismo e il metabolismo della massa corporea di mammiferi e uccelli, si ottiene una retta:
massa vs metabolismoQuesta retta ha una pendenza minore di 1 (circa 0,75) il che vuol appunto dire che in proporzione un gorilla "consuma" meno di un gatto. Ovviamente, West ritiene che non si tratti di un caso: gli animali "sono fatti" in modo da essere tanto più "efficienti" quanto più sono grandi. Naturalmente, questo è collegato al fatto che un animale più piccolo, e con un metabolismo più alto, cresce più rapidamente, come mostra la curva di crescita di un topo:
crescita di un topo
Insomma, qualunque organismo in natura "rallenta" man mano che cresce, e crescendo consuma sempre meno per unità di peso. L'evoluzione ha condotto tutti gli animali in questa stessa direzione.
Questo meccanismo evita una crescita esponenziale e consente, nelle parole di West, agli organismi viventi di esibire una grande resistenza.

Ma non è tutto. West & C., considerato che le reti di infrastrutture non sono una caratteristica solo degli organismi viventi, hanno preso in considerazione altre due categorie di entità: le aziende e le città.

Ne hanno concluso, dopo ampie osservazioni (circa 23.000 aziende), che le aziende si comportano come gli organismi viventi: all'inizio crescono rapidamente, poi rallentano (e muoiono, osserva West), e il loro "metabolismo" (il fatturato, in termini economici) segue la stessa legge in funzione della dimensione: il fattore di proporzionalità è inferiore a 1.
West scaling aziendeEcco un esempio tipico della crescita nel tempo di una singola azienda:
West crescita aziendeSembrerebbe quindi che l'economia segua le stesse leggi della natura. O no? Forse, stiamo trascurando di considerare entità più grandi e complesse di un'azienda, che sono proprio quelle su cui West punta la sua attenzione: vuole studiare entità che non mostrano di trovare limiti alla propria crescita, che non rallentano e che non muoiono: le città. Ne parliamo nel prossimo post.

Neutrale sui neutrini?

Sarebbe necessario, d'obbligo se di obblighi si potesse parlare per un blog parsimonioso di post come questo, parlare dei dati sperimentali pubblicati dall'esperimento Opera sui neutrini che avrebbero viaggiato a velocità superiore a quella della luce da Ginevra al Gran Sasso.

Tuttavia, ora come ora non ho osservazioni sufficientemente intelligenti da fare, e non ho abbastanza tempo da approfondire il tutto. Mi limito quindi a segnalare alcuni link interessanti, e che non tutti potrebbero avere sottomano:

  • Un'ottima sintesi dell'esperimento e del suo controverso risultato si trova sul blog di Marco Delmastro, che merita di essere visitato anche "a prescindere";
  • Un'originale interpretazione del risultato come un'indicazione che i neutrini sarebbero "particelle di Majorana" (piuttosto che una violazione dell'invarianza di Lorentz) si trova in un articolo di Tamburini e Laveder, commentato qui da Tommaso Dorigo nel suo come sempre interessantissimo blog;
  • Al contrario, secondo Cohen e Glashow (sì, il Nobel) non vale più di tanto la pena di cercare interpretazioni ingegnose, perché se i neutrini andassero più veloce della luce dovrebbero perdere energia per emissione di coppie elettrone-antielettrone, e quindi il risultato di Opera è sicuramente frutto di un errore.

Come dicevo, non ho tempo di studiare a fondo la questione, e comunque è altamente improbabile che sarei in ogni caso in grado di fornire un commento di qualche interesse.
Quindi, potreste chiedermi, ti astieni? Resti neutrale sui neutrini?

No, non esageriamo. Credo di essere in buona compagnia se dico che credo si tratti effettivamente di un errore sperimentale; così, se a qualcuno dovesse mai interessare, sapete come la penso.

Ma forse eliminare la Fisica non è così semplice

Vorrei, con questo post, chiudere la mia opinabile “escursione” nella Filosofia della Scienza provocata dalla lettura degli articoli di Max Tegmark e dell’ultimo libro di Douglas Hofstadter; dico “opinabile perché temo sia stata, e sarà ancora, tutt’altro che filosoficamente rigorosa.

Dicevamo che Tegmark propone di “eliminare” i modelli fisici della realtà come inutili, in quanto, a suo dire, la matematica è sufficiente a “descrivere” in modo esauriente la realtà stessa; anzi, nell’ipotesi che sia possibile costruire un modello matematico completamente isomorfo alla realtà (quello che in Fisica sarebbe una Teoria del Tutto, ossia il Sacro Graal della Fisica), si dovrebbe concluderne che matematica e realtà sono la stessa cosa. I nostri modelli fisici della realtà sarebbero in sostanza solo dei “mediatori cognitivi” a beneficio delle nostre umane capacità di comprensione e di modellizzazione, e andrebbero rigettati in nome di un sano Principio Anti-antropico che ho accennato in un post precedente. Per Tegmark, addirittura, proprio perché la matematica sarebbe la realtà, dovremmo attenderci di ritrovare nella “realtà” quello che crediamo di costruire nella matematica per così dire “astratta”. Contrastare questa tesi è materia da filosofi puri, e probabilmente sfocerebbe in una discussione sulla riducibilità della realtà fisica a informazione e strutture matematiche calcolabili alla quale non mi sento al momento incline. Si rischierebbe di ipotizzare equivalenti “fisici” dei qualia della Filosofia della Mente, che peraltro sono un concetto che trovo eliminabile a sua volta.

In questo post, però, non vorrei discutere la versione “forte” delle tesi di Tegmark, che incorpora sicuramente delle assunzioni ontologiche per me troppo forti e difficilmente difendibili se non come congetture, e mi concentrerei su una “mia” versione indebolita di esse, che non coinvolga l’ontologia ma “solo” l’epistemologia. In altre parole, anziché la tesi secondo cui la matematica sia la realtà, vorrei discutere quella secondo cui ne sia una rappresentazione necessaria e sufficiente dal punto di vista conoscitivo, rendendo superflui se non addirittura fuorvianti i modelli fisici che ordinariamente la accompagnano.

In questa forma, la tesi di Tegmark sarebbe meno rivoluzionaria, suonando un po’ assonante ad esempio all’approccio di Heisenberg alla Meccanica Quantistica. E’ dunque il caso di abbandonare i concetti fisici come particelle, forze, campi, e limitarci alle equazioni matematiche e al confronto tra i risultati che ne ricaviamo e gli esperimenti? In un certo senso è un’idea sostenibile, e in qualche modo coerente con un approccio Strumentalista alla Filosofia della Scienza, per quanto Tegmark sia un Realista Scientifico.
Senza voler dare una risposta a questa domanda, vorrei però fare una considerazione: se si prendono in esame le strutture matematiche che nel corso del tempo sono state impiegate nelle teorie fisiche più “in voga”, troviamo che esse sono cambiate in modo notevole. Lo stesso Tegmark cita le “curve di minima azione in R4” corrispondenti alla meccanica classica newtoniana, i “campi tensoriali su una varietà riemanniana 3+1-dimensionale”, i “campi quadridimensionali in uno spazio di Hilbert che rispettano le equazioni dinamiche e le regole di commutazione” della Meccanica Quantistica. Ai miei occhi, questi “dispositivi” matematici non hanno poi molto in comune, e mi sfugge, se esiste, il “filo” di continuità che avrebbe potuto far evolvere l’una nell’altra queste rappresentazioni matematiche della realtà se non ci fossero stati a determinarle i corrispondenti modelli fisici, la cui evoluzione è invece molto più chiara. Non è un caso, a mio parere, che Tegmark proponga la sua tesi riferendola solo alla situazione ideale e probabilmente irrealizzabile in cui sia stata (già) trovata la Teoria del Tutto e quindi ci si trovi in una situazione da “fine della Fisica”.

Se dovessimo considerare le teorie fisiche come una specie di “epifenomeno” dell’uso della matematica per rappresentare (o essere, nella tesi “forte” di Tegmark) la realtà, allora dovrebbe anche esistere un modo in cui un modello matematico può evolvere in un altro più esattamente corrispondente alla realtà senza passare dalla Fisica. Dovrebbe insomma esistere una sorta di “spazio fittizio” dei modelli matematici in cui, applicando una “ricerca operativa” del modello meglio corrispondente ai dati sperimentali disponibili, si possa selezionare il modello (contingentemente) migliore. Ma un’idea del genere dovrebbe, a mio parere, implicare che il modello che man mano viene selezionato sia “poco diverso” dal precedente, fino all’auspicabile convergenza nel modello corrispondente alla fantomatica Teoria del Tutto. Invece, a me pare che tale continuità non ci sia, né ci siano segni di una convergenza in tal senso, mentre esiste sicuramente una continuità nei modelli fisici che adottiamo. Questo potrebbe ovviamente dipendere dal fatto che siamo noi umani a produrre questa evoluzione, soggetti quindi a quella dipendenza “antropica” da rifiutare di cui ho parlato; però rimane da capire come potrebbe la matematica, da sola, ottenere un analogo risultato, magari a opera di supercomputer anziché esseri umani.

Insomma, finché un Tegmark non abbia chiarito come sarebbe possibile fare a meno della Fisica non nella condizione terminale (e nei fatti irrealizzabile, e in ogni caso non verificabile) in cui avessimo una teoria che descriva in modo esauriente e perfettamente esatto la realtà, ma nella concreta condizione epistemologica in cui si trova qualsiasi “mente scientifica”, inclusa quella di un alieno o di un computer, io resterò probabilmente dell’idea un po’ tradizionalista che è la Fisica a guidare la Matematica nello studio della realtà, e non viceversa, e che se una realtà esterna esiste è fatta di elettroni e non di equazioni.