n.10 - autunno 2022

Complementarità ed emergenza nell’indagine della realtà.
Variazioni sul tema


del prof. Davide Fiscaletti

Fare scienza – sosteneva Anassimandro nel VI sec. a.C. – consiste nel guardare più lontano, nell’esplorazione continua di nuove forme di pensiero per concettualizzare il mondo, sulla base dell’idea che la nostra immagine del mondo può essere sempre perfezionata, che il mondo può essere diverso da come ci appare, che il nostro punto di vista sul mondo è limitato dalla piccolezza della nostra esperienza. Non c’è dubbio che, nel corso della storia, la scienza ci ha portato teorie d’immane bellezza ed eleganza che ci hanno dato enormi benefici sul piano tecnologico. In particolare, le teorie sviluppate nel secolo scorso ci hanno consentito di arrivare ad una comprensione sempre più profonda del comportamento della materia e della sua evoluzione, descrivendo in modo unificato fenomeni distinti. Alla luce dell’evoluzione della scienza e, soprattutto, degli straordinari risultati ottenuti nel ventesimo secolo, ha cominciato a farsi strada la convinzione, anche tra gli addetti ai lavori, che uno degli scopi della fisica – e forse lo scopo principale – consista nel trovare una teoria la quale dovrebbe descrivere la natura a qualsiasi livello di distanza, tempo ed energia, una singola struttura concettuale in grado di spiegare in modo unificato tutti i fenomeni e, in particolare, tutte le interazioni fondamentali tra gli oggetti materiali, quella che viene spesso chiamata con la locuzione “teoria del tutto”. Se si riuscisse a scoprirla, una siffatta teoria rappresenterebbe, a detta di molti, il raggiungimento del Sacro Graal della fisica. Nonostante i progressi ottenuti negli ultimi decenni, possiamo però dire di essere ancora molto lontani dal trovare la fantomatica “equazione di Dio”, in grado di abbracciare tutte le leggi della natura.

A scuola ci viene insegnato che la scienza è un’entità dinamica, in continua riorganizzazione, in altre parole che le teorie scientifiche costituiscono una realtà mutevole nel senso che, nel corso della storia, determinate scoperte possono mettere in crisi la spiegazione dell’universo fino a quel momento dominante portando a nuove teorie che sono in grado di accrescere ed estendere ciò che era noto fino a quel momento. Al netto di un’analisi storica generale, si potrebbe dire che la fisica ha potuto fare dei progressi nella spiegazione dei fenomeni della natura senza possedere una vera e propria teoria del tutto, intesa come teoria in grado di descrivere tutto ciò che esiste, in grado di descrivere la natura a qualsiasi livello di distanza, tempo ed energia, perché i fenomeni naturali di fatto si possono raggruppare in regimi discreti, possono essere suddivisi in un insieme di strati, di livelli di descrizione tra cui esistono precise relazioni e specifici elementi di raccordo ma che, con un’ottima approssimazione, si possono considerare indipendenti l’uno dall’altro. Altrimenti, come si potrebbero spiegare i successi ottenuti, per esempio, dai due pilastri della cosiddetta fisica classica, vale a dire dalla meccanica di Newton (che fornisce una descrizione unificata del moto dei corpi terrestri e del moto dei corpi celesti) e dalla teoria dell’elettromagnetismo di Maxwell (che fornisce una descrizione unificata di elettricità, magnetismo e fenomeni luminosi)? Le teorie di Newton e di Maxwell hanno potuto conseguire enormi successi sul piano predittivo (con ricadute in ambito tecnologico che sono sotto gli occhi di tutti) proprio perché la natura mette efficacemente in quarantena le manifestazioni degli altri strati (segnatamente i range delle piccole distanze e delle elevatissime velocità), nel senso che questi non sembrano avere alcun peso effettivo nella descrizione dei fenomeni dei livelli presi in considerazione.

D’altra parte, sappiamo bene che la meccanica di Newton e l’elettromagnetismo di Maxwell non costituiscono affatto la “verità” riguardo al funzionamento della natura, la “risposta definitiva” nella spiegazione dei fenomeni in quanto – ci viene sempre insegnato a scuola – a cavallo tra fine ‘800 e inizio ‘900, tutta una serie di risultati sperimentali riguardanti, da un lato, l’inesistenza di differenze nella velocità della luce misurata da corpi in movimento e, dall’altro lato, i meccanismi di interazione tra radiazione e materia, misero in forte crisi queste due teorie. Com’è noto, questi due grossi problemi incontrati dalle teorie classiche di Newton e Maxwell avrebbero portato alla nascita di nuove teorie e nuove visioni del mondo. Nel 1905, infatti, con la pubblicazione di un famosissimo lavoro, Albert Einstein avrebbe mandato in frantumi l’immagine classica dello spazio e del tempo elaborando la teoria della relatività speciale (con la quale riuscì ad aggirare l’incompatibilità tra le equazioni di Newton e quelle di Maxwell riguardo all’impossibilità di viaggiare testa a testa a fianco di un raggio di luce) e, nel giro di pochi decenni, grazie ai contributi di vari eminenti scienziati, sarebbe nata la meccanica quantistica, la teoria più generale delle cose piccole, con equazioni che vanno oltre quelle di Newton e che comportano che l’energia esista in pacchetti discreti, che permette di spiegare, tra le altre cose, l’esistenza della materia così come la conosciamo ovvero in uno stato di stabilità. La teoria della relatività speciale e la meccanica quantistica hanno portato così ad esplorare una nuova fisica, accrescendo il tutto fino a quel momento conosciuto.

Quando si inizia a parlare di relatività o fisica quantistica, tuttavia, le cose cominciano via via a diventare meno chiare: a scuola ci viene insegnato, per esempio, che le leggi di Newton costituiscono casi “speciali”, o casi “limite” delle leggi della fisica quantistica e della relatività sotto opportune condizioni (e non ci viene fornita la benché minima dimostrazione del perché le cose vadano proprio in quella maniera). A questo punto, le cose ci sembrano davvero sempre più offuscate, nel senso che si riesce a capire ben poco riguardo a quale possa essere il vero legame effettivo tra le teorie di Newton e Maxwell, da una parte, e quelle relativistiche e quantistiche dall’altra. E, di conseguenza, l’immagine complessiva del mondo che ne scaturisce non può essere considerata affatto soddisfacente. E’ vero che, quando prendiamo in esame le piccole velocità della nostra esperienza e i fenomeni che avvengono su scala umana, la natura sembra mettere efficacemente in quarantena le manifestazioni degli altri strati, dei livelli descrittivi più profondi e che tutto sommato rappresentano le teorie più generali (come possono essere appunto relatività e fisica quantistica), ma perché le cose vanno proprio in questo modo? Cos’è che fa sì che, ad un livello fondamentale, nei processi fisici dell’esperienza quotidiana si possano trascurare quanto predicono relatività e fisica quantistica? Quali sono le vere relazioni tra questi diversi approcci teorici e quali conseguenze possiamo trarre da tutte le nostre diverse teorie riguardo all’immagine generale del mondo?


La complementarità

Per cercare di fornire qualche risposta (provvisoria!), la quale possa aprire nuovi scenari di spiegazione, vorrei partire qui dal concetto di complementarità, uno dei concetti chiave dell’impianto filosofico della meccanica quantistica quale è stata sviluppata dai suoi padri fondatori (Bohr, Heisenberg, Born, ecc…) nel magico biennio 1926-1927, vale a dire la cosiddetta interpretazione di Copenaghen (o ortodossa) della meccanica quantistica, concetto al quale viene di solito riservato ben poco spazio nei libri di testo. Mi è capitato di recente tra le mani un libro, I fondamentali, del premio Nobel 2004 Frank Wilczek. Riguardo alla complementarità, scrive Wilczek: “ La complementarità, nella sua forma più elementare, è il concetto che una stessa cosa, se considerata da prospettive diverse, può sembrare dotata di proprietà molto differenti o addirittura contraddittorie. La complementarità è un atteggiamento nei confronti delle esperienze e dei problemi che … ha cambiato il mio modo di pensare, facendomi diventare più aperto all’immaginazione e più tollerante. […] Il mondo è semplice e complesso, logico e bizzarro, legale e caotico. Capire i fondamenti non risolve queste dualità e anzi le mette in evidenza e le acuisce”.

Il principio di complementarità è stato formulato per la prima volta da Niels Bohr nel 1927. Al mio primo “incontro” effettivo con il concetto di complementarità – quale è stato sviluppato da Bohr – siccome il mio lavoro era incentrato sull’analisi dell’interpretazione della teoria quantistica sviluppata da David Bohm nel 1952 – visione che mette in discussione l’immagine probabilistica della realtà quale emerge dall’interpretazione standard in un quadro in cui la non-località dei fenomeni quantistici – ovvero il fatto che le particelle subatomiche sono in grado di comunicare informazioni a prescindere dalla loro distanza – non è un’ospite inatteso, come accade nella visione ortodossa, ma costituisce la struttura portante del mondo fisico, ero dell’opinione che si trattasse di un’idea che dovesse in qualche modo essere aggirata. Ora, invece, dalla lettura di alcune considerazioni di Wilczek, il mio punto di vista sulla complementarità (o comunque su una determinata accezione della complementarità) si è in parte modificato nel senso che penso che il concetto di complementarità possa insegnarci molto circa le relazioni tra le nostre diverse teorie fondamentali e i vari livelli descrittivi dei fenomeni della natura e, quindi, possa aiutarci a rendere meno offuscata la nostra immagine complessiva del mondo.

Ma andiamo per gradi.

Il principio di complementarità, quale fu originariamente formulato da Bohr, asserisce che ogni sistema quantistico possiede coppie di proprietà reciprocamente incompatibili che non possono essere misurate contemporaneamente, per esempio, se vogliamo avere informazioni sulla posizione del nostro oggetto dobbiamo preparare il suo stato in modo che distrugge le informazioni sulla sua velocità, mentre se vogliamo prevedere la velocità, dobbiamo svolgere delle operazioni che distruggeranno le informazioni sulla posizione. Il principio di complementarità contiene in pratica le conseguenze tratte da Bohr dalle famose relazioni di indeterminazione di Heisenberg, le quali stabiliscono l’impossibilità di misurare simultaneamente con assoluta precisione coppie di grandezze fisiche, come posizione e velocità, che costituiscono i prototipi delle grandezze fisiche incompatibili. Sulla base delle idee di Bohr, il ruolo delle relazioni di indeterminazione è quello di determinare un limite ineludibile all’uso simultaneo di coppie di concetti classici, che risultano essere contraddittori e mutuamente escludentesi allorché vengono estesi all’investigazione di un nuovo livello d’esperienza, vale a dire il dominio quantistico, lontano da quello in cui si è sviluppato il linguaggio che li ha generati. Questo è il caso, per esempio, di descrizione ondulatoria e descrizione corpuscolare (oppure di descrizione causale e descrizione nello spazio-tempo). Così, sulla base del principio di complementarità, ogni tentativo di ordinare un dato fenomeno microscopico nello spazio-tempo porta ad una rottura di una descrizione di tipo causale, in quanto esso è legato ad uno scambio essenziale di energia ed impulso fra il sistema atomico e l’apparato usato per misurare lo spazio e il tempo: una descrizione causale è possibile solo se si rinuncia a ogni rappresentazione degli oggetti atomici come esistenti nello spazio ed evolventi nel tempo, ci sarebbe in sostanza un’alternativa tra una causalità in un mondo sconosciuto e una descrizione priva di cause nello spazio-tempo ordinario. In modo analogo, dal principio di complementarità discende che la natura corpuscolare e quella ondulatoria sono due aspetti della realtà fisica che non si possono mai evidenziare contemporaneamente, si ha piuttosto a che fare con un’alternativa secca tra questi due aspetti: onda e corpuscolo devono considerarsi aspetti complementari e, come tali inconciliabili, dei fenomeni atomici. Per esempio, nel classico esperimento della doppia fenditura, come ha dimostrato Bohr, sembra che non è possibile conoscere la traiettoria delle singole particelle e contemporaneamente osservare anche la figura di interferenza: se si ottiene un’informazione sulla traiettoria, la figura di interferenza sparisce; viceversa, se l’esperimento è eseguito in modo tale da non registrare l’informazione sulla traiettoria, si ripresenta la figura di interferenza. Questa alternativa tra informazioni sulla traiettoria e figura di interferenza, alla luce dei dati che abbiamo a disposizione, sembra essere un fatto fisico fondamentale: non è possibile ottenere entrambe le cose contemporaneamente. In altre parole, i risultati sperimentali che abbiamo a disposizione ci pongono di fronte ad un’alternativa, cui sembra non possiamo sfuggire: in un esperimento a doppia fenditura, non è possibile osservare la figura di interferenza e contemporaneamente conoscere la traiettoria della particella in considerazione. Non sembrano esserci meccanismi ingegnosi per ottenere comunque queste due informazioni simultaneamente.

Il principio di complementarità, quale è stato formulato da Bohr, implicando l’impossibilità di applicare al mondo quantistico in modo unitario e coerente tutti i concetti che si usano nel mondo macroscopico della fisica classica, era certamente qualcosa di completamente nuovo nella fisica, che in qualche modo sovvertiva uno dei cardini della scienza stessa, l’idea che le contraddizioni potessero essere via via affrontate e risolte. Bohr si entusiasmò a tal punto di quest’idea da proporla quasi come un paradigma di assoluta generalità valido anche al di fuori del mondo microscopico. L’idea è che la natura sia estremamente ricca di sfaccettature e misteriosa. A noi è graziosamente concesso cogliere vari aspetti di questa complessa realtà ma non è dato di coglierli simultaneamente. Anzi – dice Bohr – i procedimenti necessari per aver accesso ad una delle molteplici facce del reale risultano incompatibili con quelli per aver accesso ad altri aspetti complementari dei precedenti.

Ora, diversi autori hanno evidenziato che il modo in cui Bohr ha formulato il principio di complementarità non può essere considerato del tutto convincente (per esempio, lo stesso John Bell evidenziò come Bohr usasse il termine complementarità nel senso opposto a quello usuale, ovvero nel senso di contraddittorietà, come Bohr enfatizzasse che, nelle nostre analisi, si debbano usare elementi che si contraddicono l’un l’altro, che non si sommano o non derivano da un tutto). Tuttavia, leggendo le considerazioni di Wilczek, è possibile individuare un aspetto del concetto di complementarità che va tenuto in considerazione e ha molto da insegnarci riguardo alla costruzione di un’immagine soddisfacente del mondo, riguardo al legame esistente tra le diverse teorie che usiamo per studiare la natura. Una fonte importante della complementarità – sottolinea Wilczek – è l’uso di diversi livelli di descrizione: quando la descrizione ottenuta usando un certo tipo di modello diventa troppo complicata per lavorarci, bisogna trovare un modello complementare, basato su concetti diversi, in grado di rispondere alle nostre domande. Nello studio di un dato fenomeno, per rispondere alle domande che ci interessano, spesso abbiamo bisogno di concentrare la nostra attenzione su qualcosa di diverso, in particolare dallo studio dei costituenti più elementari del processo dobbiamo passare allo studio dei comportamenti collettivi, e quindi delle relazioni tra le parti, che danno luogo a certe forme organizzative piuttosto che altre, quelle che vengono anche chiamate proprietà emergenti.



Stati emergenti e principio di organizzazione collettiva

A scuola ci è stato più volte sottolineato che l’ordine che osserviamo in natura è determinato dalle leggi microscopiche, che le leggi matematiche riguardanti i costituenti più elementari dei sistemi e dei processi in considerazione siano il fondamento per comprendere l’universo e che genera la sua organizzazione. Ma è proprio vero che le cose stanno così, che sono le leggi microscopiche a determinare l’organizzazione? E’ proprio vero che scomponendo i fenomeni in parti e componenti sempre più piccole fino a giungere ai loro principi essenziali, alle loro cause ultime, la matematica riguardante questi livelli più profondi, fondamentali, da sola è in grado di spiegare tutto ciò che si osserva e quindi di rendere più comprensibile l’universo? Se è innegabile che un approccio riduzionista – secondo cui i fenomeni diventano via via più nitidi allorché li frazioniamo in componenti sempre più piccole – ha portato a straordinari risultati nella storia della scienza (segnatamente nell’indagine della struttura microscopica della materia, in cui la ricerca scientifica ha individuato dei costituenti chiave a più livelli energetici ed organizzativi, come può essere la sequenza “classica” molecole-atomi-nuclei-quark…), tuttavia, è assolutamente illusorio pensare che esista un ipotetico livello fondamentale della realtà dal quale poter ricavare tutte le varie forme organizzative della natura applicando l’armamentario matematico a partire dalle interazioni fondamentali tra i costituenti elementari. La scienza ci insegna infatti che, andando a investigare i dettagli più intimi della struttura della materia, i vari processi – benché siano governati da leggi microscopiche – in realtà hanno delle caratteristiche cruciali che risultano indifferenti agli estremi di queste leggi, in altre parole abbiamo a che fare con fenomeni in cui l’organizzazione acquisisce significato e vita autonoma, fino a trascendere le parti di cui si compone. Alla luce dei risultati delle teorie correnti, possiamo dire che la natura ha la sembianze di una struttura gerarchica di livelli a generazione interdipendente, in cui il passaggio dai livelli più profondi a quelli superiori comporta la formazione di nuove forme organizzative, di stati emergenti, che non sono il risultato di una semplice somma delle parti che li compongono ma che contengono proprietà nuove, inspiegabili a partire soltanto dalla matematica del cosiddetto livello fondamentale dei costituenti elementari.

In natura esiste tutto un insieme di stati emergenti: si tratta in pratica di tutti i processi che si collocano tra la fisica delle particelle elementari e la cosmologia, quel territorio che i fisici denominano anche terra di mezzo o terra dei fenomeni complessi, in cui quello che succede è determinato dall’intreccio dei livelli e dall’emergenza di nuove forme. Per questi fenomeni, gli oggetti non hanno sempre “identità fisse” e sono definiti dal set di interrelazioni con l’ambiente, che possono indurre certe forme di organizzazione collettiva piuttosto che altre. Si pensi, per esempio, al fenomeno della superconduttività, vale a dire al fatto che gli elettroni, nei metalli, al di sotto di una certa temperatura, detta temperatura critica, manifestano una straordinaria mobilità e si aggregano in coppie elettrone-elettrone (tecnicamente chiamate coppie di Cooper), che vengono così a costituire uno stato collettivo emergente. Per spiegare la superconduttività le teorie fondamentali riguardanti gli elettroni e le loro interazioni non ci portano da nessuna parte ed occorre adottare un punto di vista diverso, compatibilmente con la complementarità, il quale tenga conto che qui gli elettroni non possono essere considerati i veri costituenti elementari in quanto abbiamo che fare con la formazione di un nuovo pattern organizzativo, rappresentato appunto dalle coppie elettrone-elettrone.

Ebbene, gli sviluppi della fisica contemporanea nei più disparati ambiti hanno rivelato che i principi di organizzazione collettiva non costituiscono una semplice nota di colore, ma occupano di fatto tutta la scena del mondo della natura: sono all’origine di tutte le leggi fisiche, tra cui possiamo annoverare persino le più fondamentali leggi conosciute. Per certi versi, una teoria del tutto riduzionista, volta ad elencare tutte le particelle costituenti e tutte le loro interazioni, è una teoria del quasi nulla, nel senso lascia fuori molte cose interessanti, riguardo ai fenomeni di organizzazione collettiva: benché i comportamenti del sistema in esame siano compatibili con le proprietà degli oggetti che lo compongono, l’inverso non è ovvio, vale a dire, date le proprietà dei costituenti, può essere impossibile dedurre i comportamenti globali del sistema. I sistemi complessi, appartenenti alla cosiddetta “terra di mezzo”, di fatto, non sono zippabili in un singolo modello formale, ma esibiscono un insieme di comportamenti che per essere descritti richiedono più modelli, compatibilmente con l’idea della complementarità.

Nell’indagine della realtà, la caccia alla ricerca di una singola verità assoluta sembra essere terminata, e senza successo, visto e considerato che la natura ci ha ormai svelato montagne di verità, ognuna delle quali deriva da una verità precedente e poi la trascende via via che aumentiamo la scala di misurazione. Come nel caso di Marco Polo e Cristoforo Colombo, gli scienziati volevano esplorare nuovi paesi e si sono trovati tra le mani un nuovo mondo. La lezione cruciale della fisica contemporanea sta, insomma, nella necessità – per comprendere nei dettagli più intimi il funzionamento dell’universo fisico – di considerare più scale di grandezza e più livelli organizzativi tra i quali esistono precise ipotesi di raccordo e perciò nel fatto che il mito del comportamento collettivo che discende dalle leggi deve essere completamente capovolto: sono le leggi che scaturiscono dal comportamento collettivo. Scrive al riguardo Robert Laughlin, premio Nobel 1998, nel suo stimolante libro Un universo diverso: “In effetti possiamo prevedere e gestire il comportamento del mondo fisico, ma non perché siamo dei geni: la natura ce ne facilita la comprensione, organizzandosi e generando leggi. […] Passando all’Era dell’Emergenza impariamo ad accettare il valore del comune buonsenso, ci poniamo alle spalle l’abitudine di banalizzare le meraviglie organizzative della natura, e ci rendiamo conto che l’organizzazione è importante in sé, anzi che in certi casi è la cosa più importante. Le leggi della meccanica quantistica, le leggi della chimica, le leggi del metabolismo e le leggi dei conigli che sfuggono alle volpi nei parchi discendono tutte l’una dall’altra, ma in fin dei conti, almeno per i conigli, contano soprattutto queste ultime! […] Non ci troviamo alla fine del percorso delle scoperte (la frontiera è ancora là, splendidamente selvaggia e tutta da esplorare) ma alla fine dell’Era del Riduzionismo, un periodo storico in cui la falsa ideologia del dominio dell’uomo sulla natura, esercitato mediante le leggi microscopiche, sta per essere spazzata via dagli eventi e dalla logica. Con ciò non voglio dire che le leggi microscopiche siano errate o insensate, ma solo che in molti casi diventano irrilevanti per colpa dei loro figli e nipoti, le leggi superiori di organizzazione che sovrintendono il mondo.”.

In fisica, il cuore dei processi di emergenza, dei fenomeni di organizzazione collettiva, è un fenomeno denominato rottura spontanea di simmetria, in base al quale la natura procede verso la formazione di stati più complessi e imprevedibili rompendo spontaneamente delle simmetrie. In particolare, la teoria quantistica dei campi, che costituisce la sintassi usata oggi dai fisici teorici per descrivere le particelle elementari e le loro interazioni, comporta che i campi quantistici hanno una natura essenzialmente collettiva, facendo sì che, in seguito alla rottura spontanea delle simmetrie, si formino strutture ordinate in cui il risultato contiene proprietà più complesse ed imprevedibili, è qualcosa di più rispetto alle proprietà dei singoli componenti. Un tale processo dinamico ha caratteristiche del tutto generali che si possono riscontrare nella fisica delle particelle elementari, della materia condensata, in cosmologia e anche nei sistemi biologici. E va sottolineato che anche le teorie fondamentali della fisica che hanno l’ambizioso obiettivo di essere “teorie del tutto riguardo al dominio della gravità quantistica”, della cosiddetta scala di Planck (a cui dovrebbe avvenire l’unificazione di fisica quantistica e relatività) come per esempio la teoria delle stringhe, o la teoria dei loop, per come sono costruite, ci insegnano che – per comprendere appieno le cose – occorre invocare l’idea che esistano opportuni livelli strettamente correlati tra cui bisogna assumere precise ipotesi di raccordo. In altre parole, la vera chiave di volta, la vera chiave di lettura unificante anche della gravità quantistica e delle teorie del tutto è l’emergenza, in un quadro in cui, proprio come nella superconduttività, l’elemento cruciale è rappresentato dalla rottura spontanea di simmetria, l’idea che sotto determinate condizioni si generano delle proprietà, delle forme di organizzazione collettiva che non sono presenti nelle regole fondamentali, nei costituenti elementari e nel background previsti dalla teoria, compatibilmente con l’idea della complementarità.


Il legame tra le diverse teorie

Al netto delle considerazioni fatte, se la fisica contemporanea ci invita a prendere in considerazione punti di vista diversi, in particolare gli stati emergenti e le forme di organizzazione collettiva, compatibilmente con l’idea di complementarità, a questo punto riusciamo a capire meglio il perché, quando investighiamo i fenomeni che avvengono su scala umana, la natura sembra mettere efficacemente in quarantena le manifestazioni degli altri strati, dei livelli descrittivi più profondi, riusciamo a capire meglio cos’è che realmente fa sì che, ad un livello fondamentale, nei processi fisici dell’esperienza quotidiana si possano trascurare quanto predicono le teorie della fisica contemporanea (segnatamente la fisica quantistica), quali sono le vere relazioni tra questi diversi approcci teorici. La chiave di volta è proprio rappresentata dall’emergenza, il generarsi di forme di organizzazione collettiva, compatibilmente con l’idea della complementarità.

Così, possiamo affermare che le leggi di Newton hanno una natura emergente nel senso che rappresentano l’effetto dell’aggregazione di materia quantistica in fluidi e solidi macroscopici, vale a dire di un fenomeno di organizzazione collettiva. Sono state le prime leggi ad essere scoperte, hanno consentito la nascita della tecnologia e sono altrettanto esatte di qualsiasi altra cosa, eppure, se si prendono in esame i fenomeni microscopici e le alte velocità, svaniscono nel nulla, evidenziando la loro inadeguatezza. Ancora oggi svariati fisici parlano sistematicamente delle leggi di Newton come di una “approssimazione” della meccanica quantistica, da giudicare valida finché le dimensioni del sistema sono grandi (peraltro non è mai stato scoperto alcuno schema di approssimazione che possa legittimamente essere definito tale). Nei primi anni dopo l’avvento della meccanica quantistica, si era deciso di battezzare questo particolare requisito delle leggi di Newton, che appaiono solo a livello macroscopico, “principio di corrispondenza”. Il principio di corrispondenza resta tuttavia matematicamente indimostrabile.

Il vero legame, il vero raccordo tra meccanica di Newton e meccanica quantistica è l’emergenza: proprio come nel fenomeno della superconduttività gli elettroni del materiale, al di sotto di una certa temperatura, danno luogo ad una forma di organizzazione collettiva, aggregandosi in coppie di Cooper, allo stesso modo materia quantistica, nei corpi macroscopici, dà luogo a processi di organizzazione collettiva, in seguito ad una rottura spontanea delle simmetrie delle leggi fondamentali riguardanti i costituenti elementari, portando così alle leggi di Newton. Questo è il vero significato fisico del principio di corrispondenza. E tutto ciò può essere visto come la naturale conseguenza dell’adozione della complementarità, ovvero dell’uso di diversi livelli di descrizione dei processi, non più incentrati solo sui costituenti elementari, sui modelli atomici, riduzionisti, ma anche – e soprattutto – sui fattori globali che governano il fenomeno, all’interno di un quadro in cui l’elemento cruciale è l’organizzazione collettiva che sovrintende i processi. Riguardo al legame tra meccanica classica e meccanica quantistica succede un po’ la stessa cosa, da un punto di vista epistemologico, di quanto avviene quando una sostanza passa, per esempio, dallo stato solido allo stato liquido. Le fasi della materia, i ben noti stati liquido, solido e gassoso, sono fenomeni di organizzazione collettiva. Le fasi costituiscono un esempio elementare di emergenza e dimostrano in modo chiaro come la natura abbia precise divisioni di scala: nel contesto di fenomeni macroscopici le regole microscopiche possono essere perfettamente valide eppure del tutto irrilevanti, o perché quanto stiamo misurando è indifferente al loro effetto, o perché quanto stiamo misurando è troppo sensibile al loro effetto. Proprio come una sostanza nel passare dallo stato solido allo stato liquido è caratterizzata dall’emergenza di nuove proprietà, di nuove forme di organizzazione collettiva in seguito ad una rottura spontanea delle simmetrie riguardanti le interazioni tra i suoi costituenti, alla stessa maniera i sistemi descritti dalla fisica quantistica e quelli descritti dalla fisica classica possono essere visti come due distinte fasi nel senso che, quando abbiamo a che fare con corpi macroscopici, questi possono essere visti come forme di organizzazione collettiva che emergono in seguito ad una rottura spontanea delle simmetrie che regolano le interazioni tra i costituenti quantistici elementari.

Questa nuova maniera di guardare al legame tra le diverse teorie fondamentali della fisica ci suggerisce anche nuove prospettive di rilettura dei noti paradossi riguardanti l’immagine del mondo che deriva dalla fisica quantistica. Com’è noto, la teoria quantistica è forse la teoria che più ha contribuito a modificare la nostra comprensione dell’universo, introducendo scenari fecondi nell’indagine della realtà nei più svariati settori, ma nonostante gli incontrastati successi sul piano applicativo e le numerosissime conferme sperimentali che si sono accumulate sin dalla sua nascita, ha dato luogo ad un acceso dibattito su quello che dice a proposito del mondo. Infatti ci sono degli aspetti di questa teoria che la fanno sembrare esotica e misteriosa, lontana dal senso comune, come per esempio il problema della misurazione. Ebbene, i paradossi che caratterizzano il problema della misurazione quantistica ricevono una nuova spiegazione, del tutto chiara e semplice, sulla base dell’ipotesi che le operazioni di misura sono processi collettivi determinati dalla rottura spontanea di simmetria che caratterizza lo stato solido. La natura emergente della misurazione quantistica è legata al fatto che in ogni processo di misura le dimensioni costituiscono un fattore chiave: per comprendere ciò che si osserva in un processo di misura è di fatto indispensabile la presenza di un congegno di dimensioni opportune. Tutti i rivelatori quantistici sono composti di sistemi solidi, e quindi si basano tutti sulla rottura di simmetria che caratterizza lo stato solido, effetto che ha luogo solo al di sopra di certe dimensioni. Nei processi di misurazione, il fatto fondamentale è che le parti quantistiche di un esperimento cooperano in modo da dare luogo a un fenomeno classico, che obbedisce alle leggi di Newton. Ad esempio, quando eseguiamo la lettura di un contatore Geiger, sappiamo con certezza che il valore letto sarà identico un istante dopo, in quanto l’indice dell’apparato misuratore è un oggetto solido e lento. Se però consideriamo i fenomeni a livello di disintegrazione atomica, tutto cambia, perché il sistema in esame è facilmente perturbato dall’atto dell’osservazione. Il congegno agisce convertendo un segnale quantistico in uno classico, sulla base dell’emergenza dei fenomeni. La natura probabilistica delle misurazioni quantistiche è il risultato degli amplificatori, che rappresentano i collegamenti tra la realtà quantistica e il mondo classico.

In sintesi, dai fondamenti della meccanica quantistica, alla superconduttività, alla fisica delle particelle elementari fino ad arrivare alla cosmologia, la fisica contemporanea, portandoci domande e fatti non familiari, ci invita a prendere in considerazione punti di vista diversi, apprendendo da ciò che rivelano, compatibilmente con l’idea di complementarità. D’altra parte, va sottolineato che l’adozione di punti di vista incentrati sulle forme di organizzazione collettiva è possibile riscontrarla anche in altre discipline, per esempio in biologia, nelle scienze cognitive, nelle scienze sociali, in psicologia e in economia. Per esempio, se uno vuole comprendere nei dettagli il comportamento delle persone o del mercato azionario, le versioni “atomiche”, riduzioniste di questi sistemi, che implicano l’analisi del comportamento dei singoli neuroni o dei singoli investitori, hanno una complessità al di là di qualsiasi speranza. Si tratta di modelli tutt’altro che percorribili se uno ha come obiettivo quello di andare d’accordo con gli altri o di fare soldi investendo. E così ci si rivolge allora a concetti diversi per rispondere alle domande su larga scala, i quali ci forniscono modelli delle persone e dei mercati che sono complementari ai modelli “atomici” a grana fine. Proprio come nell’ambito della fisica dei comportamenti collettivi e dell’emergenza, anche nell’ambito della biologia, nelle scienze cognitive, sociali ed economiche, il “dettaglio” delle forze agenti sul singolo costituente elementare è inaccessibile o comunque è un dato ininfluente: si ha a che fare con processi che non sono né descrivibili né predicibili nel dettaglio analitico. Compatibilmente con l’idea della complementarità, si può però ricorrere a modelli alternativi per trattare sia l’interazione locale di agenti sia le caratteristiche qualitative dell’insieme delle possibilità evolutive del sistema sotto studio.


Scoprire o inventare nuovi concetti per lavorarci è un’attività creativa senza limiti: nella costruzione della conoscenza, compatibilmente con il potere unificante della complementarità, il problema non è quello di diventare il giocatore più bravo e mantenere indefinitamente questo stato, bensì nell’inventare nuovi giochi, allontanandoci dal bisogno/problema contingente e facendo un’analisi globale e critica delle necessità potenziali, tenendo conto che i fattori in esame sono simili a particelle quantistiche che emergono da un vuoto dinamico e che i processi emergenti possono modificarsi con l’intero contesto che li genera, inducendo continuamente nuovi scenari, in tutte le direzioni e su tutte le scale: questa è forse la maniera più appropriata per indagare la realtà. Per questo motivo, una comprensione completa delle leggi fondamentali, se mai la raggiungessimo, non potrà mai essere la “verità assoluta”, la “risposta definitiva”, ci saranno sempre moltissime domande importanti senza risposta, in particolare – in ogni settore di studio – scopriremo sempre nuove forme organizzative che non sarà possibile spiegare in termini dei costituenti elementari.

Bibliografia

  1. J. Al-Khalili, Il mondo secondo la fisica, Boringhieri, Torino (2020).

  2. F. Close, Teorie del tutto, Boringhieri, Torino (2018).

  3. A. Einstein, “Zur Elektrodynamik bewegter körper,” Annalen der Physik, 17/10, pp. 891-921 (1905).

  4. D. Fiscaletti, “Il principio dell’organizzazione e i fenomeni collettivi come fondamento delle leggi di natura: un’analisi critica”, Scienze e Ricerche, n. 35, pp. 84-90 (2016).

  5. D. Fiscaletti, Il quadro olografico. Le frontiere non-locali della fisica moderna, Di Renzo Editore, Roma (2017).

  6. D. Fiscaletti, Le immagini dinamiche. Forma e qualità nella scienza moderna, Asterios Editore, Trieste (2020).

  7. M. Kaku, L’equazione divina. La ricerca di una teoria del tutto, Rizzoli, Milano (2021).

  8. R. Laughlin, Un universo diverso. Reinventare la fisica da cima a fondo, Codice Edizioni, Torino (2005).

  9. R. Laughlin, D. Pines, J. Schmalian, O. Stojkovic Branko e P. Wolynes, “The middle way,” PNAS, 97/1, pp. 32-37 (2000).

  10. I. Licata, Piccole variazioni sulla scienza, Edizioni Dedalo, Bari (2016).

  11. I. Licata, Complessità. Un’introduzione semplice, Di Renzo Editore, Roma (2018).

  12. C. Rovelli, La realtà non è come ci appare, Raffaello Cortina Editore, Milano (2014).

  13. F. Wilczek, I fondamentali. La fisica in dieci parole chiave, Giulio Einaudi Editore, Torino (2021).