blog

L'irresistibile fascino dei quanti

Scritto da Vincenzo Barone | ott 24, 2022

Un secolo di meccanica quantistica

È stato giustamente detto che il Nobel per la fisica del 2022 – assegnato allo statunitense John Clauser, al francese Alain Aspect e all’austriaco Anton Zeilinger – celebra la potenza della meccanica quantistica. In un secolo di vita, in effetti, questa rivoluzionaria teoria non solo ci ha svelato la struttura profonda della realtà, ma ha modificato radicalmente il nostro sguardo sull’universo e, negli ultimi anni, è diventata anche un formidabile strumento tecnologico.

Non lo poteva certamente immaginare il giovane principe Louis de Broglie, dottorando in fisica, quando, esattamente cento anni fa, nel 1923, affascinato dalla teoria dei quanti di luce formulata da Einstein nel 1905, concepì l’inaudita ipotesi che gli elettroni potessero comportarsi come onde. Tre anni dopo, Erwin Schrödinger diede corpo a questa idea, introducendo l’equazione d’onda quantistica dell’elettrone. Nel frattempo, un altro giovane genio, Werner Heisenberg, aveva costruito – durante una breve permanenza sulla sperduta isola di Helgoland, nel giugno del 1925 – una strana meccanica, in cui le grandezze cinematiche non erano espresse da semplici numeri, ma da matrici (e, in quanto tali, non godevano della proprietà commutativa). In breve tempo, si capì che la meccanica ondulatoria di Schrödinger e la meccanica delle matrici di Heisenberg, Born e Jordan erano la stessa cosa: una nuova meccanica, quantistica, capace di descrivere e di spiegare il mondo atomico. In appena un decennio, tutti gli aspetti fisici e matematici della teoria furono chiariti e si comprese la sua caratteristica più dirompente, vale a dire il fatto che le predizioni quantistiche non sono, in generale, esatte, ma probabilistiche.

Schema di diffrazione elettronica. © Andrew Lambert Photography / Science Photo Library

L’articolo EPR e l’entanglement

Alla fine del suo primo decennio di vita, la meccanica quantistica era ormai diventata uno strumento di uso comune (estesa al caso relativistico da Paul Dirac, utilizzata dai chimici per descrivere i legami molecolari e dai fisici nucleari per spiegare i fenomeni subatomici), e nessuno dubitava della sua correttezza.

Quasi nessuno, a dire il vero. Nel 1935, comparve sulla «Physical Review» un articolo insolito, scritto niente di meno che da Albert Einstein, assieme a Boris Podolsky e a Nathan Rosen. Il suo titolo era interrogativo – La descrizione quanto-meccanica della realtà può considerarsi completa? – e la risposta che gli autori davano alla domanda era un clamoroso no.

Titolo dell'articolo firmato da Albert Einstein, Boris Podolsky e Nathan Rosen

Einstein e collaboratori (il trio “EPR”) proponevano un esperimento ideale, riguardante un sistema costituito da due particelle inestricabilmente correlate. Secondo la meccanica quantistica, se si misura una certa grandezza su una delle particelle, si determina immediatamente il risultato di una misura della stessa grandezza sull’altra particella. Dall’analisi di una situazione di questo tipo, estesa a due grandezze quantisticamente coniugate, cioè non misurabili simultaneamente (come la posizione e la velocità), EPR concludevano che la descrizione della realtà fornita dalla meccanica quantistica non poteva dirsi completa.

Il fenomeno studiato da EPR fu ulteriormente approfondito da Erwin Schrödinger, che lo battezzò entanglement (un termine traducibile con “intreccio”). Pur essendo stato immaginato come un meccanismo per evidenziare i difetti della meccanica quantistica, l’entanglement si sarebbe rivelato – mezzo secolo dopo (grazie ai vincitori del Nobel 2022) – il banco di prova di maggior successo della teoria.

Il lavoro di EPR poneva la questione di come “completare” la teoria quantistica. Un modo generale per farlo è di introdurre delle variabili nascoste. Se conoscessimo i valori di queste variabili, saremmo in grado di descrivere i sistemi fisici senza alcuna incertezza e di prevedere esattamente l’esito delle misure. Da questo punto di vista, il fatto di doversi limitare a fornire delle probabilità – come avviene nella meccanica quantistica standard – sarebbe dovuto solo alla nostra ignoranza.

La svolta di Bell

Dunque: meccanica quantistica o teorie a variabili nascoste?

Per lungo tempo, la questione non ebbe alcuna rilevanza scientifica. La meccanica quantistica era usata quotidianamente come strumento di calcolo e la sua capacità predittiva relegava nel campo della pura filosofia i dibattiti sui suoi fondamenti.

Il momento di svolta si verificò nel 1964, quando un geniale teorico del CERN che fino a quel momento si era occupato di fisica delle particelle, il nord-irlandese John Stewart Bell, ideò un test, basato su particolari disuguaglianze relative a sistemi entangled, per discriminare tra la meccanica quantistica e possibili teorie alternative a variabili nascoste. Quella che fino a quel momento era stata vista come una questione puramente concettuale, divenne, grazie a Bell, un problema scientifico a tutti gli effetti, aperto alla ricerca sperimentale. Non era facile trasferire in laboratorio le sue idee, ma l’ingegno degli sperimentatori e il rapido sviluppo della fisica atomica e dell’ottica quantistica permisero di riuscire nell’impresa.

Ritratto di John Bell al CERN, Giugno 1982 ©CERN

Grazie agli esperimenti pionieristici di John Clauser negli anni Settanta e a quelli più perfezionati di Alain Aspect, a partire dagli anni Ottanta, l’entanglement, da esperimento mentale è diventato realtà, e le disuguaglianze di Bell sono state verificate, con un risultato incontrovertibile: le misure sono in accordo con le predizioni della meccanica quantistica ed escludono la possibilità di teorie a variabili nascoste di tipo locale, in cui cioè non sia possibile trasmettere segnali in maniera istantanea. La natura, insomma, è intrinsecamente probabilistica.

Sovrapposizione ed entanglement

Per comprendere meglio l’entanglement, conviene richiamare brevemente le regole del gioco della meccanica quantistica. Consideriamo un sistema quantistico a due stati, caratterizzati da due valori di una certa grandezza misurabile: l’esempio tipico è un fotone con due possibili stati di polarizzazione, orizzontale (H) e verticale (V) . Mentre classicamente questi due stati si escludono a vicenda, quantisticamente, per il principio di sovrapposizione, possono combinarsi tra loro: un fotone può trovarsi nello stato H + V, in cui ha contemporaneamente – per quanto strano possa sembrare – polarizzazione orizzontale e verticale. Ciò significa, per essere precisi, che la polarizzazione del fotone è indeterminata e acquista un valore definito solo nel momento in cui si effettua una misura. Questa darà H con una probabilità del 50% e V con una probabilità del 50%, ma ciò non vuol dire che, prima della misura, il fotone si trovasse in metà dei casi nello stato H e in metà dei casi nello stato V. È l’osservazione che attribuisce al fotone un valore determinato di polarizzazione, cioè fa “collassare” il suo stato iniziale H + V in uno dei due stati di polarizzazione definita, H o V.

Tutto ciò è già di per sé sorprendente. Ma la sorpresa aumenta se si considera un sistema costituito da due componenti, per esempio una coppia di fotoni polarizzati. Se lo stato della coppia è, diciamo, HV, misurando il primo fotone lo troveremo sicuramente orizzontale, misurando il secondo lo troveremo sicuramente verticale. Ma che cosa succede se lo stato dei due fotoni è la sovrapposizione HV + VH? In questo caso le polarizzazioni dei fotoni non sono definite prima della misura, ma sono correlate. Se un osservatore misura il primo fotone, lo trova, con il 50% di probabilità, orizzontale e, con il 50% di probabilità, verticale, ma la novità è che quando l’osservatore effettua la misura e trova il fotone in un certo stato di polarizzazione determina istantaneamente la polarizzazione dell’altro fotone, che sarà sicuramente opposta. In altri termini, l’osservazione effettuata su uno dei due fotoni fissa lo stato dell’altro fotone, dovunque esso si trovi – anche a grandissima distanza. Questo è l’entanglement: un legame inestricabile tra sistemi quantistici che hanno inizialmente interagito (e sono stati preparati nello stato intrecciato) e continuano a essere correlati anche quando sono molto lontani l’uno dall’altro (senza che ciò comporti – si badi bene – un trasferimento istantaneo di informazione).

Generalmente, quello che si fa per realizzare in laboratorio l’entanglement è inviare un fascio di luce laser su particolari cristalli, i quali, attraverso un processo noto come fluorescenza parametrica, convertono i fotoni del fascio (uno su un miliardo) in coppie di fotoni entangled di frequenza minore e polarizzazioni non definite, ma opposte. Questi fotoni vengono poi separati spazialmente fino a una certa distanza, dove vengono rivelati. Le distanze possono essere anche molto grandi e sono limitate solo dalla necessità di preservare la correlazione quantistica, che tende a svanire a causa dell’interazione con l’ambiente. Per avere un’idea dei progressi verificatisi negli ultimi quarant’anni, se nel 1982 la separazione spaziale dei fotoni nell’esperimento di Aspect era di una decina di metri, oggi si è giunti a una separazione record di 248 km [S. Ph. Neumann et al., «Nature Communications», 13 (2022) 6134].

La seconda rivoluzione quantistica

La capacità di manipolare sistemi quantistici elementari – fotoni, atomi, ecc. – e la comprensione delle potenzialità applicative offerte dalla meccanica quantistica sono alla base di quella che viene abitualmente chiamata seconda rivoluzione quantistica. È l’attuale, vertiginosa, fase di sviluppo della fisica quantistica, inaugurata dai lavori sperimentali che abbiamo menzionato e dagli studi teorici di grandi visionari (come Richard Feynman e David Deutsch), e caratterizzata, a differenza della prima rivoluzione quantistica, da ricadute tecnologiche di enorme rilevanza (anche economica). Ci limiteremo a menzionarne due.

L’entanglement gioca un ruolo cruciale nelle tecniche di comunicazione quantistica, in particolare in quello che viene chiamato teletrasporto quantistico, consistente nel trasferimento a distanza di uno stato quantistico. Nel protocollo del teletrasporto un fotone (F) che codifica lo stato viene fatto interagire, dall’osservatore che trasmette, con un fotone (A) di una coppia entangled, mentre il secondo fotone (B) viene consegnato all’osservatore che riceve. Il risultato di una misura effettuata dal trasmettitore sul sistema F-A, comunicato con mezzi classici al trasmettitore, permette a quest’ultimo di portare il fotone B nello stato in cui si trovava F (vedi figura 1). Figura 1. Esempio di teletrasporto quantistico

La prima dimostrazione del teletrasporto quantistico fu ottenuta nel 1997 dal gruppo di Anton Zeilinger (il terzo Nobel del 2022) a Innsbruck e contemporaneamente dal gruppo di Francesco De Martini a Roma. Oggi si è giunti a teletrasportare uno stato quantistico per più di 140 km, tra due laboratori nelle isole Canarie.

Il principio di sovrapposizione è alla base di un’altra importante area applicativa, la computazione quantistica. Mentre un bit classico può trovarsi solo nello stato 0 o nello stato 1, un bit quantistico, o qubit, può trovarsi in una qualunque combinazione di 0 e 1. Ciò comporta che un computer quantistico possa eseguire più calcoli in parallelo, ed essere quindi molto più efficace di un computer classico (tanto da poter risolvere problemi classicamente intrattabili). Esistono in effetti degli algoritmi quantistici, come l’algoritmo di Shor per la fattorizzazione in numeri primi, che funzionano in maniera esponenzialmente più rapida di qualsiasi algoritmo classico. Sul piano pratico, i computer quantistici attualmente disponibili sono ancora piuttosto rudimentali, limitati a calcoli specifici e affetti da errori, ma la strada è ormai spalancata e prima o poi questi dispositivi cambieranno totalmente il paradigma del calcolo e dell’elaborazione dei dati.

Referenze iconografiche: ©VICTOR DE SCHWANBERG / SCIENCE PHOTO LIBRARY; © Andrew Lambert Photography / Science Photo Library; ©CERN