I computer classici, per quanto veloci e potenti, sono inadatti al calcolo e all’analisi di sistemi complessi, quali presenti nelle moderne banche dati, o nei più avanzati metodi crittografici. Svolgendo il calcolo sequenzialmente il computer classico può richiedere tempi lunghissimi. I quantum computer sono calcolatori che sfruttano le leggi della fisica e della meccanica quantistica, quella che studia le particelle subatomiche
Cos’è l’informatica quantistica? Perché abbiamo bisogno del calcolo quantistico? La potenza di calcolo di un computer classico aumenta con l’aumentare della complessità dei suoi microcircuiti, misurata ad esempio tramite il numero di transistor per area unitaria. Secondo la legge empirica di Moore («La complessità di un microcircuito raddoppia ogni 18 mesi»). L’aumento della densità dei transistor pone due problemi principali per i computer tradizionali. In primo luogo, il problema del consumo di energia e dei conseguenti effetti termici. In secondo luogo, la riduzione delle dimensioni condurrà al fallimento della teoria classica dei transistor e le loro prestazioni si discosteranno dal progetto originale.
Inoltre, i computer classici, per quanto veloci e potenti, sono inadatti al calcolo e all’analisi di sistemi complessi, quali presenti nelle moderne banche dati, o nei più avanzati metodi crittografici.
Svolgendo il calcolo sequenzialmente il computer classico può richiedere tempi lunghissimi.
I quantum computer sono calcolatori che sfruttano le leggi della fisica e della meccanica quantistica, quella che studia le particelle subatomiche.
La storia della meccanica quantistica è stata raccontata molte volte, e continua ad esserlo – da storici, filosofi e scienziati – per buone ragioni: non soltanto perché è fatta di idee geniali e scoperte rivoluzionarie, ma anche perché il finale della storia sembra ancora aperto.
La meccanica quantistica fa previsioni di una esattezza senza precedenti, finora mai smentite dagli esperimenti.
L’efficacia delle previsioni sperimentali della teoria non è in discussione, ma si tratta di ridefinire il significato e i limiti della conoscenza scientifica, le dispute fin dal principio sconfinarono nella filosofia.
La teoria non descrive più gli stati di una particella (come posizione e velocità), ma tratta di proprietà “osservabili”, cioè di risultati che si osservano negli esperimenti, rinunciando in linea di principio a dare una descrizione completa dello stato di una particella in ogni dato istante e a prescindere dall’osservatore.
Quanto al fattore “caso”, Einstein continuò a rifiutarlo e sostenere l’esigenza di una teoria deterministica, che di solito si illustra con la famosa massima “Dio non gioca a dadi” – a cui Born avrebbe risposto: “Smettila di dire a Dio cosa deve fare”.
Le discussioni hanno messo in luce sempre meglio le caratteristiche più straordinarie della teoria. I due casi più discussi sono gli stati di sovrapposizione e l’entanglement.
In generale, la teoria assegna a un sistema più stati oggettivamente “sovrapposti”, e solo l’osservazione permette di stabilire quale si realizzi effettivamente.
La sovrapposizione è un fenomeno tipico delle onde
È come se la materia, prima di essere osservata, fosse al tempo stesso onda e particella.
L’entanglement complica ulteriormente la situazione: due “particelle” (ma abbiamo visto che questo stesso termine è problematico) possono avere stati tra di loro collegati nella descrizione di un sistema quantistico, per cui l’osservazione di una di esse determina immediatamente il valore dello stato dell’altra.
Ma il punto è che uno dei due, al momento della misura, potrebbe trovarsi a una distanza tale che nessun segnale fisico potrebbe raggiungerlo. Si tratta di un fenomeno noto come “non località” quantistica, cioè una trasmissione istantanea di segnali a distanza che viola i principi di tutta la fisica precedente. Questi paradossi sono stati a lungo esaminati e confermati dai fisici.
Diversi sono i modi in cui si è tentato di risolvere il rompicapo. Il primo è la cosiddetta interpretazione del “multi universo” che gode di credito soprattutto tra fisici e filosofi di area britannica, dove si è sviluppata originariamente. La seconda ipotesi è l’introduzione di variabili nascoste, considerate una rispettabile alternativa da una minoranza della comunità scientifica.
La scienza quantistica, nonostante la sua bizzarra idea di realtà, funziona benissimo a livello quasi miracoloso, grazie alla fisica quantistica abbiamo una vera comprensione di quello che accade a livello molecolare, atomico, nucleare e subnucleare. Conosciamo le forze e le leggi che governano il micromondo. Eppure, deve esserci ancora qualcosa che sfugge alla nostra attenzione. È il sogno di molti di arrivare ad una solida teoria che unifichi la relatività generale einsteiniana e la meccanica quantistica.
Un computer quantistico sfrutta alcune tra le proprietà più bizzarre e contro intuitive della meccanica quantistica per ottenere una potenza di calcolo di gran lunga superiore rispetto a quella di un computer (e di un super computer) classico.
Come tutti sanno, l’unità minima di informazione di un processore convenzionale è il bit, un’entità binaria che può assumere i valori zero e uno a seconda del passaggio o meno di corrente.
Le leggi della meccanica quantistica postulano (tra le altre cose) che ogni particella sia soggetta al cosiddetto principio di sovrapposizione, ossia – per dirla rozzamente – si possa trovare contemporaneamente, con probabilità diverse, in più stati differenti. “Il principio di sovrapposizione consente di superare il dualismo acceso/spento e di veicolare molta più informazione: una particella quantistica può rappresentare contemporaneamente più stati”. Il qubit permette di parallelizzare i calcoli, cioè di svolgere molte, moltissime operazioni contemporaneamente per tutti i possibili stati sovrapposti.
Per parallelismo intendiamo il calcolo simultaneo dei possibili valori di una funzione. Nei circuiti classici questo si ottiene con più circuiti identici, uno per ciascun valore da calcolare, nel calcolo quantistico un unico circuito calcola tutti i valori contemporaneamente sfruttando il fatto che un qubit può essere in sovrapposizione di differenti stati.
Lo stato di un qubit è estremamente fragile, anche la minima variazione di temperatura può alterare la sovrapposizione degli stati. Per questo i qubit vanno mantenuti a temperature prossime allo zero assoluto
(-273,16°C). Il tempo in cui il qubit mantiene il suo stato quantico è detto tempo di coerenza, che nei sistemi attualmente più utilizzati è dell’ordine di 100 microsecondi.
Poiché il numero di qubit continua ad aumentare, i computer convenzionali giungeranno presto a un collo di bottiglia. Tuttavia, quasi tutti i calcoli tradizionali che coinvolgono la meccanica quantistica affrontano gli stessi problemi, così molti ricercatori hanno iniziato a pensare a come utilizzare le proprietà quantistiche stesse come risorse di calcolo già nel 1970, cosa che è stata poi riassunta da Richard Feynman nel 1982.
Quindi quali vantaggi hanno i qubit rispetto al calcolo tradizionale? Il più sorprendente non è altro che le proprietà della sovrapposizione quantistica e dell’entanglement (ingarbugliamento, groviglio) quantistico. La sovrapposizione quantistica è uno stato non-classico che contrasta con l’intuizione empirica e la metafora è il Gatto di Schrödinger che è al contempo vivo e morto.
Tuttavia, lo stato di sovrapposizione è uno stato reale per i qubit su scala microscopica o mesoscopica (scale spaziali, punti di vista e simili che siano intermedi tra quelli macroscopici e quelli microscopici). I qubit possono trovarsi nella sovrapposizione di due stati quantistici caratteristici e tale stato di sovrapposizione è uno stato non-classico in cui l’essere e il non-essere coesistono nel mondo quantistico. In questo stato, il qubit non è né 0 né 1, ma non è in uno stato in cui entrambi i lati (0 e 1) sono incerti, bensì con uguale probabilità, come una moneta prima di giungere sul palmo della mano.
Mentre nella natura visibile è possibile osservare un fenomeno senza influenzarlo in modo sensibile con la sola e stessa osservazione (ossia unicamente col guardare il predetto fenomeno) – nella fisica atomica e nella meccanica quantistica ad ogni osservazione è connessa una perturbazione finita e sino ad un certo punto invisibile. Il principio di indeterminazione è il riconoscimento del caso e dell’arbitrio assoluto nei fenomeni naturali. D’altronde la meccanica quantistica non predica affatto un singolo risultato ben definito per l’osservazione o per un eventuale osservatore, come meglio si comprenderà in seguito.
Il fatto che i qubit possano subire un’evoluzione quantistica in un insieme di stati di sovrapposizione – che non è né 0 né 1 – implica il parallelismo quantistico nel relativo calcolo. Tuttavia, l’evoluzione di ogni qubit non è sufficiente per costruire tutte le possibili evoluzioni di un sistema multi-qubit, per cui dobbiamo anche interagire con qubit diversi in modo che possano essere intrecciati al fine di costruire un soddisfacente algoritmo per tale calcolo. La sovrapposizione speciale è chiamata appunto stato quantistico entangled.
Prendiamo due qubit come esempio, che è un tipico stato entangled. Tra questi, lo stato che rappresenta il primo qubit è connesso con lo stato del secondo qubit. Le due connessioni sono in sovrapposizione quantistica, quindi non possiamo parlare dello stato in cui si trovano in quel momento i due qubit, quindi si parla di entanglement.
Esiste una visione più pratica dell’entanglement nell’informatica quantistica: ovvero, gli stati entangled di solito derivano dal controllo di un qubit (qubit di controllo) su un altro (qubit di destinazione). La relazione tra la parte di controllo e la parte di destinazione è simile al predetto Gatto di Schrödinger. In base a questo punto di vista, se la parte controllante si trova in uno stato di sovrapposizione, la parte controllata si troverà in una sovrapposizione di diverse situazioni controllate.
Tale processo di entanglement è un elemento importante nel calcolo quantistico. Possiamo dire che la sovrapposizione e l’entanglement tessono sinergicamente la variegata evoluzione parallela del calcolo quantistico. Ogni misurazione può calcolare solo uno degli stati possibili e lo stato di sovrapposizione non esiste più dopo la prima misurazione, quindi per ottenere le informazioni statistiche che ci occorrono nello stato di sovrapposizione, dobbiamo ricalcolare e rimisurare i risultati.
Pertanto, in molti algoritmi quantistici (come quello di fattorizzazione di Shor [che risolve il problema della scomposizione in fattori dei numeri interi in numeri primi] e la simulazione quantistica digitale), è necessario utilizzare alcuni meccanismi di interferenza dopo il calcolo, in modo che l’informazione di quella fase contenente la risposta nello stato di sovrapposizione sia convertita nella conservazione (con l’idea implicita di impedimento di una fuoriuscita o di una perdita finale) dovuta all’interferenza costruttiva (ossia dalla variazione immediatamente successiva di altri dati prodotti), mentre ulteriori dati sono eliminati dall’interferenza distruttiva. In questo modo, la risposta può essere ottenuta con un numero di misurazioni inferiori. La maggior parte degli algoritmi quantistici si basa fortemente sul fenomeno della fluttuazione e dell’interferenza, quindi la fase relativa è molto importante per il calcolo quantistico, che è chiamata coerenza quantistica. Nella progettazione hardware dei computer quantistici, molte considerazioni sono legate a come proteggere lo stato quantistico per prolungare la durata della coerenza.
I computer quantistici hanno una varietà di implementazioni hardware, ma le considerazioni di progettazione sono simili. Ci sono tre considerazioni comuni: l’operabilità dei qubit, la misurabilità, e la protezione degli stati quantistici. In risposta a queste considerazioni, è stato sviluppato un sistema di elettrodinamica quantistica della cavità (Cavity quantum electrodynamics, cQED). Si prenda come esempio un sistema quantistico superconduttore per introdurre l’implementazione dei computer quantistici. La differenza di frequenza tra la cavità risonante e il qubit fa si che l’accoppiamento tra la cavità risonante e il qubit tenda a non scambiare quanti di energia, ma a generare solo entanglement, il che significa che la frequenza della cavità risonante si sposterà con lo stato del qubit. Per cui lo stato del qubit può essere dedotto misurando lo spettro di penetrazione o riflessione delle microonde vicino alla frequenza di risonanza con la linea di lettura del bit.
Il meccanismo di entanglement tra qubit adiacenti è fornito dall’accoppiamento relativo alla capacità elettrica tra condensatori di tipo incrociato. L’effetto di accoppiamento è controllato dalla differenza di frequenza tra qubit adiacenti. Il comportamento oscillante riflette l’effetto di interferenza quantistica e la sua graduale scomparsa comporta il decadimento della coerenza e dell’energia quantistica.
La durata coerente dei qubit è influenzata da due fattori, intrinseco ed estrinseco. L’influenza esterna deriva principalmente dall’accoppiamento tra il qubit e il circuito di lettura dello stato quantistico. La presenza di un meccanismo di protezione simile a un filtro nella cavità a microonde tra il bit e la linea di lettura può fornire un meccanismo di protezione simile a un qubit perché la cavità e il qubit hanno una differenza di frequenza di circa 718 MHz. L’influenza intrinseca deriva principalmente dalla perdita del qubit stesso e dalla sensibilità della sua frequenza a vari tipi di rumore, che solitamente possono essere soppressi dal miglioramento dei materiali e dei processi e dall’ottimizzazione della struttura geometrica.
I campi di applicazione dell’ informatica quantistica
L’informatica quantistica ha una vasta gamma di applicazioni, attualmente coinvolte nei campi della decrittazione e della crittografia, della chimica quantistica, della fisica quantistica, dei problemi di ottimizzazione e dell’intelligenza artificiale. Ciò copre quasi tutti gli aspetti della società umana e avrà un impatto significativo sulla vita umana dopo la pratica. Tuttavia, i migliori computer quantistici non sono ancora in grado di esprimere i vantaggi del calcolo quantistico. Sebbene il numero di qubit su un computer quantistico abbia superato i 50, la profondità del circuito richiesta per eseguire l’algoritmo è tutt’altro che sufficiente. Il motivo principale è che il tasso di errore dei qubit nel processo di calcolo è ancora molto elevato, anche se possiamo utilizzare la correzione quantistica degli stessi e un calcolo quantistico che tolleri i difetti. Nel caso del calcolo quantistico, la precisione che man mano migliora i dati, aumenterà notevolmente la difficoltà di produzione dell’hardware e la complessità dell’algoritmo.
Allo stato attuale, l’implementazione di alcuni noti algoritmi ha raggiunto solo il livello di dimostrazione concettuale, che è sufficiente per dimostrare la fattibilità del calcolo quantistico, ma l’applicazione pratica ha ancora molta strada da fare. Ma dovremmo rimanere ottimisti, perché anche se il calcolo quantistico generale deve ancora essere migliorato dall’hardware dei computer quantistici, possiamo ancora trovare nuovi algoritmi e applicazioni. Inoltre, anche lo sviluppo dell’hardware può fare passi da gigante, proprio come lo sviluppo dei computer tradizionali all’inizio. In linea con questo obiettivo, molte industrie tecnologiche esistenti potrebbero essere aggiornate in breve. La ricerca galoppa grazie anche a importanti investimenti pubblici e privati, e nel breve termine si vedranno le prime applicazioni commerciali.
Molti esecutivi, considerando i problemi di difesa e intelligence, finanziano ricerche su questo versante. La Repubblica Popolare della Cina e gli Stati Uniti d’America hanno varato piani pluriennali nell’ordine dei miliardi di yuan e dollari. E pure l’Unione Europea ha stabilito il Quantum Flagship Programme per un investimento di un miliardo di euro.