IL NUOVO PARADIGMA: COMPUTER QUANTISTICI

COSA SONO VERAMENTE?

di Margherita Chiara Immordino Tedesco

e Francesco Palladino

“La complessità di un microcircuito, misurata ad esempio tramite il numero di transistor per chip, raddoppia ogni 18 mesi (e quadruplica quindi ogni 3 anni).” - Prima legge di Moore

 

Gordon Moore, uno dei fondatori di INTEL e pioniere della microelettronica nel 1965 enunciò due delle empiriche leggi che son state obbiettivo e parametro di misura nello sviluppo della microelettronica a partire dall’inizio degli anni Settanta.

Fino ad oggi, la miniaturizzazione dei circuiti è cresciuta parallelamente all’aumento della potenza di calcolo dei processori, fino a raggiungere i 7nm (nanometri) ed i 5nm nel processo produttivo (5nm node, annunciato recentemente da ‘TSMC’ Taiwan Semiconductor Manufacturing Co. e Samsung), mettendo in evidenza la difficoltà in cui incapperemo nel futuro, che ci vedrà costretti ad accantonare la profetica legge di Moore.

Ma c’è un nuovo paradigma che sfrutta le leggi della fisica e della meccanica quantistica, che punta al raggiungimento di una potenza di calcolo esponenzialmente più elevata senza necessariamente aver bisogno della miniaturizzazione dei circuiti. Il computer quantistico.

Ma cos’è esattamente?

Immaginate di voler cercare una particolare frase che vi ha colpito nel vostro libro preferito, ma non ricordate la pagina in cui si trovi. Un normale computer che usa il bit digitale con relativo codice binario, analizzerà pagina per pagina, riga per riga, fino ad arrivare alla determinata frase che cercavate; un computer quantistico, che usa il “qubit” sarà in grado invece di analizzare ogni pagina e ogni riga nello stesso momento, trovandola così molto più velocemente. Non una consequenzialità, ma una simultaneità di processi quindi, nei quali verranno analizzate le scelte possibili, le strade percorribili, per ottenere il risultato desiderato o la risoluzione di un problema.

 

Ma cos’è il qubit?

Il termine “quantum bit” (qubit) è stato coniato dal fisici teorici Benjamin Schumacher e William Wootters ed identifica un oggetto matematico con proprietà specifiche che rappresenta la più piccola porzione (quanto) in cui può venir scomposta l’informazione delle particelle elementari. Mentre il bit nel codice binario può essere 1 oppure 0, acceso o spento, il qubit può essere entrambi nello stesso momento; 2 qubit, quindi, possono avere 4 stati contemporaneamente, 4 qubit hanno 16 stati, 16 qubit hanno 256 stati e via dicendo.

L’identificazione del qubit è stata resa possibile grazie alle teorie, alle osservazioni, nonché alle sperimentazioni, ispirate dalla necessità di spiegare i comportamenti atomici e transatomici della materia e della radiazione elettromagnetica a livelli microscopici.

Nei primi dell’Ottocento il fisico Thomas Young, descrisse il fenomeno dell’interferenza della luce come caratteristico del movimento ondulatorio, desumendo che le particelle elementari nel loro layer fisico, fossero onde. Durante tutto il XIX secolo, grazie ai successivi sviluppi teorici di Maxwell si definì la luce come un onda elettromagnetica. Fu da quel momento, iniziò a sorgere un primo problema: seguendo la teoria elettromagnetica di Maxwell sulle cariche in moto accelerato, si giunse alla conclusione che l’atomo avrebbe dovuto collassare. Ma, come tutti sappiamo, la materia che tutti noi sperimentiamo nel nostro quotidiano, è decisamente stabile.

Nel 1902, il fisico tedesco Philipp Lenard dimostrò che l'energia dei fotoelettroni (elettroni liberi prodotti in sostanze investite da radiazioni elettromagnetiche) in quello che viene definito effetto fotoelettronico o fotoelettrico*, non dipendeva dall’intensità di illuminazione, ma dalla frequenza (o dalla lunghezza d'onda) della radiazione incidente; l’intensità della radiazione, invece, determinava l’intensità della corrente, cioè il numero di elettroni strappati alla superficie. Il risultato sperimentale non poteva essere spiegato pensando che il layer fisico della luce fosse ondulatoria.

Nello stesso periodo Max Planck, contrapponendosi alla teoria elettromagnetica classica, in quella che è nota come "legge di Planck", che gli valse poi il premio Nobel nel 1918, espose una prima teoria quantistica affermando che gli atomi assorbono ed emettono radiazioni in modo discontinuo, per quanti di energia. Se pur inizialmente ciò venne considerato un escamotage matematico, dallo stesso Planck, divenne vera e propria teoria grazie ad Albert Einstein che, assumendo l'ipotesi di Planck e studiando il suddetto effetto fotoelettrico,  presentò i risultati delle sue sperimentazioni dichiarando che tutte le radiazioni dovevano essere emesse o assorbite in pacchetti discreti o ‘quanti’ di energia, che noi oggi chiamiamo fotoni e descrisse il comportamento di questi pacchetticome tipicamente associabile a quello delle particelle.

La luce quindi sembrava presentare una sorta di dualismo, apparendo come onda o particella a seconda dell’esperimento effettuato.

A quel punto, si manifestò nell'intera comunità scientifica la necessità di comprendere questa dualità e si insinuava l’ipotesi che questa natura duale fosse attribuibile a tutta la materia, finché il futuro premio Nobel Louis de Broglie, nel 1924 espose le sue innovative teorie sul dualismo onda-particella. Le teorie accolte con favore da Einstein vennero confermate poi dagli esperimenti effettuati sulla diffrazione degli elettroni di Davisson, Germer e Thomson.

Fu così che nacque la Fisica Quantistica, ovvero la scienza che studia la meccanica dei quanti, le particelle elementari che compongono il nostro Universo. La sua natura probabilistica nettamente in contrasto con il determinismo assoluto, assunto dogma nella fisica fino ad allora, fece storcere il naso successivamente a gran parte della comunità scientifica, Einstein compreso. In molti ricorderanno il suo famoso commento "Dio non gioca ai dadi", riferito ad alcune teorie sulla meccanica quantistica che si andavano a sviluppare in quel periodo.

Molte furono le astrazioni necessarie alla formulazione di teorie che riuscissero a spiegare il comportamento dei quanti e molti furono i postulati formulati in meccanica quantistica: da quelli standard, attualmente insegnati nelle Università detti “interpretazione di Copenaghen”, a quelli formulati da Richard Freyman, come anche la “interpretazione di Bohm” o quella detta “WMI, interpretazione a molti mondi”.

 

Il quanto e nello specifico campo computazionale il quantum bit, non è osservabile nel suo stato fisico nel mondo macroscopico, essendo dotato di specifiche proprietà come la sovrapponibilità degli stati, l'interferenza, l'entanglement e l'indeterminazione. Nel 1982, Richard Feynman teorizzò la creazione di dispositivi di elaborazione progettati per fornire informazioni su problemi fisici specifici che riguardassero la meccanica quantistica, mentre Murray Gell-Mann ( premio Nobel 1969, per la sua teoria sulle particelle elementari, da lui chiamati Quark), sempre nei primi anni ‘80 intravide nel comportamento delle particelle elementari la possibilità di sviluppo di una nuova tipologia di scienza informatica.

Arrivando ai giorni nostri, possiamo affermare che nella realizzazione dei computer quantistici esistano due metodi predominanti: il primo metodo usa il raffreddamento dei nanocircuiti vicino al cosiddetto zero assoluto (-273,15° Celsius), in modo che funzionino come superconduttori senza resistenze che interferiscano sulla corrente; il secondo metodo ricorre agli “ioni intrappolati”, un atomo o molecola con una carica elettrica “intrappolati” appunto, in dei campi elettromagnetici e manipolati affinché lo spostamento degli elettroni produca un cambiamento di stato degli ioni, riuscendo funzionare come qubit.

Nel 2011 la D-ware, annunciò il primo computer quantistico a 128  qubit (16.384 stati quantistici) e nel 2013 il primo processore a 512 qubit. Oggi si vocifera che la società canadese, sia arrivata già a 5000 qubit, e oltre. Nel maggio 2013 Google e Nasa presentano il D-Wave Two, nel Quantum Artificial Intelligence Lab, in California; lo scorso anno, Google ha annunciato Bristlecone, l'ultimo processore quantistico che mira al raggiungimento della quantum supremacy, ovvero il raggiungimento di quello step in cui un computer quantistico sarà in grado di eseguire determinati algoritmi molto più velocemente rispetto a quanto un classico computer sia in grado di fare.

IBM attualmente ha una macchina da 50 qubit nei propri laboratori e ha realizzato inoltre una simulazione cloud-based di un computer quantistico, mettendola a disposizione degli sviluppatori e di chiunque voglia sperimentare questo nuovo paradigma computazionale chiamato Q System One. Il computer quantistico IBM, si trova all’interno di un case in vetro, con un sistema di raffreddamento che tiene costantemente la temperatura a -273,333° Celsius, in modo da preservare l’integrità e la qualità dei qubit usati per le operazioni quantistiche.

Insomma, una vera gara contro il tempo per aggiudicarsi il nuovo mercato.

La strada è ancora lunga, perché le difficoltà nella realizzazione di un primo vero computer quantistico in grado di soddisfare le tanto attese aspettative computazionali, presenta ancora dei limiti da superare, primo tra i quali è che i qubit superconduttori perdono le loro speciali proprietà entro 100 microsecondi circa, a causa vibrazioni ambientali, fluttuazioni di temperatura e onde elettromagnetiche. A questo segue un altro ostacolo da sorpassare perché tutti possano usufruire quotidianamente di questa nuova rivoluzionaria tecnologia, ovvero la corretta manipolazione delle particelle, senza che questa comporti la perdita di dati e informazioni utili al processo di calcolo anche in condizioni ottimali, nonché lo sviluppo di infrastrutture hardware idonee, visto che il corretto funzionamento dei qubit è garantito solo a temperature bassissime e in ultimo, non per importanza, l’elaborazione di algoritmi opportunamente sviluppati per il quantum computing. Le ricerche e le sperimentazioni quindi, sono attualmente in corso e sembrano procedere progressivamente seguendo una nuovissima legge enunciata da Hartmut Neven, direttore del laboratorio Quantum Artificial Intelligence, che vede il progresso dei computer quantistici rispetto a quelli classici con un rapporto “doppiamente esponenziale” e che profetizza l’avvenuto raggiungimento della quantum supremacy, entro la fine dell’anno(2019).

«sarebbe molto più economico costruire sistemi su larga scala a partire da funzioni minori, interconnesse separatamente. La disponibilità di varie applicazioni, unita al design e alle modalità di realizzazione, consentirebbe alle società di gestire la produzione più rapidamente e a costi minori» - Gordon Moore,1965

*effetto fotoelettronico o effetto fotoelettrico: emissione di particelle elettricamente cariche da parte di un corpo esposto a onde luminose o a radiazioni elettromagnetiche di varia frequenza: gli elettroni vengono emessi dalla superficie di un conduttore metallico (o da un gas) in seguito all'assorbimento dell'energia trasportata dalla luce incidente sulla superficie stessa. L’effetto è studiato già da metà ‘800 quando si cominciò a tentare di spiegare la “conduzione” nei liquidi e nei gas.