Il cambio di paradigma legato al calcolo quantistico è tanto complesso quanto affascinante. Si devono alla collaborazione di Albert Einstein con Boris Podolsky e Nathan Rosen, già nel 1935, i primi passi compiuti nello studio della meccanica quantistica, ma è a Paul Benioff che si lega la prima applicazione delle teorie quantistiche ai computer, nel 1981.
Rispetto all’informatica classica, basata sulla codifica delle informazioni in bit – e quindi sull’utilizzo dei valori 1 e 0 che operano proprio come interruttori on/off, per guidare le funzioni dei computer – il calcolo quantistico si lega alle leggi della meccanica quantistica e si basa sui qubit.
“Quantum bit” è proprio il termine coniato da Benjamin Schumacher per indicare l’unità di informazione che, a differenza dei bit, è in grado di assumere più di uno stato nello stesso momento. 

I qubit operano quindi in modo diverso rispetto ai bit e possono rappresentare contemporaneamente lo stato on/off, con una sovrapposizione che consente di elaborare le informazioni in modo più veloce, ma anche con un notevole incremento di complessità nel funzionamento rispetto a un computer tradizionale. A tutti gli effetti il quantum computing rappresenta quindi un approccio nuovo all’elaborazione delle informazioni, con importanti riflessi anche dal punto di vista del risparmio di risorse.

Di fatto nel mondo quantistico, si utilizza il linguaggio della probabilità, piuttosto che quello della certezza. Infatti, se nel contesto del calcolo basato su cifre binarie (bit) di 0 e 1, un bit può avere uno solo dei due valori; i bit quantistici (qubit) hanno una certa probabilità di essere 1 e una certa probabilità di essere 0 allo stesso tempo. E quando più qubit agiscono in modo coerente si trovano a poter elaborare più opzioni contemporaneamente. Ciò consente di lavorare le informazioni in una frazione minima del tempo necessario ad un sistema di calcolo “tradizionale”.

Bit vs Qubit
Bit vs Qubit (Fonte:Wikipedia.org)

Quantum computing, ambiti di utilizzo

Gli ambiti destinati a ricevere un’accelerazione marcata grazie al quantum computing sono, tra gli altri, la crittografia e la ricerca scientifica (in primis la chimica). I computer classici, cui dobbiamo comunque l’accelerazione degli studi sui tentativi di simulazione molecolare, non riescono a simulare molecole complesse con sufficiente precisione, ed è questo invece un ambito in cui il calcolo quantistico marca la differenza e di particolare interesse anche in contesto come quello attuale.

Se si pensa invece alle possibilità offerte nell’ambito della crittografia per la sicurezza delle informazioni, basta dire che gli hacker che tentano di copiare le chiavi utilizzate per crittografare e trasmettere messaggi, con il quantum computing non potrebbero avere alcuna possibilità di successo perché per “decifrare” la crittografia quantistica sarebbe necessario violare le leggi della fisica.

Tra gli ambiti di utilizzo interessante anche quello relativo alla possibilità di generare sequenze di numeri casuali. La proprietà posseduta da una sequenza di numeri che renda impossibile prevedere il numero successivo nella sequenza è una caratteristica ricercata per la quale i computer classici, che comunque utilizzano “semplici” algoritmi, non sono la soluzione migliore. Tante quindi le promesse legate al quantum computing, ma anche le problematiche da risolvere.

A che punto siamo

Prima di riuscire ad utilizzare i sistemi di calcolo quantistici servirà ancora tempo perché non mancano le difficoltà legate proprio alla particolare natura dei qubit. Il quantum computing sfrutta le stesse regole della fisica atomica, i fenomeni di sovrapposizione, entanglement e interferenza ma i qubit – sensibili a calore, luce e vibrazioni – mantengono il proprio stato “quantistico” solo in particolari condizioni e questo complica la realizzazione di sistemi efficienti.

Google Sycamore Quantum Computing
Google Sycamore – Il progetto di Quantum Computing da 53 qubit

Tanto più che i computer quantistici sono progettati per creare e funzionare a temperature vicine allo zero assoluto, con le difficoltà connesse del caso. Per collegare i processori quantistici, come si collegano i chip dei computer odierni all’interno dei data center, servirebbero poi interconnessioni quantistiche che trasferiscono le “fragili” informazioni quantistiche memorizzate nei qubit sul processore in un formato quantistico diverso (ad esempio fotoni).

E’ un dato di fatto però che i più importanti attori nel mercato IT stanno investendo il meglio delle risorse disponibili in questo ambito e che tra il 2013 ed il 2030 si attendono importanti evoluzioni. Basta citare IntelIbm, Microsoft, Google, ma anche Amazon per i servizi in cloud relativi – proposti da agosto attraverso Aws Braket – e  Hpe con un approccio decisamente originale, basato sulla partnership con l’azienda IonQ, la cui tecnologia è alla base anche della proposta dei servizi Aws

I qubit, nel paradigma IonQ sono realizzati utilizzando ioni intrappolati; singoli atomi, levitati nello spazio con elettrodi, controllati da raggi laser. Ecco che in questa architettura, ogni qubit ha la precisione di un orologio atomico, con sovrapposizioni “entangled” quantistiche che possono, teoricamente, persistere per un tempo indefinito mentre, a differenza dei sistemi basati sul metodo a “superconduttore”, i qubit non sono collegati tra loro con cavi fisici.

Tra le applicazioni più interessanti, basate sull'”architettura” IonQ, anche Microsoft ha annunciato per la prima volta a Microsoft Ignite 2019, la proposta Azure Quantum che riunisce le soluzioni di IonQ, Honeywell, Qci e Microsoft a servizi come 1QBit e alle capacità di elaborazione classiche del cloud Azure.

Jay Gambetta, Ibm Fellow e VP, Ibm Quantum
Jay Gambetta, Ibm Fellow e VP, Ibm Quantum

Per dare un’idea delle difficoltà legate ai diversi progetti basterebbe segnalare come oggi i più grandi processori quantistici di Ibm sfruttano 64 qubit; Google ha dichiarato di disporre di un prototipo a 72 qubit, mentre servirebbero comunque milioni di qubit per eseguire calcoli pratici.

In un recente post sul blog ufficiale di Ibm, Jay Gambetta segnala l’arrivo di un processore da 127 qubit il prossimo anno (Eagle), cui dovrebbe seguire un sistema da 433 qubit nel 2022 (Osprey). E già nel 2023 Ibm prevederebbe di raggiungere 1.121 qubit con un processore denominato Condor, che segnerà il primo passo verso una possibile “commercializzazione” del quantum computing. La competizione tra Google e Ibm in questo ambito è decisamente accesa.  Google negli ultimi mesi dello scorso anno ha condotto un esperimento nell’ambito dell’analisi chimica quantistica sfruttando il chip Sycamore e, utilizzando 12 dei 53 qubit disponibili di quel chip, è riuscita a simulare una semplice reazione chimica.

Di fatto ad oggi nessun prototipo si è spinto oltre quello che sarebbe stato possibile fare anche con un normale computer. E’ fissato al 2023 l’appuntamento per il Quantum Advantage, ovvero il momento in cui il calcolo quantistico riuscirà a dimostrare un vantaggio significativo in termini di prestazioni rispetto a quello classico. E nelle roadmap sia di Ibm sia di Google la possibilità di realizzare dispositivi da un milione di qubit sarà immaginabile già entro il 2030. 

© RIPRODUZIONE RISERVATA