Ormai da qualche anno si parla di computer quantistici. Ci troviamo, però, in una fase primordiale e transitoria dove il passaggio dal bit al qbit è così sottile da non farci accorgere di alcuni eventi fondamentali che cambieranno (e in parte lo stanno già facendo) radicalmente il mind-set con cui abbiamo guardato i computer fino ad ora.
Prima di andare avanti è giusto porsi una semplice nonché fondamentale domanda. Perché abbiamo bisogno del quantum computing? La risposta a questa domanda è insita in una limitazione architetturale posta dai computer classici.
I computer odierni, per quanto possano essere migliorabili e potenziabili, saranno sempre limitati al bit. Questi impongono un limite alla potenza e alla complessità di calcolo poiché non riusciamo ad andare oltre a causa dei suoi stati, che per conformazione matematica, può essere 0 o 1, acceso o spento.
Il qbit a differenza del bit, ha una doppia logica che basandosi sulle leggi della meccanica quantistica, gli permette di elaborare una mole di dati notevolmente più grande e complessa e di elaborare i dati con una velocità sorprendente.
Per dare subito un’idea di quanto questo divario sia ampio, Sycamore, il computer quantistico di Google, è riuscito a dimostrare (quindi elaborando i dati) che una sequenza di numeri casuali è realmente casuale in circa 200 secondi. Summit, il supercomputer più potente al mondo, ci avrebbe impiegato invece circa 10.000 anni.
I computer odierni sono bravissimi ad effettuare calcoli, ma ahimè ci sono delle cose che i computer odierni non sanno fare, un banale esempio:
A proposito di questi esempi, nel seguente video è possibile seguire l’intervento di Federico Mattei, responsabile del reparto Quantum Computing di IBM, al TEDx, che spiega quello che lui chiama “nuova era dell’informatica:
Passo fondamentale, i qbit possono immagazzinare una quantità enorme di informazioni che non è quantitativamente paragonabile ai bit classici. Questa capacità ha luogo grazie ad uno stato di “sovrapposizione” conosciuto meglio come stato di “Entangelment” che permetter ai qbit di restare stabili.
Questo stato di stabilità è possibile averlo attraverso l’uso di grossi “frigoriferi quantistici” che fanno da involucro ai processori dove sono racchiusi i qbit e che riescono a mantenere una temperatura operativa ideale per permettere al qbit di rimanere stabile pari a 15 millikelvin o -258,15 celsius, nonché la temperatura che abbiamo attualmente nello spazio interstellare.
Questa temperatura deve rimanere tale poiché i qbit, essendo molto delicati, sono estremamente instabili a contatto con il minino calore, in quanto fa agitare le molecole portando ad gli stessi ad una instabilità che causerebbe la perdita di dati e di elaborazione.
Diverse società di informatica sono già a lavoro su macchine del genere, in particolare la Origin Quantum Computing, azienda cinese impegnata anch’essa nella computazione quantica, ha sviluppato e consegnato quello che si crede sia il primo computer quantistico commerciale ad un cliente che per il momento ha preferito restare anonimo. Dotato di 24 qbit, Wuyuan è il primo “personal quantum computer” ad essere progettato per uso privato.
Non è noto quale sia il meccanismo fisico che la macchina usa per generare qbit, ma è chiaro che è il primo passo verso delle prime applicazioni quantistiche, seppur a livello molto basico, che permetteranno di accedere a strade dell’informatica che fino ad ora non erano neanche ipotizzabili.
L’azienda per il momento ha reso noto solo di aver prodotto un dispositivo a ricottura quantistica (in grado di risolvere problemi di ottimizzazione, ma non di effettuare qualunque calcolo) usando dei laser.
In realtà, nel 2011, la D-Wave Systems ha annunciato il primo computer quantistico commerciale che sfrutta la ricottura quantistica: il D-Wave One. La società dichiara che il sistema usa un chipset quantistico da 128 qubit per poi consegnarne 2 da 512 qbit corrispettivamente a Google e alla NASA.
A cura di Giulio Montanaro