
Si dice che oggi i dati siano il nuovo oro nero, il nuovo petrolio. Chi controlla e gestisce grandi sorgenti di dati detiene un potere quasi assoluto. I dati grezzi però, perché abbiano un valore, devono essere elaborati ed ecco nascere immense cattedrali nel deserto, e non solo in senso figurato.
Enormi “farms” strapiene di server sono sorte in mezzo a deserti in varie parti del mondo. Immensi Data Center (o CED, in italiano, che sta per Centro Elaborazione Dati) che forniscono ai colossi mondiali dell'informatica come Google, Apple, Microsoft, Amazon, ecc, tutto lo spazio e la potenza di calcolo necessaria alle loro elaborazioni.
Tutto questo però ha un limite. Non è possibile continuare ad ampliare queste immense strutture all'infinito per soddisfare la sempre maggiore sete di potenza di elaborazione. Machine Learning, Intelligenza Artificiale, Industry 4.0, IoT, e tutta una serie di nuove tecnologie nascenti richiedono potenze sempre maggiori che non possono continuare ad essere soddisfatte ancora per molto. Facciamo un esempio: Google. I suoi Data Center consumano 260 MW (260 milioni di Watt) con una relativa emissione in atmosfera di 1.5 milioni di tonnellate di CO2 all'anno, come una piccola città di 300.000 abitanti.
Stiamo andando nella direzione sbagliata! Questa affermazione non è solo di carattere politico-ambientale, ma è un qualcosa di più profondo e sistemico. Mi spiego. Noi oggi celebriamo la grandissima creatività dell'essere umano nell'aver concepito i calcolatori digitali. Questi ormai sono ovunque, permeano qualsiasi aspetto della nostra vita. E ognuno di questi calcolatori, grandi o piccoli che siano, dal supercalcolatore al piccolo dispositivo che regola la temperatura del forno, sono basati su un'architettura (hardware e software) identica. Tutta l'elaborazione digitale oggi si basa sulla logica binaria booleana. Una logica fondata sul principio del “tertium non datur”, cioè, quelli che si chiamano “circuiti logici” o logic gates (porte logiche) possono assumere solo due valori di verità: Vero o Falso, 0 o 1, Acceso o Spento, non ci sono altre possibilità. L'impianto matematico su cui si basa questa logica, è l'Algebra di George Boole, un framework concettuale del 1854 in cui le variabili possono assumere solo i valori binari di Vero o Falso. Ebbene, la notizia è che questo impianto logico concettuale sta iniziando a mostrare i suoi limiti.
Dal 1940 ad oggi l'evoluzione digitale ha fatto passi immensi, ma si sta fermando. Perché? Perché tutta questa grande opera è una artificiosità del pensiero umano. Non è il modo in cui la natura opera e “fa le sue elaborazioni”. Questa è un'affermazione forte e un po' provocatoria, ma serve a portare l'attenzione sul fatto che esiste un limite paradigmatico al modo in cui oggi noi elaboriamo i dati e la crescente mole di questi dati sta iniziando a mettere in luce i punti deboli.
Tutto quello che ci circonda è informazione. La realtà, la natura, noi stessi. Nel suo libro “Il programma dell'Universo” (Feltrinelli) Seth Lloyd calcola che ad esempio la Natura per descrivere una mela ha bisogno di 1024 bit, cioè un 1 seguito da 24 zeri: un milione di miliardi di miliardi di bit. E questo solo per codificare una mela eppure lo fa in maniera estremamente efficiente. Tutto quello che ci circonda, noi compresi siamo elaborazioni in tempo reale fatte dalla Natura. E come fa l'Universo a calcolare sé stesso? Attraverso la sua struttura fondamentale che noi modellizziamo attraverso la Meccanica Quantistica. Questa teoria concettuale e sperimentale è nata per spiegare i fenomeni che avvengono a scale subatomiche. Fenomeni che non sono per niente intuitivi e che, se rapportati alla nostra scala macroscopica, innescherebbero paradossi come persone che passano attraverso i muri, felini che sono contemporaneamente vivi e morti, e tutta una serie di non sensi.
Il modello della Meccanica Quantistica, però, a livello subatomico funziona benissimo e spiega il perché noi esistiamo ed il perché l'universo esiste e non collassa immediatamente in un bel lampo di luce. Oggi stiamo iniziando ad intuire come possa l'universo calcolare sé stesso utilizzando i principi della Meccanica Quantistica. Ed ecco l'idea: “e se usassimo anche noi la Meccanica Quantistica per immagazzinare ed elaborare l'informazione?”. Sì, si può fare! Invece di Bit, allora parliamo di QuBit (Quantistic Bit). Prima di proseguire dobbiamo fare una premessa. Non tratterò qui l'argomento della Quantistica Computazionale da un punto di vista rigoroso. Questo implicherebbe una dose di matematica avanzata e complicatissima la cui esposizione esula dagli scopi discorsivi di questo articolo. Dovremmo parlare e definire oggetti come Spazi di Hilbert, Numeri Complessi, Decostruzione Spettrale di Operatori Hermitiani, di Calcolo Matriciale e regole di Algebra Lineare che regolano questo calcolo.
Pensiamo a questo: un bit ordinario può contenere solo l'informazione necessaria a identificare un valore di verità: Vero o Falso. Da parte sua, un QuBit, invece codifica un'informazione infinitamente maggiore che numericamente si estende in maniera continua tra lo 0 (Falso) all'1 (Vero). Questo avviene grazie al fenomeno che si chiama Sovrapposizione degli Stati. Mi spiego semplificando molto. Un QuBit vale contemporaneamente 0 e 1, è contemporaneamente Vero e Falso, con diversi livelli di probabilità associata ai valori 0 e 1. Per fare un esempio un QuBit può essere Falso al 30% e Vero al 70%, l'importante è che la somma delle due probabilità sia sempre uguale a 100%. Solo quando il QuBit è “osservato”, cioè quando viene misurato, esce dallo stato di sovrapposizione ed assume un valore ben definito. È chiaro quindi che un QuBit è uno strumento potentissimo per immagazzinare quantità di informazione praticamente infinita. La realizzazione pratica di un “processore quantistico” ad oggi è un processo ancora in via di definizione tecnologica. Si possono utilizzare fasci laser polarizzati o “punti quantici” di cui si utilizza lo Spin Up o Down in sovrapposizione quantistica. Per mantenere stabili il più a lungo possibile questi stati quantici, un processore quantistico deve essere raffreddato a temperature vicine allo zero assoluto (0° Kelvin = -273,15° C) per evitare il fenomeno detto di Decoerenza.
Recentemente Google ha annunciato di aver raggiunto la cosiddetta “supremazia quantistica”. Cosa vuol dire? Significa che un computer quantistico è riuscito ad eseguire un algoritmo completo battendo in velocità tutti i più veloci supercomputer tradizionali ora a disposizione.
Si è misurato che un computer quantistico potrebbe eseguire in tre minuti ciò che un supercomputer tradizionale impiegherebbe diecimila anni a calcolare. Questo risultato ha delle ricadute importantissime soprattutto per quanto riguarda la Cybersecurity (criptatura decrittatura di chiavi di accesso) e per quanto concerne la trasmissione quantistica di dati basata sul fenomeno quantistico dell'Entanglement grazie al quale è possibile “teletrasportare” istantaneamente un dato tra due punti anche distantissimi tra di loro ed in maniera inattaccabile da parte di cybercriminali.
Detto questo siamo ancora agli inizi di questa grande avventura tutta da vivere. La meccanica quantistica stravolge la nostra concezione intuitiva del mondo ed è per questo che è così complicato padroneggiarne i suoi concetti se non grazie all'eleganza matematica della sua formulazione.
La Quantistica Computazionale ci dà uno strumento potentissimo sia per capire un po' di più come funzione il nostro universo, sia per raggiungere un più armonico concetto di elaborazione, un concetto che la natura conosce ed utilizza da circa 13,7 miliardi di anni.
Luca Ciciriello
-----------------------------
-----------------------------
Se sei giunto fin qui vuol dire che l'articolo potrebbe esserti piaciuto.
Usiamo i social in maniera costruttiva.
Condividi l'articolo.
Condividi la cultura.
Grazie