Articoli

La tecnologie quantistiche sfidano la sicurezza informatica: tra minacce concrete e opportunità future

Nel panorama contemporaneo della sicurezza informatica, la progressiva evoluzione delle tecnologie quantistiche rappresenta una sfida dirompente ai paradigmi tradizionali della crittografia e della difesa cibernetica. 

L’intervento al Forum ICT Security 2024 “Quando i computer quantistici romperanno la nostra crittografia?” di Alessandro Luongo, consulente e fondatore di Inveriant e ricercatore in quantum algorithms al CQT di Singapore (Centre for Quantum Technologies) – ha analizzato l’impatto delle tecnologie quantistiche sulla sicurezza informatica, approfondendo temi come la crittografia post-quantum e la valutazione del rischio quantistico. 

Con un dottorato in algoritmi quantistici conseguito a Parigi, Alessandro è fondatore di Inveriant, una società research-driven di consulenza e R&D,  con “26 anni di esperienza cumulativa nelle tecnologie quantistiche e 8 anni di ricerca e applicazione nella crittografia”. Inveriant si specializza nello sviluppo di software quantistico, algoritmi avanzati, e accompagna le aziende nell’adozione e valorizzazione delle nuove tecnologie. Per esempio, Inveriant ha collaborato con enti di ricerca governativi per offrire formazione e consulenza su temi legati alla sicurezza, con un’attenzione specifica alle minacce emergenti e agli attacchi quantistici.

Luongo ha evidenziato il crescente disorientamento riguardo alla sicurezza quantistica. Ci racconta di svariate conversazioni con profili di rilievo nell’ambito della cybersecurity e della difesa: “Continuo a leggere articoli sui computer quantistici che romperanno la crittografia che usiamo oggi… e non so cosa fare.” Secondo Alessandro questa preoccupazione riflette una più ampia confusione che permea il settore, dove, nonostante il clamore mediatico, “nessuno parla di concetti chiave come situational awareness e quantum risk assessment. 

Il relatore ha quindi richiamato l’attenzione sulla necessità di una valutazione più sistematica del rischio quantistico e di una preparazione strategica per affrontare questa nuova e crescente minaccia.

L’architettura quantistica: dai laboratori al cloud

I computer quantistici rappresentano un cambiamento paradigmatico nell’elaborazione delle informazioni: sfruttando le proprietà della meccanica quantistica, quali la sovrapposizione (superposition) e l’entanglement, questi dispositivi hanno il potenziale per risolvere problemi in maniera più efficiente rispetto ai computer classici, ad un costo computazionale ridotto.

Alessandro ha spiegato come la pratica dell’elaborazione quantistica sia già una realtà nei laboratori, portando ad esempio la ricerca in qubit (l’unità di calcolo fondamentale dei computer quantistici) di tipo “superconducting” svolta presso il Center for Quantum Technologies. I computer quantistici verranno utilizzati come “acceleratori esterni”: i computer classici delegheranno i calcoli più complessi ai dispositivi quantistici, che li eseguiranno rapidamente, restituendo i risultati all’elaboratore classico. Alcuni computer quantistici sono disponibili già oggi nel cloud:

  • Microsoft Azure Quantum
  • Google Quantum AI
  • IBM Quantum
  • Amazon Braket (parte della suite AWS).

Questi provider offrono una varietà di tecnologie differenti per la realizzazione dei qubit, adottando architetture e approcci differenti per massimizzare le capacità computazionali quantistiche. Tali soluzioni faciliteranno non solo la ricerca scientifica avanzata ma anche la diffusione di applicazioni commerciali che richiedono ad oggi una capacità di calcolo estremamente elevata, aprendo nuove prospettive per l’innovazione.

L’algoritmo di Shor: la minaccia concreta

Una delle svolte più significative nella sicurezza crittografica è rappresentata dall’algoritmo sviluppato da Peter W. Shor nel 1994. Questo algoritmo utilizza i computer quantistici per fattorizzare numeri interi di grandi dimensioni, compromettendo direttamente i sistemi crittografici basati su RSA e curve ellittiche (ECC). 

“Voi mi dite 15 e io vi dico 3×5, voi mi dite 21 e io vi dico 7×3”, ha esemplificato Luongo, per poi sottolineare come questo “gioco” matematico diventi di fatto impraticabile per i computer classici quando i numeri in questione raggiungono centinaia di cifre. L’algoritmo di Shor rende possibile questa fattorizzazione in maniera efficiente, mettendo così a rischio la sicurezza delle comunicazioni digitali attuali. Infatti, per decifrare una chiave RSA a 2048 bit, le specifiche tecniche richiedono un circuito di “circa 8 miliardi di gate e circa 6.000 qubit logici”. Inveriant, in una sua collaborazione, è riuscita a ridurre il numero di gate necessari del 3.4%. 

Tuttavia i qubit che costruiamo il laboratorio presentano delle imperfezioni, soffrendo di errori e “rumori” (noti come noisy qubits, o qubit fisici). I qubit sono infatti estremamente vulnerabili a interferenze esterne, che possono alterare o distruggere le informazioni quantistiche. Per affrontare queste problematiche, si rende necessaria la correzione degli errori: un layer intermedio che protegge le informazioni quantistiche da fenomeni come la decoerenza e il rumore quantistico, permettendo di passare da qubit fisici a qubit logici. 

Questo porta a un incremento considerevole nel numero di qubit richiesti per garantire la corretta esecuzione dell’algoritmo; alcune stime indicano che potrebbero essere necessari fino a “20 milioni di qubit” per portare a termine un attacco. Tuttavia, la comunità scientifica — Inveriant compresa — e’ alla ricerca di idee e metodi per diminuire il numero di qubit e risorse necessari.

Di conseguenza, sebbene l’algoritmo di Shor sia teoricamente in grado di compromettere i sistemi crittografici attuali, Alessandro ha chiarito che i limiti tecnologici dei computer quantisti contemporanei ne impediscono ancora l’applicazione su larga scala.

Tuttavia è plausibile che, con l’avanzare delle tecnologie, questi attacchi possano diventare praticabili prima del previsto, configurando una minaccia concreta per la sicurezza globale. E’ quindi di vitale importanza per le organizzazioni tenere traccia dello sviluppo delle tecnologie quantistiche, in modo da poter monitorare la minaccia costantemente.

Il fattore tempo e la correzione degli errori

La correzione degli errori è un aspetto cruciale per garantire la precisione e la robustezza dei calcoli nei computer quantistici. L’implementazione della correzione degli errori richiede però l’utilizzo di numerosi qubit fisici per rappresentare un singolo qubit logico, aumentando di vari ordini di grandezza le risorse computazionali necessarie. La sfida non consiste, quindi, solo nel costruire qubit stabili ma anche nel saper gestire la loro interazione, nonché correggere gli errori che inevitabilmente si verificano durante i calcoli. 

Le tecnologie per l’implementazione dei qubit variano e ciascuna presenta requisiti diversi per la correzione degli errori. Alessandro ha sottolineato come il miglioramento delle tecniche di correzione degli errori e l’aumento del numero di qubit disponibili rappresentino aspetti fondamentali per il progresso della computazione quantistica, potendo ridurre significativamente le difficoltà operative attuali.

La minaccia “Store Now, Decrypt Later”

Una preoccupazione immediata è rappresentata dagli attacchi “store now, decrypt later”. Questa strategia implica l’archiviazione del traffico crittografato attuale, in attesa che i computer quantistici futuri possano decriptarlo.

Il relatore ha sottolineato che, sebbene oggi i dati siano protetti da crittografia robusta, potrebbero essere vulnerabili nel momento in cui la potenza computazionale quantistica sarà sufficientemente avanzata: “Dovete capire se i dati che state proteggendo avranno bisogno di confidenzialità e/o autenticità del dato nell’anno in cui i computer quantistici saranno disponibili”.

Un’ulteriore considerazione riguarda la discrezione con cui gli attori malevoli potrebbero adottare tecnologie avanzate; è improbabile che un threat actor riveli pubblicamente la sua capacità di utilizzare computer quantistici per attaccare la crittografia, il che implica che la valutazione del rischio debba includere la possibilità di minacce non rilevate e la conseguente necessità di adottare soluzioni crittografiche post-quantum.

Tecnologie quantistiche: applicazioni positive e casi studio

Nonostante le minacce evidenziate nell’intervento, le tecnologie quantistiche offrono anche notevoli opportunità in una vasta gamma di settori. 

Un significativo caso riportato nella presentazione ha riguardato un modello di quantum network intrusion detection sviluppato in una collaborazione tra Inveriant, Centre for Quantum Technologies, e studenti e ricercatori del Politecnico di Milano: i risultati hanno mostrato le condizioni per cui i computer quantistici hanno la capacità di eseguire il training di modelli di machine learning per la rilevazione di intrusioni di rete in tempi significativamente più brevi rispetto ai metodi classici.

Alessandro ha poi citato la sua esperienza di collaborazione con un’agenzia governativa per migliorare le capacità degli attacchi quantistici rivolti alla crittografia RSA-2048 e alla crittografia a curve ellittiche, che ha portato a sviluppare Krest: una soluzione per la quantum situational awareness. Questo strumento consente alle organizzazioni di valutare il loro rischio quantistico e di pianificare adeguatamente la transizione verso soluzioni più sicure, preparandosi alle future sfide in ambito crittografico.

Prospettive future e collaborazioni

Condividendo alcuni dati – secondo le previsioni di Gartner la crittografia RSA diventerà “insicura entro il 2029” e “completamente compromessa entro il prossimo decennio”, mentre il NIST stima che sarà considerata insicura entro il 2030. Tuttavia questi modelli sono opachi, non tengono in considerazione le necessità dell’utente e sono raramente aggiornati man mano che le tecnologie quantistiche evolvono e migliorano nel tempo. Per questo soluzioni di quantum situational awareness sono necessarie per minimizare i rischi ed i costi di transizione a soluzioni post-quantum.

Il relatore ha sottolineato l’importanza di preparare la transizione verso le tecnologie post-quantum e di essere affiancati da team di esperti aggiornati sul tema, evidenziando come non si tratti solo una questione tecnologica bensì di un vero cambiamento culturale nel modo in cui si percepiscono i rischi e si affronta la sicurezza informatica. 

Le organizzazioni devono sviluppare una roadmap per implementare soluzioni crittografiche post-quantum e investire nella formazione del personale, coinvolgendo gli esperti del settore nello sviluppo di soluzioni innovative; in merito Alessandro ha invitato alla collaborazione su una vasta gamma di progetti, come per esempio la ricerca di quantum algorithms applicata al machine learning e all’artificial intelligence.

In conclusione dell’intervento, è stata quindi ribadita la necessità di una cooperazione globale per affrontare le sfide emergenti del quantum computing: la ricerca e lo sviluppo devono essere sostenuti da una comunità internazionale di esperti, stakeholder e organizzazioni capaci di lavorare insieme per garantire che la sicurezza informatica sia adeguatamente preparata all’avvento dell’era quantistica.

Una costante collaborazione tra industria, governo ed entità accademiche sarà cruciale per costruire soluzioni resilienti e sfruttare al meglio le opportunità offerte dalle tecnologie quantistiche.

Condividi sui Social Network:
Alessandro Luongo

I am a quantum algorithms researcher at the Centre for Quantum Technologies (CQT) in the National University of Singapore (NUS). I received a PhD in quantum machine learning from the Institut de Recherche en Informatique Fondamentale (IRIF) in Paris. I am dedicated to developing state-of-the-art quantum algorithms. My work focuses on applying these algorithms to real-world challenges in machine learning, finance, and cybersecurity, with the goal of surpassing the performances of classical computers. Beyond my passion for theory, I actively collaborate with the industry. I believe that this collaboration not only enriches my work, highlighting the importance of the theoretical aspects, but also advances practical application and the expectations of quantum computing in meaningful ways.

Recent Posts

La Nuova Era della Cybersecurity: Resilienza, Intelligenza Artificiale e Protezione dei Dati

La sicurezza informatica rappresenta un asse portante per la sostenibilità e l'innovazione delle imprese nell'economia…

1 giorno ago

Cyber Resilience Act: Un Nuovo Strumento per la Sicurezza Digitale nell’UE

Cos'è il Cyber Resilience Act (EU CRA)? E perché me ne dovrei occupare? Il Cyber…

2 giorni ago

Living-off-the-Land Binaries (LOLBins) negli attacchi fileless: Analisi Tecnica e Implicazioni per la Sicurezza

L'utilizzo dei Living-off-the-Land Binaries (LOLBins) emerge come una metodologia particolarmente insidiosa, che sfrutta binari legittimi…

4 giorni ago

Perché le aziende dovrebbero prepararsi agli attacchi informatici durante le festività

Gli attacchi informatici non si fermano mai, colpendo con precisione chirurgica nei momenti di maggiore…

5 giorni ago

La Remediation nella Sicurezza Informatica: sfide e prospettive

Veronica Leonardi (Chief Marketing Officer e Investor Relator di Cyberoo) ha preso parte al 22°…

5 giorni ago

Come Implementare una Efficiente Gestione di Identità e Accessi nel Cloud

L'adozione di una moderna gestione di identità e accessi (IAM) nel Cloud è un elemento…

6 giorni ago