Nel mondo delle telecomunicazioni la sicurezza non è un livello “aggiuntivo” ma è una per-condizione di funzionamento. Vale per le reti di trasporto, per le piattaforme di gestione e provisioning, per i canali cifrati che tengono in piedi servizi enterprise e pubblica amministrazione, e perfino per la catena di fiducia che abilita identità digitali e transazioni. Per questo, quando il dibattito sul calcolo quantistico smette di essere solo teorico e inizia a produrre sperimentazioni verificabili, l’attenzione del settore sale di colpo.
È il senso dell’annuncio di Namirial, provider europeo nel digital trust e nel digital transaction management, che presenta un pacchetto di attività legate alla crittografia post-quantum, cioè quell’insieme di algoritmi progettati per restare robusti anche in uno scenario in cui computer quantistici sufficientemente maturi rendano inefficaci alcune tecniche oggi comunissime. Il messaggio non è “panico”, ma pianificazione: capire in anticipo quali componenti vanno aggiornate, quali prestazioni aspettarsi, e come mantenere interoperabilità e compliance mentre cambiano i mattoni crittografici. CorCom ha visionato in anteprima i risultati della sperimentazione.
Indice degli argomenti
La dimostrazione: un esperimento piccolo, ma su hardware quantistico operativo
Il punto di partenza è una prova che Namirial definisce come prima dimostrazione pratica nel proprio settore della fattorizzazione di una chiave RSA (chiavi alla base dei sistemi che proteggono oggi le comunicazioni digitali) su un computer quantistico operativo. In concreto, l’esperimento fattorizza il numero 15 (3×5), equivalente a una chiave RSA da 4 bit: un caso “in scala ridotta” che nessuno confonderebbe con le chiavi reali utilizzate nei sistemi moderni. L’esecuzione è avvenuta via AWS Braket, servizio cloud per l’accesso a risorse di calcolo quantistico, con un tempo di calcolo nell’ordine di pochi secondi.
Detto così, potrebbe sembrare un esercizio da laboratorio. Ma, in realtà, ha un grande significato industriale sta altrove: non nella dimensione del numero, bensì nel fatto che la catena logica che rende vulnerabili certi schemi a chiave pubblica viene dimostrata su infrastruttura reale, non simulata. È un modo per “rendere visibile” il problema e, soprattutto, per spostare la conversazione dal “se succederà” al “come ci prepariamo”.
Che cosa c’entra l’algoritmo di Shor e perché la tempistica non va letta come una scadenza
Nel white paper che descrive i test, il riferimento è all’algoritmo di Shor, noto perché su un computer quantistico può fattorizzare numeri grandi molto più velocemente degli approcci tradizionali, mettendo in discussione la sicurezza di schemi come RSA che basano la loro robustezza sulla difficoltà della fattorizzazione per i computer classici.
Il documento, però, evidenzia anche l’ostacolo principale di oggi: i sistemi quantistici attuali rientrano nell’era dei dispositivi “rumorosi”, con errori e decoerenza che rendono complesso scalare verso dimensioni tali da impattare davvero sulle chiavi usate in produzione. Nel white paper viene citato un ordine di grandezza utile a orientarsi: per arrivare a violare RSA a livelli oggi diffusi servirebbero migliaia di qubit logici, e viene richiamata una finestra temporale che guarda al prossimo decennio.
Qui il punto, per chi lavora su infrastrutture e reti, è evitare due trappole: la prima è minimizzare (“è lontano, non ci riguarda”), la seconda è drammatizzare (“domani è finita”). La lettura utile è un’altra: la migrazione richiede tempo. E in ambito Tlc “tempo” significa cicli di procurement, apparati certificati, aggiornamenti coordinati, interdipendenze tra fornitori e clienti, gestione del rischio lungo filiere complesse.
Perché la criticità non è solo la cifratura “in transito”, ma anche la validità nel tempo
Quando si parla di rischio quantistico, spesso ci si concentra sulla riservatezza delle comunicazioni. Ma nel perimetro del digital trust c’è un’altra dimensione: la persistenza. Documenti firmati, log, audit trail, conservazione digitale e processi regolati devono poter restare verificabili e affidabili nel tempo. Non basta che oggi una transazione sia protetta: serve che tra anni sia ancora dimostrabile chi ha firmato cosa, quando e con quale integrità.
È uno dei motivi per cui Namirial affianca alla dimostrazione “quantistica” un lavoro più ampio sulla crittografia post-quantum e sui relativi standard: perché la transizione non è un cambio di chiave, ma un cambio di paradigma che tocca sia la sicurezza delle comunicazioni sia la tenuta giuridica e tecnica delle evidenze digitali.
Standard e migrazione: il ruolo del NIST e la nuova generazione di algoritmi
Nel percorso raccontato dall’azienda, un riferimento centrale è il NIST (National Institute of Standards and Technology), l’ente statunitense che ha guidato la selezione e la standardizzazione di algoritmi post-quantum considerati adatti a sostituire, nel tempo, le primitive più esposte. Il white paper richiama gli algoritmi indicati come standard per diverse funzioni: meccanismi di scambio/derivazione delle chiavi e schemi di firma digitale.
Per il mercato, il passaggio rilevante non è tanto l’elenco degli algoritmi, quanto la direzione: la sicurezza del futuro non sarà un’appendice, ma un aggiornamento strutturale delle primitive. Chi costruisce servizi, piattaforme e infrastrutture dovrà garantire interoperabilità con standard emergenti e al tempo stesso gestire le ricadute pratiche: dimensione delle chiavi, tempi di handshake, impatto su apparati e moduli dedicati.
Prestazioni e realtà industriale: i test su HSM
Una parte del white paper si concentra su test prestazionali condotti su HSM (Hardware Security Module), cioè moduli di sicurezza hardware pensati per custodire chiavi crittografiche ed eseguire operazioni sensibili in modo protetto, spesso con requisiti di audit e certificazione. Per operatori e grandi organizzazioni, gli HSM sono una componente concreta del “come si fa davvero” sicurezza, non un dettaglio accademico.
Il documento sottolinea un aspetto pragmatico: molti HSM oggi sono ottimizzati per algoritmi tradizionali come RSA, e questo può influenzare i benchmark a sfavore di schemi nuovi. Ma è proprio qui che si vede il punto industriale: la migrazione post-quantum implica anche un’evoluzione dell’hardware e della supply chain, con nuove generazioni di dispositivi, aggiornamenti firmware e percorsi di certificazione che andranno pianificati.
Per le Tlc, abituate a gestire apparati e moduli con cicli di vita lunghi, questo è un segnale chiaro: aspettare che “sia tutto pronto” rischia di comprimere tempi e aumentare costi. Preparare oggi competenze e roadmap può evitare domani migrazioni affrettate.
Dalla teoria alla pratica: firma digitale su PDF in chiave post-quantum
Accanto ai test e alla dimostrazione di fattorizzazione, Namirial descrive una demo applicativa che porta la crittografia post-quantum in un contesto comprensibile e “di processo”: la firma di documenti PDF. Nel white paper si parla di firma secondo lo standard PAdES (PDF Advanced Electronic Signatures), con generazione e verifica della sottoscrizione e integrazione di elementi tipici dei flussi reali, come marcature temporali e controlli di revoca.
Qui vale chiarire un punto che spesso genera confusione: la demo di firma non è “il passaggio” della prova quantistica, ma una delle applicazioni su cui l’azienda sta lavorando per rendere la transizione tangibile. È un modo per far vedere come un algoritmo resistente al quantistico possa essere integrato in un flusso documentale senza cambiare l’esperienza d’uso al punto da renderla impraticabile. E, nella logica industriale, questo è fondamentale: la sicurezza deve crescere senza “rompere” i processi.
Divulgazione tecnica come fattore di governance
Il percorso include anche un tassello di formazione: un portale educativo dedicato alla crittografia post-quantum e un test interattivo che simula la creazione di una chiave RSA, la cifratura di un messaggio e la successiva violazione tramite l’algoritmo quantistico, con decifratura finale.
Sembra un dettaglio, ma per la governance è un acceleratore. Nel momento in cui un rischio viene compreso — non solo “spiegato” — diventa più semplice tradurlo in decisioni: inventario degli algoritmi in uso, priorità di aggiornamento, requisiti per i fornitori, criteri di procurement, piani di migrazione graduale. La transizione post-quantum è anche un problema di coordinamento organizzativo, non solo di implementazione crittografica.
Reti ibride e distribuzione quantistica delle chiavi: un ponte verso il futuro
Per il settore delle comunicazioni, un capitolo interessante è quello che guarda alle architetture di rete. Nel comunicato, Namirial cita il contributo allo sviluppo di un’architettura ibrida che integra QKD (Quantum Key Distribution, distribuzione quantistica delle chiavi) e algoritmi post-quantum, in collaborazione con l’Università Federico II di Napoli e il Centro di Competenza MedITech.
La QKD è un approccio che sfrutta principi fisici per distribuire chiavi con proprietà peculiari, tra cui la possibilità di rilevare tentativi di intercettazione. È un percorso diverso rispetto alla sola crittografia “matematica” e, per certi scenari, può rappresentare un livello ulteriore di protezione. Tuttavia, la lettura più utile è quella dell’ibrido: combinare strategie, in modo da poter adottare algoritmi post-quantum in modo capillare e affiancare, dove sensato e sostenibile, canali di distribuzione delle chiavi basati su tecnologie quantistiche.
In un ecosistema dove le reti in fibra sono la spina dorsale e dove la sicurezza si gioca anche sulla protezione dei canali di controllo, l’idea di architetture stratificate — e non “una tecnologia unica che risolve tutto” — appare coerente con la realtà operativa.
L’appuntamento a ITASEC e la visione di lungo periodo
Namirial collega il proprio lavoro all’allineamento con gli standard e con le strategie europee di resilienza. Il messaggio di fondo è riassunto in una dichiarazione di Davide Coletto, CIO & CAIO di Namirial. “La transizione al post-quantum non è una prospettiva lontana, ma una responsabilità concreta per chi opera nella sicurezza digitale – spiega – Questa dimostrazione conferma la capacità di Namirial di lavorare su tecnologie quantistiche reali e di allineare l’innovazione agli standard NIST e alle strategie europee di cyber-resilienza. Il nostro obiettivo è garantire che le identità digitali, i documenti e i processi critici restino sicuri anche in un orizzonte tecnologico di lungo periodo.”
Dentro queste righe c’è l’angolo più utile per chi opera sulle infrastrutture: è una chiamata a costruire un percorso. Perché la transizione post-quantum non si farà con un interruttore on/off. Si farà con coesistenza, migrazione progressiva, inventario accurato di dove vivono oggi RSA e gli altri algoritmi tradizionali, e con l’attenzione a ciò che nelle Tlc conta più di tutto: continuità di servizio.
Che cosa cambia davvero per il mercato
A valle, l’annuncio lascia una traccia concreta: una dimostrazione su hardware quantistico accessibile via cloud, benchmark su moduli di sicurezza hardware, una demo di firma su PDF che rende tangibile l’adozione, e un filone di collaborazione su reti ibride con distribuzione quantistica delle chiavi. Non significa che domani le chiavi attuali “cadono”, né che la crittografia post-quantum sia un pacchetto pronto da installare ovunque senza conseguenze.
Significa, però, che l’agenda è già scritta: standard in consolidamento, filiere hardware in evoluzione, e una crescente pressione a definire road map di migrazione credibili. Per il mondo delle comunicazioni, dove la fibra abilita servizi sempre più critici e dove la sicurezza è un requisito di sistema, la domanda non è se occuparsi di post-quantum. È quando e con quale metodo. E la risposta più solida, oggi, è iniziare a misurare, sperimentare e pianificare.














