Il settore delle telecomunicazioni si trova oggi al centro di una trasformazione epocale: la diffusione dell’intelligenza artificiale non solo ridefinisce i modelli di business, ma apre questioni decisive legate alla gestione dei rischi. La Hiroshima AI Process International Code of Conduct, lanciata sotto la presidenza giapponese del G7 nel 2023 e sviluppata con il supporto dell’OCSE, ha dato vita nel 2025 al primo framework internazionale di reporting volontario sulle pratiche di governance dell’AI.
Tra febbraio e giugno di quest’anno, 20 organizzazioni di diversi Paesi — in prevalenza grandi aziende tecnologiche e telco — hanno pubblicato i loro report, offrendo una panoramica concreta su come vengono affrontati rischi, sicurezza e trasparenza nell’adozione dell’AI. I risultati nel paper “How are AI developers managing risks?“.
Indice degli argomenti
Identificazione e valutazione dei rischi
Uno degli elementi centrali del framework riguarda la capacità delle aziende di mappare i rischi lungo tutto il ciclo di vita dei sistemi di AI. Le telco, insieme ai big della tecnologia, utilizzano approcci multilivello che combinano indicatori quantitativi e giudizi qualitativi di esperti.
Pratiche come il red teaming — simulazioni di attacco che mettono alla prova la robustezza dei sistemi — sono ormai diffuse tra operatori come NTT, SoftBank e TELUS. L’obiettivo non è solo prevenire errori tecnici, ma valutare anche rischi etici, reputazionali e sociali. Alcune imprese hanno adottato soglie di capacità (“capability thresholds”) oltre le quali scattano ulteriori salvaguardie, rallentando o ritardando il rilascio di modelli ad alto rischio.
Strategie di mitigazione e sicurezza delle informazioni
Gestire i rischi significa anche tradurre l’analisi in misure concrete. Le telco si distinguono per l’adozione di architetture di sicurezza a fiducia zero (zero-trust), test di penetrazione e monitoraggio in tempo reale. SoftBank, ad esempio, ha istituito un Red Team interno di hacker etici per testare la resistenza delle proprie soluzioni.
Un altro aspetto cruciale riguarda la protezione dei dati. Aziende come NTT e Salesforce hanno introdotto regole severe: dall’anonimizzazione all’esclusione di contenuti sensibili nei dataset di addestramento, fino al principio di zero data retention, che impedisce la conservazione delle interazioni degli utenti.
Trasparenza e documentazione
Sul fronte della trasparenza si osservano differenze tra operatori consumer e business-to-business. Le società telco più vicine al mercato retail, come TELUS o KDDI, pubblicano documenti dettagliati (model card, system card, rapporti annuali), mentre le realtà B2B preferiscono inserire clausole e documentazioni contrattuali personalizzate.
La trasparenza non si limita ai modelli, ma riguarda anche i processi interni di governance: Google, Microsoft e Salesforce hanno iniziato a diffondere rapporti periodici sui progressi dell’AI responsabile, aprendo la strada a un dialogo pubblico più strutturato.
Governance aziendale e gestione degli incidenti
La governance dell’AI entra stabilmente nei consigli di amministrazione delle grandi telco. SoftBank, ad esempio, ha creato un Comitato Etico sull’AI con esperti interni ed esterni, mentre Fujitsu si avvale di un External Advisory Committee on AI Ethics.
Molte aziende hanno definito protocolli di risposta agli incidenti, con team dedicati e procedure di escalation fino ai vertici aziendali. Non meno rilevante è la crescente disponibilità a condividere pubblicamente informazioni sugli incidenti, sia attraverso blog aziendali, sia tramite iniziative di collaborazione intersettoriale come il Frontier Model Forum, di cui fanno parte anche Google, Microsoft e OpenAI.
Autenticazione dei contenuti e lotta alla disinformazione
Un capitolo particolarmente rilevante per le telecomunicazioni riguarda la tracciabilità dei contenuti generati dall’AI. L’uso di watermark, metadati e credenziali digitali è ancora agli inizi, ma strumenti come SynthID di Google o i content credentials di Microsoft e OpenAI indicano la direzione.
TELUS e KDDI stanno integrando sistemi di etichettatura e avvisi per informare gli utenti quando interagiscono con sistemi AI, mentre Salesforce ha introdotto audit trail per monitorare l’uso aziendale dell’AI. Questi meccanismi sono fondamentali per contrastare fenomeni come fake news e manipolazione dell’informazione, temi centrali anche per l’affidabilità delle reti tlc.
Ricerca sulla sicurezza e collaborazioni
Le telco non si limitano a implementare soluzioni, ma investono direttamente in ricerca e partnership. NTT sviluppa sistemi di AI composita per tracciare attacchi informatici, Fujitsu lavora su strumenti contro la disinformazione, mentre TELUS partecipa al NIST AI Safety Consortium.
Le collaborazioni con università, centri di ricerca e società civile sono crescenti. L’obiettivo comune è definire standard globali e condividere strumenti open source per rendere l’AI più sicura e affidabile.
AI e obiettivi globali
Un altro fronte su cui le telco si stanno muovendo è l’applicazione dell’AI per obiettivi sociali e ambientali. TELUS alimenta la sua AI Factory con energia rinnovabile al 99%, SoftBank utilizza data center decentralizzati alimentati da fonti rinnovabili, mentre NTT sviluppa modelli linguistici leggeri per ridurre il consumo energetico.
Queste iniziative si affiancano a programmi di alfabetizzazione digitale e inclusione: da Google con i corsi AI Essentials a OpenAI Academy, fino alle collaborazioni di Microsoft e TELUS con comunità locali e minoranze indigene. Il legame con gli Obiettivi di sviluppo sostenibile delle Nazioni Unite è ormai parte integrante delle strategie di molte telco globali.
Prospettive future
Il quadro delineato dal reporting framework dell’OCSE mette in evidenza un trend chiaro: le telecomunicazioni sono chiamate a un ruolo di responsabilità globale nella costruzione di un ecosistema AI sicuro e trasparente.
Il percorso è solo all’inizio. Le stesse aziende partecipanti hanno suggerito di semplificare il processo di reporting, allinearlo meglio alle normative nazionali e internazionali, e aggiornarlo regolarmente per stare al passo con le evoluzioni dell’AI.
In prospettiva, la sfida sarà estendere la partecipazione a un numero più ampio di attori, incluse le PMI e le realtà emergenti, per avere una fotografia più completa delle pratiche globali. Ma un punto è già evidente: le telco, con la loro posizione di infrastrutture critiche e hub tecnologici, saranno protagoniste nel passaggio dall’astrazione dei principi all’operatività delle regole.
Le conclusioni
La ricerca OCSE sul Hiroshima AI Process segna un punto di svolta: per la prima volta, le imprese — soprattutto quelle del settore tlc — hanno reso pubblici i loro approcci alla gestione dei rischi dell’AI. Da questo esercizio di trasparenza emerge una consapevolezza crescente: l’innovazione non può prescindere da responsabilità, sicurezza e governance.