L’obiettivo dichiarato è quello di creare un fronte comune tra istituzioni, imprese e mondo della ricerca per dare all’Italia una voce forte e autorevole nella regolazione dell’intelligenza artificiale. Su questi presupposti è nato il Comitato Data Governance e AI Compliance, promosso dalla Fondazione Aises – Spes Academy. Nell’ottica di contribuire a guidare l’attuazione del regolamento europeo sull’AI, il Comitato punterà a valorizzare il ruolo dell’Italia e sviluppare percorsi formativi condivisi tra PA e imprese.
Indice degli argomenti
I membri del Comitato Data Governance e AI Compliance
Il gruppo sarà presieduto da Valerio De Luca, direttore Spes Academy “Carlo Azeglio Ciampi” e presidente della Fondazione Aises Ets, con il coordinamento di Oreste Pollicino, professore ordinario di Diritto della Regolamentazione dell’AI all’Università Bocconi. Ne fanno parte figure di vertice delle principali autorità competenti, tra cui Bruno Frattasi, direttore generale dell’Acn (Agenzia per la Cybersicurezza Nazionale), Mario Nobile, direttore generale dell’AgID, e Guido Scorza, componente del Collegio Garante per la Protezione dei Dati Personali.
A questi si aggiungono manager dall’esperienza comprovata in alcuni dei settori strategici maggiormente impattati dall’AI: Giuseppe Mancini, Security vp Intelligence & International di Leonardo, Alessandro Bonaita, Group AI Governance Program director di Generali, Pietro Caminiti, Responsabile IT & Digitale di Terna, Andrea Cosentini, Head of Data Science & Responsible AI di Intesa San Paolo, Alessandra Fidanzi, Head of Digital Center of Excellence di Eni, e Agostino Nuzzolo, General Counsel & Head of Legal Affairs di Tim.
Completano la squadra Vittorio Calaprice, Political Affairs and Institutional Relations Analyst e Rappresentanza della Commissione Europea in Italia, e Silvia Castagna, analista sociale, esperta di innovazione e membro della Commissione AI del Dipartimento per l’Informazione e l’Editoria della Presidenza del Consiglio.
Un laboratorio aperto e inclusivo: primo tavolo tecnico il 7 luglio
“Si tratta di un laboratorio dinamico e pluralista in cui con il dialogo tra istituzioni, operatori e accademia si cercherà di avviare un percorso virtuoso di concretizzazione e contestualizzazione della normativa europea”, spiega il coordinatore Oreste Pollicino. “Un laboratorio anche inclusivo aperto a chi vorrà dare il suo contributo già a partire dalla prima riunione del tavolo tecnico”. Il primo incontro del tavolo tecnico è previsto per il 7 luglio, presso la sede di Roma di Spes Academy, e rappresenta la prima tappa di un processo a vocazione pluralista. Sono pertanto benvenuti altri operatori che desiderino contribuire attivamente al percorso.
Secondo Valerio De Luca, direttore dell’Academy, “l’intelligenza artificiale rappresenta una trasformazione epocale che impatta profondamente la società e l’economia, aprendo nuove opportunità ma anche sfide complesse, inclusa una fondamentale sfida educativa. Il nostro obiettivo è creare uno spazio di confronto tra istituzioni, industria ed esperti per orientare strategie, politiche e pratiche verso modelli di sviluppo e regolazione responsabili, efficaci e capaci di accompagnare l’innovazione tecnologica con una cultura diffusa e consapevole”.
La campagna lanciata da Anitec-Assinform
L’iniziativa lanciata dalla Fondazione Aises – Spes Academy si inserisce nel quadro di una crescente attenzione nei confronti delle opportunità – e dei limiti – offerti dall’entrata in vigore dell’AI Act.
Anche Anitec-Assinform, l’associazione di Confindustria che rappresenta le imprese Ict in Italia, in collaborazione con Qubit Law Firm & Partners, ha avviato una campagna di divulgazione per supportare le imprese nell’adeguamento al frameworkt. Il kick off c’è stato con la pubblicazione di un Policy Paper di approfondimento sui contenuti del Regolamento. Il documento ha l’obiettivo di fornire alle figure “non-legal” delle aziende IT una panoramica del Regolamento e degli obblighi che comporta per le imprese.
La seconda fase dell’iniziativa prevede l’organizzazione di workshop specifici focalizzati su temi di maggiore rilevanza per le imprese, come i percorsi per certificare i sistemi di intelligenza artificiale prodotti o utilizzati. Il progetto proseguirà con la pubblicazione di casi pratici sul sito di Anitec-Assinform, dove verranno illustrati problemi concreti di compliance e le relative soluzioni. Il programma prevede anche la realizzazione di webinar informativi per fornire un supporto continuativo alle imprese nel loro percorso di adeguamento alla normativa.
Come si stanno muovendo le telco
In questo scenario, come si devono muovere gli operatori di telecomunicazioni? Un approfondimento di TmForum evidenzia che l’AI non determinerà un impatto significativo sulle strategie AI delle telco: piuttosto si assisterà a un aumento del lavoro sul fronte della compliance, con conseguenti maggiori costi per soddisfare i nuovi requisiti legali.
I casi d’uso con AI come i chatbot per il servizio clienti, sebbene a basso rischio, richiederanno ulteriori sforzi di trasparenza, mentre altre applicazioni, come quelle implementate per il controllo delle reti e delle infrastrutture digitali, potrebbero rientrare nella categoria ad alto rischio, comportando obblighi normativi aggiuntivi.
Le telco si stanno già preparando per introiettare le nuove regole, adattando le loro strategie di governance e incorporando la compliance normativa nello sviluppo e nei casi d’uso dell’AI. Diverse compagnie, tra cui Deutsche Telekom, Kpn e Orange, fanno parte delle prime cento che hanno aderito all’AI Pact europeo, un gruppo costruito su base volontaria che ha lo scopo di anticipare il raggiungimento della piena conformità rispetto dei requisiti dell’AI Act. Conformità che, ricordiamo, vale anche per le società extracomunitarie che operano nel Vecchio continente.
Con l’AI Act, del resto, l’Europa ha adottato un approccio basato sul rischio, e sebbene altri mercati, a partire da Stati Uniti e Cina, abbiano scelto filosofie diverse, il framework è destinato a diventare uno standard globale per la conformità dei sistemi di AI.
Verso un rinvio delle scadenze per adempiere agli obblighi?
Il sistema va comunque messo a punto, e rimangono da mettere a fuoco alcuni elementi che riguardano l’interpretazione del concetto stesso di “risk-based” e la sua integrazione con altre normative.
Per questo un documento stilato dalla presidenza di turno del Consiglio Ue, che verrà discusso al Consiglio Telecomunicazioni in programma venerdì a Lussemburgo, propone di utilizzare il meccanismo ‘stop-the-clock’, il rinvio delle scadenze sugli obblighi di sostenibilità previsto nel relativo pacchetto Omnibus della Commissione europea, anche per le regole digitali, tra cui l’AI Act.
Il testo dettaglia una serie di raccomandazioni per semplificare la normativa nel settore digitale, sostenendo l’innovazione e riducendo gli oneri per le imprese, in particolare per le pmi. Le proposte sono state elaborate dalla presidenza polacca a seguito di un processo di consultazione con le parti interessate in vista del pacchetto di semplificazione delle regole digitali – il cosiddetto Omnibus digitale – che la Commissione europea presenterà entro la fine dell’anno.
Quanto alla legge europea sull’intelligenza artificiale, entrata in vigore il 2 agosto dello scorso anno e non ancora pienamente applicabile, si rilevano diverse criticità: dalla difficoltà di interpretazione dell’approccio basato sul rischio, all’interazione con altre norme e standard settoriali, come le disposizioni del Regolamento generale sulla protezione dei dati (Gdpr), ai problemi con le tempistiche di attuazione. Per questo, gli stakeholder suggeriscono tra le altre cose di posticipare le date di applicazione delle leggi se non sono disponibili strumenti di conformità come gli standard, ad esempio nell’AI Act e nel Cyber Resilience Act.