LA LETTERA

AI Act, gli esperti europei: “Servono norme stringenti, autoregolamentazione pericolosa”

Il think tank Atomium scrive a Meloni, Macron e Scholz che vorrebbero un quadro legislativo più “leggero”. E avverte: “In gioco business e diritti”

Pubblicato il 30 Nov 2023

Patrizia Licata

intelligenza artificiale

I tempi stringono sull’approvazione dell’Ai Act europeo con il rischio che non si arrivi all’ok finale del Consiglio Ue entro la fine dell’anno. Con l’affermazione dei prodotti di intelligenza artificiale generativa come ChatGPT e dei modelli fondazionali, i Paesi europei si sono più che mai spaccati tra i paladini della privacy e dell’etica, che chiedono regole precise, e chi, invece, vuole allentare le maglie delle regole per lasciare libera la libertà delle imprese di fare innovazione. Tra questi ci sono Italia, Francia e Germania e proprio a questi tre Paesi si rivolge l’appello firmato da Luciano Floridi (Founding director del Digital Ethics Center, Yale University, e presidente del comitato scientifico di AI4People Institute) e da Michelangelo Baracchi Bonvicini (presidente di Atomium-Eismd e presidente di AI4People Institute) perché si arrivi all’approvazione della legge europea sull’intelligenza artificiale senza ulteriori indugi.

“Contro un approccio di autoregolamentazione, esortiamo tutte le parti coinvolte nel trilogo ad approvare l’Ai Act il prima possibile”, si legge nella lettera (SCARICA QUI IL DOCUMENTO COMPLETO) indirizzata alla presidente del Consiglio Giorgia Meloni, al presidente della Repubblica francese Emmanuel  Macron e al cancelliere federale tedesco Olaf Scholz. “È un errore – prosegue la lettera – pensare che la regolamentazione vada contro l’innovazione: è solo attraverso la regolamentazione e quindi una competizione leale che l’innovazione può prosperare, a vantaggio dei mercati, delle società e dell’ambiente”.

L’Ue e la leadership nell’intelligenza artificiale

La resistenza attuale da parte di Francia, Italia e Germania riguardo alla regolamentazione dei modelli Ai fondamentali mette a rischio la leadership dell’Ue nella regolamentazione dell’Ai”, si legge nella lettera. “L’Ue è stata all’avanguardia, sostenendo regolamentazioni che assicurino che la tecnologia sia sicura ed equa per tutti. Ma questo vantaggio iniziale potrebbe essere perso se le restanti sfide normative non vengono affrontate in modo rapido ed efficace. Un’Ue indecisa perderà il suo vantaggio competitivo rispetto a paesi come gli Stati Uniti e la Cina. I cittadini europei rischiano di utilizzare prodotti Ai regolamentati secondo valori e programmi non allineati ai principi europei”.

WHITEPAPER
La GenAI entra in fabbrica: novità e strategie per il successo dell'azienda
Realtà virtuale
Robotica

I codici di condotta delle aziende non bastano

Per gli esperti Nella fase del trilogo, l’Ai Act è minacciato “da ciò che crediamo sia una reazione sbagliata, da parte dei rappresentanti dei vostri governi, a favore dell’autoregolamentazione da parte delle aziende che implementano modelli fondazionali di Ai (come ChatGpt e Bard). Ciò significa che queste aziende dovrebbero attenersi ai propri codici di condotta, piuttosto che essere regolate direttamente da organismi ufficiali. Il cambiamento di approccio sta ritardando l’approvazione dell’Ai Act, soprattutto in vista delle imminenti elezioni del Parlamento europeo a giugno. In modo più critico, potrebbe minare la sua efficacia e rappresentare gravi rischi per i diritti dei cittadini europei e per l’innovazione europea”.

Le aziende non dovrebbero stabilire le regole da sole, argomentano gli esperti: “I codici di condotta, anche quando obbligatori, sono insufficienti e spesso inefficaci. Quando le aziende si autoregolamentano, potrebbero privilegiare i loro profitti sulla sicurezza pubblica e le preoccupazioni etiche”. Inoltre, ci sarebbe anche un danno all’industria dell’intelligenza artificiale, perché “lascia alle aziende il dubbio se i loro prodotti e servizi saranno ammessi sul mercato e se potrebbero affrontare multe dopo la commercializzazione. Le incertezze potrebbero richiedere regole dirette dopo che l’Atto è già stato approvato. Infine, se ogni azienda o settore stabilisce le proprie regole, potrebbe emergere solo un confuso mosaico di standard”.

Innovazione a rischio senza le regole per l’Ai

Ritardare la regolamentazione dell’Ai comporta costi significativi, si legge ancora nella lettera. Senza regole comuni, i cittadini sono vulnerabili a implementazioni di Ai che non servono al meglio gli interessi pubblici. Questa mancanza di regolamentazione apre la porta a un possibile abuso delle tecnologie Ai.

“Le conseguenze sono gravi, inclusa la violazione della privacy, il pregiudizio, la discriminazione e minacce alla sicurezza nazionale in settori critici come la sanità, i trasporti e le forze dell’ordine”, argomentano gli esperti. “Economicamente, le applicazioni Ai non regolamentate possono distorcere la concorrenza e le dinamiche di mercato, creando un campo di gioco disuguale in cui solo le aziende potenti e ben finanziate avranno successo”.

Maggiore innovazione è possibile solo attraverso una migliore regolamentazione, conclude la lettera.

La comunità scientifica italiana fa appello al governo sull’Ai Act

Un ulteriore appello arriva al governo Meloni dalla comunità scientifica italiana dell’Ai: “Vogliamo far sentire la nostra voce a sostegno della necessità di regole sui grandi modelli generativi, i “foundation model”, nell’ambito della Regolamentazione Europea sull’Intelligenza Artificiale, l’Ai act, in corso di negoziazione finale”, si legge nella lettera aperta (QUI IL DOCUMENTO COMPLETO).

I modelli linguistici generativi come GPT-2, GPT-3(.5) e GPT-4, modelli di complessità gigantesca ottenuti per addestramento su enormi risorse di dati da varie fonti (come web, libri, social media e altro), hanno dimostrato prestazioni sorprendenti in una varietà di compiti linguistici, argomentano gli scienziati. “D’altra parte, questi modelli generativi sono frutto di una tecnologia recente e ancora parzialmente immatura e mostrano evidenti lacune di affidabilità e sicurezza. Fra queste, la mancanza di trasparenza sui dati di addestramento e la loro provenienza, la presenza di bias e di errori imprevedibili (allucinazioni), la facilità di uso per scopi manipolativi (produzione di disinformazione), la difficoltà di interpretare o spiegare le risposte che producono e gli errori che compiono. Nel contesto attuale, è difficile valutare l’impatto sulla società e l’economia a medio/lungo termine, inclusi i rischi esistenziali per la democrazia, la scienza e il lavoro, preoccupazioni espresse anche dagli stessi pionieri che hanno contribuito allo sviluppo della tecnologia dell’Ai generativa. Crediamo che l’assenza di regole certe per i modelli generativi, per lo più prodotti da grandi aziende extraeuropee, comporti un forte rischio economico sulle aziende europee e italiane che stanno creando prodotti e servizi basati su tali modelli”.

La lettera conclude: “Facciamo quindi appello al governo italiano perché continui ad adoperarsi per un testo definitivo dell’Ai Act che includa regole chiare per i modelli generativi, rinforzando il ruolo dell’Europa di avanguardia globale della regolamentazione dell’intelligenza artificiale, consentendo di coglierne le opportunità con le migliori salvaguardie per la sicurezza”.

Le associazioni firmatarie sono AIxIA (Associazione italiana per l’intelligenza artificiale), Cvpl (Associazione Computer vision, pattern recognition and machine learning), Ailc (Associazione italiana di linguistica computazionale), Fondazione Fair-Future artificial intelligence research, Laboratorio nazionale di artificial intelligence and intelligent systems del Cini, e Comitato di coordinamento del Dottorato nazionale in intelligenza artificiale.

@RIPRODUZIONE RISERVATA

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articolo 1 di 4