LA STRATEGIA

Intelligenza artificiale, von der Leyen: “Servono linee guida che riflettano i valori democratici”

La presidente della Commissione europea: “Vogliamo che i sistemi di AI siano accurati, affidabili, sicuri e non discriminatori, indipendentemente dalla loro origine”

Pubblicato il 19 Mag 2023

ursula von der leyen

I potenziali benefici dell’intelligenza artificiale per i cittadini e l’economia sono grandi. Allo stesso tempo, dobbiamo concordare delle linee guida per lo sviluppo dell’AI nell’Ue, che riflettano i nostri valori democratici. Vogliamo che i sistemi di AI siano accurati, affidabili, sicuri e non discriminatori, indipendentemente dalla loro origine”. Lo ha detto la presidente della Commissione europea, Ursula von der Leyen al G7 di Hiroshima. Le affermazioni di von der Leyen arrivano a qualche settimana dal primo via libera del Parlamento Ue all’AI act, il regolamento che fissa le norme per l’intelligenza artificiale.

Riflettori su Clean Tech e materie prime

“Dobbiamo valutare insieme ciò che è necessario per quanto riguarda la capacità produttiva pulita globale per raggiungere i nostri ambiziosi obiettivi climatici – ha poi aggiunto von der Leyen – Dovremmo persino considerare la possibilità di fissare degli obiettivi per la creazione di tali capacità. In secondo luogo, dobbiamo fornire un ambiente commerciale chiaro e prevedibile alle nostre industrie di tecnologia pulita. Il punto di partenza è la trasparenza tra i G7 su come sosteniamo l’industria manifatturiera. In terzo luogo, laddove vi siano preoccupazioni specifiche in materia di concorrenza leale, dovremmo trovare il modo di risolverle”.

“L’Europa e gli Stati Uniti hanno già trovato una serie di soluzioni, alcune delle quali sono ancora in corso, in quanto stiamo negoziando un accordo sui minerali critici e ci stiamo impegnando in un dialogo sugli incentivi per l’energia pulita – ha spiegato – Spero che la nostra discussione bilaterale Ue-Usa sulla sostenibilità dell’acciaio e dell’alluminio possa diventare un accordo globale. In quarto luogo, dovremmo creare nuove forme di cooperazione nel settore delle tecnologie pulite. Abbiamo bisogno di più alleanze verdi tra di noi, ma anche con altri partner fidati. Spero che in questa riunione del G7 si possa portare avanti un Club delle materie prime critiche”.

L’AI Act

L’Artificial Intelligence Act europeo compie un nuovo passo avanti con l’approvazione della relazione del Parlamento europeo sulla proposta di Regolamento per fissare un quadro normativo sull’intelligenza artificiale in Unione Europea. La relazione è stata approvata lo scorso 11 maggio con 87 voti a favore, 7 contrari e 12 astenuti nel corso della riunione congiunta delle commissioni per il Mercato interno e la protezione dei consumatori (Imco) e per le Libertà civili, la giustizia e gli affari interni (Libe).

La relazione presentata dai co-relatori Brando Benifei (S&D) e Dragoş Tudorache (Renew Europe) dovrà ora essere votata alla prossima sessione plenaria dell’Eurocamera, in programma tra il 12 e il 15 giugno, in vista dei negoziati inter-istituzionali con il Consiglio dell’Ue.

L’obiettivo è dare il via libera entro la fine della legislatura (nella primavera del 2024) alla prima legislazione al mondo a livello orizzontale e di ampio respiro sull’intelligenza artificiale, che regolamenterà uno degli aspetti più cruciali della gestione della doppia transizione digitale e verde dell’Unione Europea.

Obblighi più severi per i modelli Ai di base

A fine aprile, dopo mesi di trattative tra gli eurodeputati, il Parlamento europeo ha raggiunto l’accordo politico provvisorio sull’Artificial Intelligence Act, il primo regolamento al mondo sull’intelligenza artificiale.

Il Parlamento Ue ha confermato le proposte della Commissione di imporre obblighi più severi ai modelli di base, una categoria dell’Ai generica che comprende anche ChatGpt. Per quanto riguarda l’Ai generativa, Strasburgo ha deciso che questi sistemi dovranno essere progettati nel rispetto del diritto dell’Ue e delle libertà fondamentali.

Il Parlamento ha inoltre esteso il divieto sui software di identificazione biometrica, prima vietati solo per l’uso in real time, per i quali adesso è previsto un uso ex post solo per reati gravi e previa autorizzazione del giudice.

Inoltre, l’uso del software di riconoscimento delle emozioni è vietato nei settori dell’applicazione della legge, della gestione delle frontiere, del lavoro e dell’istruzione.

Il divieto di controllo predittivo è stato esteso dai reati penali a quelli amministrativi, sulla base dello scandalo olandese degli assegni familiari, che ha visto migliaia di famiglie incriminate erroneamente per frode a causa di un algoritmo.

I sistemi “a rischio elevato”

La proposta della Commissione definiva sistemi di Ai a rischio elevato quelli applicati, ad esempio, alle reti critiche, all’occupazione, all’istruzione e alla formazione nonché ai servizi pubblici essenziali.

Gli eurodeputati hanno introdotto un livello aggiuntivo e considerato ad alto rischio anche i sistemi che possono provocare danni alla salute, alla sicurezza o ai diritti fondamentali.

Il rischio significativo è definito come “risultato della combinazione della sua gravità, intensità, probabilità di accadimento e durata dei suoi effetti, e della capacità di colpire un individuo, una pluralità di persone o di colpire un particolare gruppo di persone”, si legge nel testo approvato.

Infine sono considerati ad alto rischio anche i sistemi di raccomandazione delle piattaforme online di grandi dimensioni, come definiti dal Digital services act.

Sono state aumentate anche le tutele per i dati sensibili con controlli più stretti su come i provider di sistemi ad alto rischio possono elaborare dati sensibili, ad esempio l’orientamento sessuale o quello politico e religioso. In pratica, per poter elaborare questo tipo informazioni i pregiudizi non devono essere rilevabili attraverso l’elaborazione di dati sintetici, anonimizzati, pseudonimizzati o criptati. Il procedimento deve deve avvenire in un ambiente controllato mentre i dati non potranno essere trasmessi e dovranno essere cancellati dopo la valutazione dei pregiudizi. I fornitori devono inoltre documentare i motivi per cui è stato effettuato il trattamento dei dati.

L’allarme del ceo OpenAI

Intanto il ceo di OpenAI, Robert Altman, ceo di Open AI, in audizione al Senato Usa dei protagonisti della scena dell’intelligenza artificiale davanti ai legislatori americani.

Sull’intelligenza artificiale servono più regole perché “i rischi dell’intelligenza artificiale sono potenzialmente pericolosi come le armi nucleari”. È il messaggio che Sam Altman, l’amministratore delegato di OpenAI, la società a cui fa capo ChatGpt, ha lanciato al Senato americano. “La regolamentazione dell’intelligenza artificiale è essenziale” ha detto Altman sottolineando la necessità di regole che dovranno consentire alle aziende di essere flessibili e adattarsi ai nuovi sviluppi tecnologici. Altman si è detto disponibile ad aiutare nella stesura di norme che garantiscano un equilibrio fra la sicurezza e l’accesso ai benefici della tecnologia.

“Ritengo che ci sia bisogno di nuove regole, di linee guida. Possiamo e dobbiamo lavorare insieme per identificare e gestire i potenziali rischi in modo che tutti possano godere degli enormi benefici che la nuova tecnologia offre” ha spiegato Altman ai senatori senza nascondere i suoi timori. Fra questi il possibile uso dell’intelligenza artificiale per interferire sulle elezioni. “L’AI – ha detto Altman –deve essere sviluppata su valori democratici, non è un social media e ha bisogno di un risposta diversa”.

“La mia maggiore paura è che possa creare significativi danni” ha sottolineato Altman osservando come la tecnologia sia “ancora nelle fasi iniziali e possa ancora commettere degli errori”. Da qui l’invito ai senatori a valutare la possibile concessione di licenze per lo sviluppo di modelli di intelligenza artificiale, senza però soffocare la crescita delle piccole start up del settore. “La pressione regolamentare dovrebbe essere su di noi, su Google e sui big – dice Altman alla sua prima apparizione a Capitol Hill –. Se questa tecnologia va male, può andare molto male. E noi vogliamo farci sentire su questo. Vogliamo lavorare con il governo per prevenire che ciò accada”.

L’audizione arriva mentre Microsoft, il colosso che più ha investito in OpenAI, ha notato – secondo il report dei suoi ricercatori “Sparks of Artificial General Intelligence”, pubblicato dal New York Times – come l’intelligenza artificiale sia in grado in alcuni casi di capire le cose come un essere umano.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati