L’EVOLUZIONE DELLO SCENARIO

Intelligenza artificiale, la Ue: “Non c’è tempo da perdere, una legge il prima possibile”

Vestager e Breton incontrano il ceo di Google Pichai. “Ci aspettiamo il rispetto delle normative europee e un patto globale”. Von der Leyen: “Grandi opportunità occupazionali”. Intanto OpenAi non esclude l’ipotesi di una chiusura di ChatGpt in Europa: “L’attuale bozza della legge europea eccessivamente regolamentata, ma confidiamo in modifiche”

Pubblicato il 25 Mag 2023

europa-unione-europea-121218162942

“Abbiamo bisogno della legge Ue sull’intelligenza artificiale il prima possibile. Ma la tecnologia si evolve a velocità estrema. Quindi occorre un accordo volontario sulle regole universali per l’AI. Non c’è tempo da perdere”. È il messaggio che la vicepresidente della Commissione europea, Margrethe Vestager, ha espresso all’amministratore delegato di Google, Sundar Pichai, durante un colloquio a Bruxelles.

L’urgenza di un patto su base volontaria

Vestager ha definito “positivo” l’incontro con Pichai, aggiungendo che l’ipotesi di un patto per l’AI che coinvolga su base volontaria tutti i principali attori europei ed extra-europei è già stata discussa “al G7 sul digitale di Takakasi” e sarà al centro del Consiglio commercio e tecnologia Ue-Usa “la prossima settimana” a Lulea, in Svezia.

Più assertivo il commissario europeo per il Mercato interno, Thierry Breton, che ha avvertito: “Non c’è tempo da perdere nella corsa all’AI per costruire un ambiente online sicuro. Ci aspettiamo che la tecnologia in Europa rispetti tutte le nostre regole, sulla protezione dei dati, la sicurezza online e l’intelligenza artificiale. In Europa, non si può scegliere le norme più convenienti”, ha sottolineato Breton, dicendosi comunque “lieto” dell’impegno espresso dal ceo di Google “a rispettare tutte le norme dell’Ue”, dal regolamento per la protezione dei dati già in vigore alle leggi gemelle Digital Services Act e Digital Markets Act, in corso di implementazione. “Sundar e io abbiamo convenuto che non possiamo permetterci di aspettare che il regolamento Ue sull’intelligenza artificiale diventi effettivamente applicabile per sviluppare già ora un patto su base volontaria“, ha precisato Breton, accogliendo con favore l’impegno di Google a “intensificare la lotta contro la disinformazione prima delle elezioni in Europa”.

AI chance per l’occupazione

“Ci sono grandi opportunità che possiamo e dobbiamo cogliere. Per esempio, nell’economia digitale, se guardiamo all’industria europea delle batterie, serviranno più di 800 mila lavoratori qualificati solo nei prossimi due anni”, ha invece evidenziato la presidente della Commissione Ue, Ursula von der Leyen nel suo intervento al congresso della Confederazione europea dei sindacati (Etuc) a Berlino.

“Certamente l’intelligenza artificiale può aumentare la produttività, ma abbiamo visto anche aziende usarla per assumere e licenziare dipendenti. Un quarto delle aziende europee sta pianificando di usare queste tecnologie per il processo di selezione dei dipendenti e gli stessi strumenti per licenziarli in modo automatizzato – ha poi sottolineato – Ogni algoritmo è disegnato da un programma e ogni programma da una persona che può avere bias. Dobbiamo essere molto, molto chiari: nessuno deve essere discriminato per colpa di un algoritmo di intelligenza artificiale”.

La numero uno dell’esecutivo comunitario ha ribadito che “servono regole” e che “la risposta alla sfida che solleva l’intelligenza artificiale è prima di tutto un principio: l’essere umano in controllo”. Grazie al quadro normativo dell’Ue sull’intelligenza artificiale, “porremo regole stringenti sulle tecnologie ad alto rischio, si potrà continuare a innovare mentre i diritti dei cittadini saranno tutelati”, ha garantito von der Leyen.

Per Schmidt e Altman serve un’autorità ad hoc

Del resto non si tratta solo di una preoccupazione che monta negli ambienti politici: l’intelligenza artificiale potrebbe comportare rischi esistenziali e i governi devono assicurarsi che la tecnologia non venga “utilizzata in modo improprio da persone malvagie”. Lo ha detto l’ex numero uno di Google, Eric Schmidt intervenendo al Ceo Council Summit del Wall Street Journal, dove ha spiegato senza mezzi termini di temere che l’AI diventi un “rischio esistenziale” per le persone. “E rischio esistenziale è definito come molte, molte, molte, molte persone danneggiate o uccise”, ha proseguito Schmidt, aggiungendo che in futuro si troveranno soluzioni a problemi in campo biologico, che dovranno essere usate da persone responsabili. L’ex ceo ha salutato con favore l’idea che gli Stati Uniti introducano una nuova agenzia dedicata alla regolamentazione dell’AI. Schmidt faceva già parte della National Security Commission on AI negli Stati Uniti e nel 2019 ha avviato una revisione della tecnologia, compreso un potenziale quadro normativo.

Ma c’è chi va oltre: si potrebbe per esempio istituire un’autorità internazionale che possa ridurre il rischio esistenziale legato all’intelligenza artificiale, un po’ come avvenuto con la creazione dell’Agenzia internazionale per l’energia atomica (Aiea). È una delle proposte formulate dal ceo di OpenAi, Sam Altman, e dai suoi soci, Greg Brockmann e Ilya Sutskever, in un intervento pubblicato sul sito della società che ha creato ChatGpt. “Dato il quadro attuale, è concepibile che entro i prossimi dieci anni i sistemi di AI supereranno il livello di competenza degli esperti nella maggior parte dei settori” scrivono i tre, sottolineando come “in termini di potenziali vantaggi e svantaggi, la super intelligenza sarà più potente di altre tecnologie con cui l’umanità ha dovuto confrontarsi in passato”.

L’AI richiede quindi “un trattamento e un coordinamento speciali” per mitigare i rischi legati alls tecnologia, così come avvenuto con il nucleare. “È probabile che alla fine avremo bisogno di qualcosa come l’Aiea. Qualsiasi sforzo al di sopra di una certa soglia di capacità (o di risorse, come il calcolo) dovrà essere soggetto a un’autorità internazionale che sia in grado di ispezionare i sistemi, richiedere verifiche, controllare la conformità agli standard di sicurezza, porre restrizioni sui gradi di diffusione e sui livelli di sicurezza”.

E il numero uno di OpenAi non esclude l’addio all’Europa

Ma Altman ha anche lanciato un avvertimento all’Unione europea: la sua società potrebbe prendere in considerazione l’idea di lasciare l’Europa se non riuscisse a conformarsi alle normative sull’intelligenza artificiale che Bruxelles sta vagliando .

L’Ue sta infatti lavorando a quella che potrebbe essere la prima serie di regole a livello globale per disciplinare l’AI. Parte della bozza prevede che le aziende che utilizzano strumenti di intelligenza artificiale generativa, come ChatGpt per l’appunto, debbano divulgare qualsiasi materiale protetto da copyright utilizzato per sviluppare i loro sistemi.

Prima di prendere in considerazione l’idea di ritirarsi, OpenAi cercherà di conformarsi al regolamento in Europa quando sarà definito, ha detto Altman parlando in occasione di un evento che si è tenuto ieri a Londra. “L’attuale bozza della legge europea sull’intelligenza artificiale sarebbe eccessivamente regolamentata, ma è tutto ancora in discussione”. All’inizio del mese i parlamentari dell’Ue hanno raggiunto un accordo sulla bozza dell’atto. Ora i rappresentanti del Parlamento, del Consiglio e della Commissione si confronteranno per definire i dettagli finali. “Ci sono molte cose che si potrebbero fare, come cambiare la definizione di sistemi di intelligenza artificiale per scopi generali”, ha precisato Altman.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3