L'INTERVENTO

Intelligenza artificiale, senza una governance si rischia grosso

L’allarme lanciato da mille fra ricercatori ed esperti non è un inedito anche se l’avvento di ChatGpt apre a un’inevitabile e necessaria riflessione sul ruolo della politica e delle istituzioni. Servono standard e regole chiare. L’Europa sulla strada giusta con l’AI Act. L’analisi del professor Raffiotta dell’Università Bicocca

Pubblicato il 31 Mar 2023

Edoardo Raffiotta

Professore di diritto dell’innovazione e dell’intelligenza artificiale all’Università Bicocca

chat gpt

Sarà l’intelligenza artificiale a mettere fine all’umanità? È questo l’angosciante e principale interrogativo posto dalla lettera sottoscritta da più di mille ricercatori, massimi esperti, ma soprattutto protagonisti nello sviluppo di questa rivoluzionaria tecnologia, come tra gli altri Elon Musk.

Intelligenza artificiale, la lettera di Musk & co non è un inedito

A ben vedere, però, non si tratta di un allarme inedito. Altri e ancor più autorevoli scienziati hanno avvertito di questo pericolo in passato. Basti ricordare il celebre intervento di Stephen Hawking – al Web Summit di Lisbona nel 2017 – dai toni non meno angoscianti. Certo ai tempi non esisteva ancora ChatGpt e i comuni mortali non avevano compreso le reali potenzialità di questa tecnologia. Eppure, leggendo con attenzione la lettera promossa dal Future of Life Institute, la conclusione non è quella di interrompere un processo irreversibile. Bensì di sospenderlo per sei mesi. A quale fine?

Servono standard e regole

Nell’appello, gli scienziati sentono il bisogno di verificare gli effetti dell’intelligenza artificiale, affinché diventi sicura e affidabile. A loro avviso tale obiettivo lo si può raggiungere solo attraverso la definizione di standard, procedure rigorosamente controllate e supervisionate da esperti esterni e indipendenti. Si chiedono procedure, ma anche trasparenza. Addirittura, in caso di indifferenza a questi moniti da parte delle società tech dell’intelligenza artificiale, gli scienziati statunitensi chiedono un intervento attivo dei Governi nazionali.

I Governi devono governare la questione

Si sollecita un ruolo protagonista dei governi democraticamente eletti affinché gli sviluppatori di intelligenza artificiale collaborino con la politica “al fine di accelerare drasticamente lo sviluppo di solidi sistemi di governance di questa tecnologia”. Questi dovrebbero “come minimo includere: autorità di regolamentazione nuove e capaci dedicate all’ intelligenza artificiale; sorveglianza e monitoraggio di sistemi di IA; sistemi di provenienza e watermarking per aiutare a distinguere i modelli reali da quelli sintetici e per tracciare le fughe di notizie; un robusto ecosistema di auditing e certificazione; responsabilità per i danni causati dall’IA. Ma ancora – colpisce molto – solidi finanziamenti pubblici per la ricerca tecnica sulla sicurezza dell’IA e istituzioni ben finanziate per affrontare i drammatici sconvolgimenti economici e politici (soprattutto per la democrazia) che l’IA causerà-

L’Europa ha preso la strada giusta

Insomma, si chiede l’intervento delle istituzioni pubbliche – ossia dello Stato – al fine di introdurre un governo dell’intelligenza artificiale. Una lettera importante, che è bene specificare, viene promossa e sottoscritta nel contesto giuridico statunitense (sostanzialmente privo di regole). Un monito, dunque, per chi sviluppa intelligenza artificiale, ma soprattutto per il Governo degli Usa. Allo stesso tempo, però, questa lettera è un segnale importante anche per l’Unione europea. Infatti, molte – per non dire tutte – delle misure indicate dagli scienziati al fine di creare un’intelligenza artificiale affidabile e sicura, sono già contenute all’interno della prossima regolazione europea che sarà approvata nel 2023. Una conferma davvero importante che l’Ue – con l’AI Act – ha preso la strada giusta. Gli Usa dovranno presto seguirla.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 5