Intelligenza artificiale, scatta l'allarme: "Diritti umani a rischio, l'Ue deve avere policy adeguate" - CorCom

IL CASO

Intelligenza artificiale, scatta l’allarme: “Diritti umani a rischio, l’Ue deve avere policy adeguate”

La Eu Agency for fundamental rights chiede ai Paesi europei di fissare linee guida più chiare. Il regolatore sottolinea l’importanza della trasparenza degli algoritmi e del controllo degli utenti sulle decisioni automatizzate

14 Dic 2020

Patrizia Licata

giornalista

“L’Ai non è infallibile: è prodotta dalle persone e gli esseri umani possono commettere errori”. È questo l’allarme sulle applicazioni di intelligenza artificiale lanciato dalla Fra, l’Agenzia dell’Unione europea per i diritti fondamentali. “Le persone devono essere informate su quando l’Ai viene utilizzata, su come funziona e anche su come mettere in discussione le decisioni automatizzate”, ha affermato il direttore dell’Fra, Michael O’Flaherty.

Nel mirino ci sono, in particolare, gli impieghi dell’Ai nelle attività predittive per le forze dell’ordine, nelle diagnosi mediche e nella pubblicità mirata.

Nell’uso dell’Ai da parte della Polizia, per esempio, molte associazioni per i diritti umani hanno accusato i regimi autoritari di abusi e impieghi per la sorveglianza di massa e la discriminazione di alcune fasce della popolazione. Altre preoccupazioni riguardano il rispetto della privacy e la protezione dei dati personali.

“Le aziende spieghino i loro algoritmi di Ai”

In un report appena pubblicato la Fra chiede ai governi europei di fornire più indicazioni su come le norme attuali si applicano all’Ai e di assicurare che le prossime leggi sull’intelligenza artificiale permettano di proteggere i diritti fondamentali. Il report si basa su oltre 100 interviste svolte tra aziende pubbliche e private che già utilizzano l’Ai in Estonia, Finlandia, Francia, Olanda e Spagna.

WEBINAR
28 Ottobre 2021 - 12:00
FORUM PA 2021- Sanità: Cybersecurity, conoscere per non rischiare
Sicurezza
Cybersecurity

La Fra ha sottolineato che le regole sull’Ai devono rispettare tutti i diritti fondamentali e permettere alle persone di mettere in discussione le decisioni prese dagli algoritmi di intelligenza artificiale. Inoltre le aziende devono sempre poter spiegare come funzionano i loro algoritmi di Ai e come i loro sistemi automatizzati prendono le decisioni.

L’Agenzia europea chiede inoltre di approfondire lo studio sugli effetti potenzialmente discriminatori dell’Ai cosicché l’Europa possa tutelarsi. L’Ue deve anche chiarire meglio come le regole sulla protezione dei dati si applicano alla tecnologia di intelligenza artificiale.

La Commissione europea al lavoro sulle regole

La richiesta arriva proprio mentre la Commissione europea lavora su nuove regole con cui intende rispondere alle sfide etiche create dalla tecnologia di intelligenza artificiale. La proposta di legge dovrebbe arrivare il prossimo anno e coprire le aree “ad alto rischio” delle applicazioni di Ai: sanità, energia, trasporti, servizi pubblici e parte della Pubblica amministrazione.

A febbraio Bruxelles ha presentato la sua nuova strategia per il digitale e la protezione dei dati e l’Ai; le linee guida sull’Ai state incluse nel White Paper sull’Artificial Intelligence.

Il documento pone l’accento sull’utilizzo sicuro e affidabile dell’Ai. La Commissione evidenzia l’importanza della collaborazione pubblico-privato per mobilitare risorse lungo l’intera catena del valore e creare i giusti incentivi per accelerare la diffusione dell’Ai. Al tempo stesso, per i casi ad alto rischio, come quelli relativi alla salute, alla polizia o ai trasporti, i sistemi di intelligenza artificiale dovranno essere trasparenti, tracciabili e garantire il controllo da parte dei singoli individui. Le autorità dovranno essere in grado di testare e certificare i dati utilizzati dagli algoritmi.

Microsoft nell’alleanza per la diffusione dell’Ai

Negli Stati Uniti intanto un gruppo di aziende e organizzazioni, tra cui  Microsoft, Mastercard, Visa, Nasdaq e la Federal Reserve Bank of New York, si sono unite con alcuni enti di ricerca universitari per formare il National council for artificial intelligence (Ncai). L’obiettivo è creare una coalizione di tipo “pragmatico”, ovvero votata alla creazione di alleanze pubblico-private nel settore dei servizi finanziari per diffondere l’Ai superando gli attuali ostacoli “nell’industria e nella società”.

Il gruppo di lavoro userà l’Ai per cercare di risolvere alcune delle maggiori sfide economiche e industriali, migliorare le competenze digitali e assicurare la data privacy, ha dichiarato l’Ncai. Il Council creerà servizi Ai che abbiano un “impatto positivo sulla finanza e la società”, cercando di ridurre i rischi di discriminazione negli algoritmi, abbassare la barriera d’ingresso per le imprese, stimolare l’innovazione e fornire consulenza sullo sviluppo di nuove policy.

@RIPRODUZIONE RISERVATA

Articolo 1 di 2