Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

IL DOCUMENTO

Data Privacy Day, riflettori sull’intelligenza artificiale

Le nuove linee guida pubblicate dalla “Convenzione 108”, il Comitato del Consiglio d’Europa sulla protezione dei dati, focalizzano l’attenzione sui rischi legati alle tecnologie 4.0: “Codici di condotta e meccanismi di certificazione per aumentare la fiducia nei servizi basati sull’intelligenza artificiale”

28 Gen 2019

F. Me

La nuova sfida per la data protection si gioca sul campo dell’AI. E’ quanto emerge dalle nuove linee guida pubblicate dalla “Convenzione 108”, il Comitato del Consiglio d’Europa sulla protezione dei dati, in occasione del Data Privacy Day, istituita dall’Ue nel 2006, e poi adottata in tutto il mondo per sensibilizzare gli utenti sulla protezione delle proprie informazioni personali online.

Secondo il documento lo sviluppo dell’intelligenza artificiale deve obbedire alla “dignità umana e alla salvaguardia dei diritti umani e delle libertà fondamentali”. E non può contraddire i principi di “legalità, correttezza, indicazione di scopi precisi, proporzionalità, privacy by design, responsabilità, trasparenza, sicurezza dei dati e gestione dei rischi”.

“La finalità delle linee guida – spiega la Convezione – è assistere i responsabili delle politiche, gli sviluppatori di intelligenza artificiale, i produttori e i fornitori di servizi nel garantire che le applicazioni non ledano il diritto alla protezione dei dati”.

Il documento, che individua nel complesso 27 linee guida (sei generali, 12 rivolte a sviluppatori e operatori e 9 ai legislatori), sottolinea la necessita di “un approccio mirato a evitare e attenuare i potenziali rischi nel trattamento dei dati personali”. E di una “visione più ampia”, perché in gioco non ci sono solo “i diritti umani e le libertà fondamentali, ma anche valori sociali ed etici e il funzionamento delle democrazie”. Le applicazioni dell’intelligenza artificiale dovrebbero inoltre consentire agli utenti “un controllo significativo” sui propri dati e su come vengono elaborati”. Rivolgendosi agli sviluppatori, il Comitato raccomanda di “valutare i possibili effetti negativi dell’intelligenza artificiale sui diritti umani e sulle libertà fondamentali”.

E, nel dubbio, adottare “un approccio precauzionale”. Ogni applicazione dovrebbe rispettare “i diritti umani by design”. Dovrebbe cioè avere il loro rispetto come elemento alla base della progettazione, anche per “evitare il rischio di discriminazioni”. Le imprese dovrebbero valutare “la natura, la qualità e l’origine dei dati”, raccogliendo solo quelli davvero necessari. E sono “incoraggiate a creare e consultare comitati indipendenti di esperti” che possano indicare gli effetti profondi dell’intelligenza artificiale. Le linee guida chiedono poi maggiore “responsabilita’” e trasparenza sugli algoritmi.

Ai legislatori, infine, la Convenzione 108 raccomanda di adottare “codici di condotta e meccanismi di certificazione, che potrebbero aumentare la fiducia nei prodotti e nei servizi” basati sull’intelligenza artificiale. Nel caso in cui l’AI venga adottata da organi pubblici, “le procedure d’appalto dovrebbero tener conto di trasparenza, valutazione dell’impatto sui diritti umani e sulle libertà fondamentali”. Per vigilare con efficacia, le autorità dovrebbero avere “risorse sufficienti”. I legislatori non devono però essere solo controllori. Devono anche proteggere se stessi.

Tra le linee guida c’è infatti la necessità di “preservare la libertà decisionale umana” di fronte a tecnologiche che potrebbero influenzarla se non sostituirla. L’ultima parola deve essere dell’uomo. E’ quindi fondamentale – conclude il documento – che i responsabili politici “investano risorse nella formazione digitale, in modo da aumentare la consapevolezza e la comprensione sulle applicazioni di AI e sui loro effetti”.

Una “consapevolezza” che deve passare anche dalla “formazione degli sviluppatori”, non solo tecnica ma “orientata ai diritti umani”.

@RIPRODUZIONE RISERVATA
Argomenti trattati

Approfondimenti

I
intelligenza artificiale
P
privacy