FORUM PA 2018

Intelligenza artificiale e PA: la partita si gioca sull’etica dei dati

Essenziali policy specifiche per regolare e garantire la corretta gestione e la sicurezza, anche a livello umano, delle informazioni alla base dei servizi innovativi. L’analisi di Fernanda Faini, giurista e componente della task force sull’AI di Agid

Pubblicato il 19 Apr 2018

Fernanda Faini

giurista, componente della Task Force AI di Agid

intelligenza-artificiale_519560572

Per parlare di intelligenza artificiale in ambito pubblico è imprescindibile trattare della sua “anima”: i dati; le soluzioni di intelligenza artificiale, infatti, si basano su dati. Di conseguenza è necessario porvi particolare attenzione, al fine di tutelare i diversi diritti in gioco. Lo fa il Libro Bianco, curato dalla Task Force sull’Intelligenza Artificiale dell’Agenzia per l’Italia Digitale, che nelle diverse sfide si occupa ampiamente dei dati; è il caso della prima sfida dedicata all’etica, della quarta sul ruolo dei dati e della quinta relativa al contesto legale.

Prioritariamente le basi di dati devono essere costituite in maniera corretta, garantendo qualità, neutralità e intelligibilità, assicurando un elevato grado di sicurezza e riuscendo a prevenire in modo adeguato i rischi. E’ fondamentale, infatti, non generare oscurità per confusione nella gestione di dati, tanto più quando si agisce in ambito pubblico, che impone di tenere in attenta considerazione il principio di certezza del diritto e l’affidamento che i cittadini hanno verso le istituzioni.

Proprio a tali fini è necessario rispettare la normativa di riferimento.

Il Codice dell’amministrazione digitale (d.lgs. 82/2005) e gli altri atti di riferimento contengono, a questo proposito, norme in materia di dati pubblici che riguardano i principi di disponibilità, fruibilità e di messa a disposizione dei dati e si spingono fino alle strategie di apertura che si sostanziano nella disciplina degli open data. Più ampiamente, le soluzioni di intelligenza artificiale implementate nel settore pubblico devono basarsi sul principio di trasparenza e apertura non solo dei dati, ma anche della logica degli algoritmi che li “animano” e, altresì, del processo di funzionamento del servizio. Al riguardo potrebbe essere necessaria anche qualche integrazione normativa utile a fornire un fondamento giuridico maggiormente certo e puntuale. Al fine di garantire il corretto rispetto delle norme è necessario assicurare l’accountability e la correlata definizione delle diverse responsabilità, anche per generare fiducia da parte della collettività.

In merito alla gestione dei dati viene in gioco anche il profilo della governance degli stessi. Di dati, infatti, si occupano diverse autorità. L’Agenzia per l’Italia Digitale ontologicamente ha un ruolo centrale: si pensi, ad esempio, alle norme e alle strategie in materia di open data e big data in ambito pubblico e alla stessa Task Force sull’IA. Il Garante per la protezione dei dati personali, nostra autorità di controllo in materia di data protection, si occupa precipuamente di un’ampia tipologia di dati, i dati personali e, più ampiamente, ha assunto un grandissimo rilievo nella gestione dei dati tout court con provvedimenti, linee guida, indicazioni. E, ancora, Anac ha un ruolo significativo, perché quando si parla di trasparenza e accesso necessariamente si parla anche di dati. La tematica quindi è trasversale a differenti tipologie di dati (la varietà, del resto, è caratteristica ontologica dei big data) e, parallelamente, a diversi enti indipendenti che entrano in gioco nella governance dei dati stessi: non è da escludere l’opportunità di costituire un coordinamento tra i diversi soggetti per un governo efficace, per fornire le regole di una corretta gestione e monitorarne l’osservanza.

Di conseguenza la gestione di soluzioni di intelligenza artificiale in ambito pubblico pone in primo luogo la necessità di rispettare la normativa di riferimento in materia di dati e, altresì, a livello di governance, le indicazioni delle diverse autorità coinvolte. Ma questi profili, da soli, non sono sufficienti: è essenziale la presenza di policy specifiche di accompagnamento da parte delle amministrazioni, cui le stesse devono attenersi, trasparenti per l’utente e per mezzo delle quali venga regolata e garantita non solo la qualità e la corretta gestione, ma anche l’aspetto di sicurezza a livello tecnologico, umano e organizzativo, con una definizione chiara di responsabilità.

La regolazione presuppone delle valutazioni di ordine politico, strategico e giuridico. Bisogna partire dal presupposto, infatti, che raccogliere e gestire numerosi dati conferisce, necessariamente, un correlato enorme potere, ancora più evidente laddove a farlo sia un soggetto pubblico.

Proprio qui emerge un aspetto cruciale. Il possesso dei dati relativi alle soluzioni di intelligenza artificiale, se non viene attentamente presidiato, infatti, può provocare una conseguente asimmetria di potere informativo e una forbice tra istituzioni e soggetti, cittadini o imprese, che può generare una conseguente perdita di fiducia. A tale profilo si somma un ulteriore e potenziale rischio collegato al controllo sociale: i soggetti pubblici potrebbero decidere di servirsi dei dati prodotti e gestiti dalle soluzioni di intelligenza artificiale per finalità ulteriori rispetto ai servizi per i quali sono impiegati, e, soprattutto laddove avvenga in modo non trasparente, ciò permetterebbe fenomeni di monitoraggio della collettività. Tutto questo, naturalmente, rischierebbe di entrare in frizione con la normativa e di allontanare governanti e governati in direzione esattamente opposta all’open government che anima le riforme più recenti e in generale le strategie nazionali.

Oltre a queste implicazioni etico-sociali, tra le criticità che vengono in gioco, la gestione dei dati delle soluzioni di intelligenza artificiale pone diverse problematiche di ordine giuridico.

Sicuramente la protezione dei dati personali può costituire un aspetto problematico perché la normativa in materia impone il rispetto di principi quali la limitazione della finalità e la minimizzazione dei dati e anche a tali principi lega le informazioni da fornire all’interessato. Laddove ciò non avvenga, non sarebbe rispettato il Regolamento (UE) 2016/679, applicabile agli Stati membri a partire dal 25 maggio 2018. Proprio il regolamento europeo fornisce delle soluzioni interessanti al riguardo, grazie ad alcuni principi e strumenti, come la privacy by design, by default e la valutazione di impatto (data protection impact assessment). Di fatto, questi principi presuppongono che l’approccio al rischio sia preventivo, si avvalga della tecnologia e si fondi sul principio di accountability.

La tutela dei dati personali è un aspetto certamente fondamentale, ma non è il solo; esiste anche un altro aspetto critico, soprattutto se si sceglie di avvalersi anche di soggetti diversi nell’implementazione e gestione di tali servizi: il profilo della proprietà dei dati gestiti. Anche da questo punto di vista interviene la normativa, in specifico quella sul diritto d’autore e sui diritti connessi, che protegge non solo le informazioni strutturate, ma anche le raccolte di dati, in genere ascritte, a seconda dei casi, a banche dati creative o non creative, facendo scattare parallelamente la tutela del diritto d’autore o del diritto sui generis: la filiera dei soggetti che intervengono in queste soluzioni è fondamentale per l’attribuzione dei correlati diritti e delle prerogative che li accompagnano.

Un ulteriore aspetto emerge proprio in relazione ai soggetti di questa relazione: da una parte ci sono amministrazioni pubbliche, dall’altra parte gli utenti di servizi pubblici. Ciò implica il rispetto della normativa inerente i procedimenti amministrativi e, in ogni caso, quella sull’amministrazione digitale: l’implementazione di soluzioni di IA deve rispettare, di conseguenza, da una parte, i diritti (anche digitali) dei cittadini e, dall’altra, gli obblighi propri delle amministrazioni e, pur con i necessari adattamenti, le garanzie procedimentali. Deve poi essere assicurato e regolato l’accesso ai dati, in considerazione della relativa normativa nazionale e tenendo conto delle peculiarità delle soluzioni di IA.

Una gestione corretta dei dati, anima delle soluzioni di intelligenza artificiale, pertanto, deve rispettare i diversi diritti in gioco e, per farlo, deve osservare le prescrizioni normative di riferimento (come si è visto, la normativa in materia di data protection, procedimento amministrativo, amministrazione digitale, trasparenza e proprietà intellettuale).

Un buon sistema di gestione dei dati è un sistema che è necessariamente trasparente per l’utente, da garantire nel proprio diritto all’autodeterminazione informativa e da valorizzare nel proprio ruolo. In tutto il processo, infatti, deve essere protagonista l’utente, il cui soddisfacimento è l’obiettivo da non perdere di vista quando si agisce in ambito pubblico. La qualità di servizi online semplici e integrati e la correlata misura della soddisfazione rientrano esplicitamente, del resto, tra i diritti che il Codice dell’amministrazione digitale riconosce e tutela (artt. 7 d.lgs. 82/2005); di conseguenza tali servizi devono essere integrati con un feedback costante da parte di chi ne fruisce.

Sotto tali profili, è fondamentale il valore dell’esempio in ambito pubblico per evidenziare i benefici concreti nell’implementazione di soluzioni di questo tipo: per affrontare la complessità di soluzioni di IA risulta opportuno lo sviluppo di progetti pilota, basati anche su partenariati tra diversi soggetti pubblici (amministrazioni e ambito accademico) e privati (imprese e startup). Per il successo di tali iniziative a ciò si accompagna la necessità di un’operazione culturale profonda ed estesa, interna alla’amministrazione pubblica attraverso un’adeguata formazione, ma anche esterna, diretta agli utenti, destinatari e fruitori di tali soluzioni.

Quali possono essere gli scenari evolutivi dell’AI in ambito pubblico?

Volendo fare una facile battuta, potremmo chiedere ai big data di fare una predizione al riguardo. A parte gli scherzi, la corsa evolutiva in materia è quanto mai evidente; quasi ogni giorno leggiamo di passi avanti compiuti da chi lavora in tale ambito. Sicuramente l’IA può portare benefici significativi in ambito pubblico, ma non si devono mai perdere di vista le modalità di utilizzo, la ratio dell’implementazione, le finalità dell’agire pubblico, le regole e il contesto di riferimento in cui ci si muove.

Riusciremo, allora, ad erogare in modo più efficace i servizi? E’ molto probabile che la tecnologia consentirà soluzioni che ancora non riusciamo neppure a immaginare. Ma è e sarà fondamentale l’elemento umano, cioè la capacità dell’uomo di orientare la tecnologia, che dipende strettamente anche dall’abilità di mettere insieme le diverse forze in campo e le competenze necessarie.

Perché la tecnologia da sola non basta. Qualunque progresso tecnico non sarà sufficiente se non sarà accompagnato anche da un approccio etico, dal ruolo del diritto e da una dimensione filosofica che permettano di sfruttare in modo strategico e condiviso questo potenziale che altrimenti rischia di sfuggire di mano.

Oltre all’evoluzione tecnica, ciò che conta è la capacità di visione e di governance. Ciò che conta dipende da noi e dalla nostra intelligenza…umana.

Anche di questo si parlerà al convegno “L’Intelligenza artificiale per la PA e i servizi pubblici”, in programma a Forum PA 2018 il 24 maggio.

 

@RIPRODUZIONE RISERVATA

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articolo 1 di 4