L’ESITO DELL’ISTRUTTORIA

OpenAI di nuovo nel mirino del Garante italiano: “ChatGpt viola la privacy”

Notificato all’azienda l’atto di contestazione per violazione della normativa sulla protezione dei dati personali. Dopo lo stop di un anno, dall’avvio dell’indagine emergono illeciti. La società ha 30 giorni di tempo per chiarire. Intanto parte un’iniziativa contro la discriminazione algoritmica: lettera aperta alla Ue, in campo anche un gruppo di esperte e avvocate di P4I-Digital360 capitanate da Anna Cataleta

Pubblicato il 29 Gen 2024

chatgpt 2

OpenAI ancora nel mirino del Garante Privacy. L’Autorità  ha notificato alla società che gestisce la piattaforma di intelligenza artificiale ChatGpt, l’atto di contestazione per aver violato la normativa in materia di protezione dei dati personali.

“A seguito del provvedimento di limitazione provvisoria del trattamento, adottato dal Garante nei confronti della Società lo scorso 30 marzo, e all’esito dell’istruttoria svolta, l’Autorità ha ritenuto che gli elementi acquisiti possano configurare uno o più illeciti rispetto a quanto stabilito dal Regolamento Ue”, spiega il Garante in una nota.

Dopo lo stop cautelare della scorsa primavera e i rimedi che OpenAI si era impegnata a mettere in pratica per rispondere ai rilievi, l’Autorità aveva aperto un’istruttoria sul sistema di GenAI; indagine che ha evidenziato importanti criticità. E le contestazioni di merito di oggi ricalcano quelle anticipate all’epoca con il provvedimento cautelare.

OpenAi, 30 giorni per “difendersi”.

OpenAI, avrà 30 giorni per comunicare le proprie memorie difensive in merito alle presunte violazioni contestate. Nella definizione del procedimento il Garante terrà conto dei lavori in corso nell’ambito della speciale task force, istituita dal Board che riunisce le Autorità di protezione dati dell’Ue (Edpb).

Lo stop cautelare a ChatGpt

Lo scorso 30 marzo il Garante Privacy aveva disposto, con effetto immediato, la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, aprendo contestualmente un’istruttoria.

Nel provvedimento, si rilevava la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI, ma soprattutto l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma.

Secondo l’Aurorità, inoltre, le info fornite da ChatGpt non corrispondono al dato reale, “determinando quindi un trattamento di dati personali inesatto”, si legge nel provevdimento dello scorso marzo.

Da ultimo, nonostante – secondo i termini pubblicati da OpenAI – il servizio sia rivolto ai maggiori di 13 anni, l’Autorità evidenziava come l’assenza di qualsivoglia filtro per la verifica dell’età degli utenti esponga i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza.

Le misure richieste a OpenAI

Sulla base del provvedimento di marzo l’Autorità, aveva chiesto ad OpenAI di adottare una serie di misure concrete.

  • Informativa. OpenAI dovrà predisporre e rendere disponibile sul proprio sito un’informativa trasparente, in cui siano illustrate modalità e logica alla base del trattamento dei dati necessari al funzionamento di ChatGPT nonché i diritti attribuiti agli utenti e agli interessati non utenti. L’informativa dovrà essere facilmente accessibile e collocata in una posizione che ne consenta la lettura prima di procedere all’eventuale registrazione al servizio. Per gli utenti che si collegano dall’Italia, l’informativa dovrà essere presentata prima del completamento della registrazione e, sempre prima del completamento della registrazione dovrà essere loro richiesto di dichiarare di essere maggiorenni. Agli utenti già registrati, l’informativa dovrà essere presentata al momento del primo accesso successivo alla riattivazione del servizio e, nella stessa occasione, dovrà essere loro richiesto di superare un age gate che escluda, sulla base dell’età dichiarata, gli utenti minorenni.
  • Base giuridica. Quanto alla base giuridica del trattamento dei dati personali degli utenti per l’addestramento degli algoritmi, il Garante privacy ha ordinato a OpenAI di eliminare ogni riferimento all’esecuzione di un contratto e di indicare, invece, in base al principio di accountability, il consenso o il legittimo interesse quale presupposto per utilizzare tali dati, fermo restando l’esercizio dei propri poteri di verifica e accertamento successivi a tale scelta.
  • Esercizio dei diritti. Ulteriori prescrizioni riguardano la messa a disposizione di strumenti utili per permettere agli interessati, anche non utenti, di chiedere la rettifica dei dati personali che li riguardano generati in modo inesatto dal servizio o la cancellazione degli stessi, nel caso la rettifica non fosse tecnicamente possibile. OpenAI, inoltre, dovrà consentire agli interessati non utenti di esercitare, in modo semplice e accessibile, il diritto di opposizione rispetto al trattamento dei loro dati personali utilizzati per l’esercizio degli algoritmi e riconoscere analogo diritto agli utenti, qualora individui il legittimo interesse quale base giuridica del trattamento.
  • Tutela dei minori. Per quanto riguarda la verifica dell’età dei minori, oltre all’immediata implementazione di un sistema di richiesta dell’età ai fini della registrazione al servizio, l’Autorità ha ordinato a OpenAI di sottoporle entro il 31 maggio un piano di azione che preveda, al più tardi entro il 30 settembre 2023, l’implementazione di un sistema di age verification, in grado di escludere l’accesso agli utenti infratredicenni e ai minorenni per i quali manchi il consenso dei genitori.
  • Campagna di informazione. Di concerto col Garante OpenAI dovrà infine promuovere una campagna di informazione su radio, televisione, giornali e web per informare le persone sull’uso dei loro dati personali ai fini dell’addestramento degli algoritmi.

“Regole certe per l’AI”: esperti e avvocati scrivono all’Ue

Regolamentare gli algoritmi di intelligenza artificiale per mitigare i rischi derivanti da bias e pregiudizi e sensibilizzare su un uso corretto di questi strumenti. È la richiesta contenuta nella lettera inviata alle istituzioni europee da un cospicuo gruppo di avvocati ed esperti di AI, su iniziativa e dell’avvocata Sabire Sanem Yılmaz  e di Anna Cataleta, avvocata e senior partner di P4I, società del gruppo Digital360. Oltre alla promotrice Cataleta, figurano le firme di altri esperti di P4I. Si tratta di Alessandra Nisticò, Mariaconcetta Oddo,
Aurelia Losavio e Anna Italiano.

“La lettera è stata sottoscritta da svariate professioniste, accademiche ed esperte del digitale e della protezione dei dati personali, le quali si sono unite alla causa con entusiasmo e trasporto”, scrive Cataleta in un lungo post su Linkedin. Ma si tratta di una battaglia che non è e non deve esclusivo appannaggio delle donne. “Anche tutti gli uomini dovrebbero farsi promotori di simili iniziative ed è per questo che tale progetto ha trovato l’appoggio di numerosi professionisti e amici”, spiega Cataleta.

“È fondamentale – conclude – che vi sia coesione nella società intera per comprendere, prevenire e combattere tali fenomeni negativi, di modo da creare uno spazio di vita migliore per tutti. Questo, con l’auspicio che in futuro le cose possano cambiare veramente e che i più forti possano combattere al fianco dei più deboli contro le ingiustizie sociali.

SCARICA QUI LA LETTERA

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4