“Il G7 dei Garanti privacy rappresenta un momento di fondamentale importanza per la futura governance dell’intelligenza artificiale. Da un lato, con questo appuntamento ospitato e organizzato dalla nostra Autorità, l’Italia è al centro a livello internazionale del dibattito sullo sviluppo di una data economy competitiva e rispettosa dei diritti e delle libertà fondamentali. Dall’altro, i lavori svolti durante questo summit sul fronte dell’intelligenza artificiale e della relativa governance contribuiranno in modo decisivo alla costruzione di un quadro solido per lo sviluppo di un’IA antropocentrica e sostenibile da un punto di vista etico e legale”.
Rocco Panetta, avvocato tra i massimi esperti internazionali di diritto dei dati e dell’AI – che si è guadagnato sul campo l’appellativo di “avvocato dell’intelligenza artificiale”, avendo assistito lo scorso anno Replika e ChatGpt nelle prime investigazioni al mondo svolte proprio dal Garante italiano contro le due piattaforme di AI generativa – fa il punto con CorCom sugli impatti e i principali temi al centro del G7 dei Garanti privacy, il summit organizzato dal Garante italiano che riunisce a Roma le Autorità competenti di Canada, Francia, Germania, Giappone, Regno Unito e Stati Uniti, oltre al Comitato europeo della protezione dei dati (Edpb) e al Garante europeo della protezione dei dati (Edps).
Avvocato Panetta, quali sono i temi portanti del G7 dei Garanti privacy?
Si tratta sicuramente di un appuntamento dai molti e fondamentali significati. Tra questi, desidero citare per primo il fatto che questo G7 si svolge in Italia ed è organizzato dalla nostra Autorità Garante. È inoltre il primo incontro ufficiale delle Autorità di controllo sui dati a valle dell’approvazione dell’AI Act europeo e del copioso e complesso pacchetto digitale dell’Ue. Il quadro è cambiato dall’ultima volta in cui il G7 si è tenuto a Roma. Allora teneva banco solo l’imminente entrata in vigore del Gdpr. Una norma importante, attuale, fondamentale ma la cui concezione è stata varata oltre un decennio fa. Le sfide oggi sono diverse e purtroppo sono anche più complesse da gestire.
L’intelligenza artificiale è dunque il focus. A che punto siamo in termini di governance della tecnologia?
La sfida posta alla nostra società dall’intelligenza artificiale è come un prisma e, in quanto tale, deve essere affrontata da più prospettive contemporaneamente. Ciò significa prendere ciò che di meglio questa tecnologia è in grado di offrire, per la collettività, per ogni individuo, ma anche per aziende e pubbliche amministrazioni. Al contempo, occorre mantenere sempre alta la guardia. L’intelligenza artificiale ha il potenziale di alterare radicalmente le nostre vite da innumerevoli punti di vista. Pensiamo, ad esempio, agli impatti economici di questo nuovo mercato, con tutto ciò che può derivarne in termini di competitività e concorrenza, anche nei confronti dei Paesi non europei. Pensiamo, ancora, alle conseguenze di uno sviluppo tecnologico senza limiti, in grado potenzialmente di incidere anche sulle nostre componenti più intime, come nel caso delle neurotecnologie. Stefano Rodotà diceva spesso che non tutto ciò che è tecnologicamente possibile è anche socialmente desiderabile, eticamente accettabile, giuridicamente legittimo. E oggi, forse come non mai, questa riflessione deve essere la nostra stella polare. Cosa che, del resto, ci ricorda anche la storia di Geoffrey E. Hinton, fresco vincitore del Premio Nobel per la fisica e l’informatica assieme a John J. Hopfield, un padre dell’IA preoccupato per le conseguenze che potrebbe creare nel mondo la propria creatura proprio rispetto alla tenuta della democrazia e della libertà, visti gli alti rischi di manipolazione che essa reca con sé.
Cosa occorre fare dunque?
Una solida cornice etica e giuridica per lo sviluppo di un’IA antropocentrica, con la tutela dei diritti e delle libertà fondamentali, è ciò da cui dobbiamo partire e il punto a cui occorre approdare. Abbiamo una nuova normativa ad hoc, l’Artificial Intelligence Act, pienamente in vigore e pronta ad entrare in applicazione con le prime norme il prossimo febbraio. Un testo complesso, sicuramente non perfetto ma certamente fondamentale, e che in Italia si appresta ad essere affiancato da una legge nazionale in materia, allo stato in discussione in Parlamento. C’è poi la normativa sulla circolazione e protezione dei dati personali, che già regolamenta e governa questo fenomeno della tecnica. E poi c’è anche il lavoro dei Garanti in questo G7, un esempio virtuoso di cooperazione e collaborazione internazionale. Ma soprattutto occorre capire che il piano dello sviluppo e del sostegno agli investimenti in AI non può e non deve essere frenato o messo in discussione dall’altrettanto fondamentale protezione dei diritti delle persone dagli impatti potenzialmente devastanti che l’AI potrebbe avere. Sono piani paralleli che richiedono stimoli e sostegni diversi, ma non inconciliabili. L’esperienza fin qui maturata con il Gdpr e con i continui bilanciamenti tra esigenze di business e tutela dei diritti fondamentali a cui il Gdpre ci richiama di continuo ha tracciato la strada virtuosa di come si possano conciliare opposte forze.
Proprio il tema della cooperazione tra Autorità in ambito AI è uno dei nodi da sciogliere. Qual è la sua opinione a riguardo?
Il coordinamento tra Autorità non è una questione che nasce con l’intelligenza artificiale, ma con la data economy. La trasversalità di questa economia fondata sui dati è in grado di attirare la competenza di più Autorità in relazione a medesimi fatti o fenomeni. Pensiamo, solo per fare un esempio, alle sempre più frequenti interconnessioni tra circolazione e protezione dei dati personali e concorrenza. Già in passato, e ne sono stato diretto testimone nei miei anni come Dirigente del Garante, ci sono stati fortunati esperimenti di cooperazione tra Autorità. Oggi, di fronte alla complessa sfida dell’intelligenza artificiale, si tratta di rendere stabili, strutturate e sistematiche certe dinamiche di cooperazione. In più occasioni mi sono spinto pubblicamente a parlare di un “Garante dei Dati e dell’IA”. Forse i tempi non sono maturi per una trasformazione così netta, ma esistono numerose altre sfumature di cooperazione che possono e devono essere attuate. Ma di certo non si può relegare questo profilo alla marginalità della buona volontà delle persone che di volta in volta possono valutare se e come collaborare tra loro. Occorre uno sforzo regolamentare, un patto tra Autorità, in attesa di un riordino legislativo del settore.
Qualche esempio? E cosa dovrebbe fare l’Italia?
Nel Regno Unito, ad esempio, è stato istituito il Digital Regulation Cooperation Forum, un forum volontario per semplificare il coordinamento tra le principali autorità con competenza in ambito di regolamentazione del digitale. Lo stesso disegno di legge italiano in materia di intelligenza artificiale prevede l’istituzione presso la Presidenza del Consiglio di un “Comitato di coordinamento”, composto dai direttori generali dell’Agenzia per l’Italia Digitale e dell’Agenzia per la Cybersicurezza Nazionale e dal capo del Dipartimento per la trasformazione digitale. È chiaro che ogni esperimento e soluzione è un buon punto di partenza, ma il successo di ogni iniziativa passa obbligatoriamente attraverso il più esteso coinvolgimento possibile. E in questo, non c’è dubbio, che il ruolo e il contributo delle Autorità data protection dovrà essere sempre tenuto in altissima considerazione, proprio perché essenziale per la tutela di un diritto – quello alla protezione dei dati personali – che è precondizione per il godimento di molti altri diritti e libertà, tutti interessati dalla rivoluzione dell’intelligenza artificiale e proprio perché ormai tutti i settori e gli ambiti della società e dell’economia partono dai dati. Il mercato dei dati è diventato il motore immobile di ogni altro mercato. In tal senso, aspetto con grande interesse di leggere la proposta su “Il ruolo delle Autorità di protezione dei dati nel quadro della governance dell’intelligenza artificiale”.