LA RECENSIONE

Contratti a prova di robot: la rivoluzione giuridica dell’intelligenza artificiale

Il saggio a firma di Antongiulio Lombardi e Giulio Lombardi apre una finestra sui nodi ancora irrisolti a partire dalla proposta di regolamento europeo. Opportunità da cogliere per la nuova generazione di giuristi

Pubblicato il 27 Ott 2021

artificiale-intelligenza-AI-robotica

Già l’immagine in copertina la dice lunga: un mare sterminato, con scogli affioranti. Ma anche, sotto la superficie, un mondo subacqueo che rivela tutti i suoi strati. E uno di quegli strati è costituito dallo stesso “generatore” di immagini: il cervello. Si apre in questo modo, con una “visione” distopica, il libro “Intelligenza artificiale, contratto e responsabilità civile” scritto da Antongiulio Lombardi e Giulio Lombardi (il libro è edito da Progetto Cultura, 272 pagine, 15 euro).

L’Intelligenza artificiale e la proposta europea

A partire dalla proposta di Regolamento europeo del 21 aprile 2021, il libro indaga i risvolti giuridici ed etici delle applicazioni di Intelligenza artificiale, entrando nel vivo degli aspetti ancora da chiarire: l’esigenza che un codice di condotta “etico” sia affiancato agli smart legal contract che sono costituiti da un programma un testo intellegibile agli esseri umani. L’esigenza che sia formata una nuova professione di giuristi tecnici in grado di assicurare la trasformazione delle esigenze dei clienti in linguaggio informatico con valenza giuridica. E la modificabilità degli smart contract.

Una rivoluzione ancora da governare

Perché, spiega il libro, con l’intelligenza artificiale siamo di fronte ad una rivoluzione che se orientata dal principio con regole chiare potrà essere di utilità a tutti abbassando il carico di lavoro e creando nuove professionalità.

“L’intelligenza artificiale – scrivono i due autori – sta infatti sta diventando parte costante della nostra vita, spesso senza che ci sia dato modo di esserne consapevoli: negli ultimi anni il tasso di crescita dell’utilizzo di sistemi di IA è stato costante e l’andamento secondo le aspettative non sembra cambierà sino al 2026″.

Dopo il passaggio dalla società agricola a quella industriale  e quello alla società dell’informazione, nelle quali il ruolo dell’uomo era ancora indubbiamente centrale e preponderante, si sta passando oggi ad una “società dell’algoritmo” nella quale l’individuo rischia di perdere la sua centralità a vantaggio di un procedimento che risolve classi di problemi, un algoritmo appunto.

Le questioni etiche in gioco

In tale ambito, risulta centrale per i giuristi studiare le implicazioni dell’introduzione, utilizzo ed attività di sistemi di intelligenza artificiale sia che interagiscano con il mondo attraverso una serie più o meno diffusa di sensori (che possono essere apparati Iot, ma definiti come  “Oracles” dal punto di vista della blockchain), sia attraverso sistemi in grado di “agire” direttamente nel mondo reale, come sono i robot.

È comunque certo, ricordano gli autori, che la AI sia una opportunità e che il ritardo del suo utilizzo sia in generale un danno.

A supporto del loro excursus viene ricordata l’esperienza costituita da Sophia24, un sistema avanzato di AI, in esercizio dal 2015 con aspetto umano realizzato ad Hong Kong dalla Hanson Robotic con Alphabet, la casa madre di Google, e SingularityNET. Sophia sta partecipando a spettacoli ed eventi dalla sua attivazione e riesce a rispondere in modo corretto ai quesiti che le sono posti.

È il primo soggetto che il 25 ottobre 2017 ha ottenuto la cittadinanza e quindi il riconoscimento della personalità dall’Arabia Saudita e poco dopo il titolo di “champion” dell’United Nations Development Program.

Il nodo della “soggettività giuridica”

L’attuale contesto normativo, se utilizzabile per sopperire alla carenza di una disciplina specifica,  dovrebbe essere affiancato da una normativa organica volta a identificare e disciplinare i ruoli, le relazioni e le obbligazioni connesse all’utilizzo di sistemi di AI.

La proposta di Regolamento del 21 aprile 2021 in gran parte norma e indirizza tale esigenza ma ci sono alcuni aspetti centrali irrisolti che la proposta di Regolamento non tocca: come la soggettività giuridica dell’AI che diventerà, a breve, un’esigenza non più procrastinabile.

Risultano in questo senso centrali la consapevolezza dell’essere umano di interagire con l’Intelligenza artificiale e la possibilità di monitoraggio delle scelte effettuate dall’AI e la presenza di un codice di condotta “etico” ancora oggi di quasi impossibile realizzazione.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati