Intelligenza artificiale, va colmata la lacuna normativa - CorCom

L'INTERVENTO

Intelligenza artificiale, va colmata la lacuna normativa

Molti prodotti sul mercato sono una complessa combinazione di hardware, software e servizi tecnologic:i: è auspicabile una soluzione che riesca a contemperare gli interessi degli utilizzatori con quelli degli operatori digitali, in modo da non disincentivare lo sviluppo tecnologico. L’analisi di Francesca Rolla

01 Dic 2020

Francesca Rolla

Socio responsabile Dipartimento contenzioso Hogan Lovells

L’intelligenza artificiale e altre tecnologie emergenti svolgono un ruolo fondamentale nella trasformazione digitale della società ma presentano allo stesso tempo elevati profili di rischio che necessitano di adeguata regolamentazione. Ci si riferisce, in particolare, alla responsabilità civile per i danni che possano essere causati da sistemi di intelligenza artificiale e alla conseguente tutela per i consumatori.

Attualmente non esiste una normativa uniforme che disciplini in via specifica la responsabilità per i danni che possano derivare da applicazioni di intelligenza artificiale e si fa ancora riferimento alla Direttiva 85/374/CEE sulla responsabilità del produttore, come poi recepita dai diversi Stati membri, oltre che ai vari regimi di responsabilità civile previsti dalle normative nazionali (quali, in Italia, le disposizioni del codice civile sulla responsabilità extracontrattuale – articolo 2043 c.c. – e sulla responsabilità per esercizio di attività pericolose – art. 2050 c.c.).

La normativa uniforme di cui alla Direttiva 85/374/CEE, tuttavia, fu adottata in un’epoca in cui i prodotti non includevano elementi IoT e di intelligenza artificiale, mentre molti prodotti attualmente immessi sul mercato sono una complessa combinazione di hardware, software, servizi tecnologici e ci si si sta muovendo verso un futuro in cui tali prodotti potrebbero evolversi e funzionare, attraverso l’IA, senza input dell’uomo. Si pensi ai veicoli a guida autonoma, ai dispositivi medici interconnessi o ai sistemi di IA utilizzati nei dispositivi smart-home dove, in caso di danno all’utilizzatore o a terzi, non è agevole individuare con certezza il soggetto responsabile e/o la root cause del difetto.

La Commissione Ue ha dunque avviato uno studio volto a individuare le lacune e le incertezze normative e verificare i costi della frammentazione delle leggi nazionali in tema di responsabilità civile per l’IA. Nel contempo, il Parlamento Europeo ha approvato, il 20 ottobre scorso, tre raccomandazioni sul tema della intelligenza artificiale, una delle quali (A9-0178/2020) riguarda proprio la questione del regime della responsabilità civile per danni arrecati da sistemi di IA: suggerendo, tra l’altro, una revisione della direttiva sulla responsabilità da prodotto difettoso che chiarisca se applicazioni di intelligenza artificiale rientrino nella categoria dei “prodotti”, riveda la definizione di difetto, di danno e di produttore responsabile (eventualmente includendo sviluppatori e programmatori di sistemi di IA e degli operatori front-end e back-end).

WEBINAR
Intelligenza Artificiale: nuovi scenari e nuove regole. Scoprilo nel webinar del 3 febbraio
Intelligenza Artificiale
Istruzione

Lo studio avviato dalla Commissione, non diversamente dalla raccomandazione del Parlamento, si propone non solo di valutare una modifica della direttiva (eventualmente convertendola in un Regolamento comunitario, di diretta applicazione nei vari Stati membri) ma di considerare una riforma più incisiva dei regimi di responsabilità, diversificandoli a seconda del livello di rischio e della sua gestione. E così, mentre per i sistemi di AI qualificati “non ad alto rischio” si potrebbe continuare a far riferimento alla normativa attuale e alla responsabilità per colpa, nelle sue diverse gradazioni (e ferme le opportune revisioni, per esempio sulla ripartizione dell’onere della prova), per i sistemi “ad alto rischio” potrebbe essere adottata una disciplina specifica fondata sul cd. risk approach: in altri termini, una disciplina che attribuisca la responsabilità civile ai soggetti che, nei processi di progettazione, gestione e utilizzo dei sistemi di IA, sono in condizione di incidere sul rischio e calibrare il rapporto rischi/benefici.

Un ulteriore e non meno importante aspetto riguarda l’eventuale imposizione di obblighi assicurativi, come già previsto dalle norme sulla responsabilità civile in altri settori critici. La previsione di un tale obbligo potrebbe rassicurare circa l’uso dei sistemi di IA ma rischia di essere eccessivamente oneroso e, dunque, la Commissione dovrà valutare, in collaborazione con le società di assicurazione, lo sviluppo di polizze innovative in linea con le caratteristiche del settore.

Occorre ora attendere l’esito delle valutazioni che la Commissione sta conducendo – e la successiva adozione dei provvedimenti normativi – per apprezzarne l’impatto su tutti gli stakeholders. Certamente, è auspicabile che la soluzione prescelta riesca a contemperare gli interessi degli utilizzatori dei sistemi di IA (e, dunque, dei potenziali danneggiati) con quelli degli operatori digitali, in modo da non disincentivare lo sviluppo tecnologico.

@RIPRODUZIONE RISERVATA
Argomenti trattati

Approfondimenti

I
intelligenza artificiale

Articolo 1 di 4