Dal lavoro congiunto di studiosi dell’università di Bologna e dell’università di Oxford nasce una sorta di manuale delle istruzioni (SCARICA QUI IL REPORT COMPLETO) per mettere in guardia le aziende dai rischi etici legati all’uso dell’intelligenza artificiale. Un ‘manuale’, prodotto dalle due Università, che ha lo scopo di “proteggere le persone, la società, e l’ambiente dai rischi dell’AI, offrendo alle organizzazioni un nuovo approccio per sviluppare e gestire queste tecnologie in linea con le future normative europee”.
La nuova metodologia di ‘auditing’ è “unica al mondo” e nasce appunto come risposta alla proposta di regolamento sull’intelligenza artificiale avanzata lo scorso anno dalla Ue, documento che si propone di coordinare l’approccio europeo rispetto alle implicazioni umane ed etiche dell’Ia.
Obiettivo: prevenire o ridurre i rischi
Messa a punto da un gruppo di esperti del Centro per l’etica digitale (Cede) attivo al Dipartimento di scienze giuridiche dell’università di Bologna, della Saïd Business School e dell’Oxford Internet Institute dell’Università di Oxford, ‘Capai’, acronimo di ‘Conformity assessment procedure for AI’, aiuterà le imprese ad “adeguarsi alla futura legislazione europea – spiega l’Alma Mater – prevenendo o comunque riducendo il rischio che i sistemi di intelligenza artificiale si comportino in modo non etico e provochino danni a singoli individui, alle comunità, alla società più in generale e all’ambiente”.
La procedura sarà utile ad esempio per valutare i sistemi di intelligenza artificiale “in modo da prevenire violazioni della privacy e un utilizzo scorretto dei dati“. Inoltre, questo nuovo strumento “offrirà supporto per spiegare i risultati ottenuti da sistemi AI e per lo sviluppo e l’attivazione di sistemi affidabili e conformi” al dettato europeo. Le imprese saranno dunque in grado di valutare i propri sistemi di intelligenza artificiale, mostrando anche ai clienti come vengono gestiti e utilizzati. Questa scheda di valutazione tiene conto degli obiettivi del sistema di AI, dei valori organizzativi che lo sostengono e dei dati che sono stati utilizzati per attivarlo. Inoltre, include informazioni sul responsabile del sistema, insieme ai suoi contatti, nel caso in cui i clienti desiderino mettersi in contatto per dubbi o domande.
Tecnologia “potenzialmente pericolosa”
“L’intelligenza artificiale, nelle sue molteplici forme, è pensata come strumento a beneficio dell’umanità e dell’ambiente. E’ una tecnologia estremamente potente, ma può diventare anche pericolosa – spiega Luciano Floridi, direttore del Centro per l’etica digitale (Cede) dell’Alma Mater di Bologna e docente a Oxford -, per questo abbiamo sviluppato una metodologia di audit in grado di verificare che i sistemi di AI siano in linea con la legislazione europea e rispettino i principi etici. In questo modo possiamo contribuire a garantire lo sviluppo e l’utilizzo corretto di queste tecnologie”.
Per mettere a punto il percorso, aggiunge Matthias Holweg, della Said Business School e coautore del progetto, “abbiamo prima di tutto creato il più completo database esistente sugli errori prodotti da sistemi di AI. A partire da questo database, segnalando i problemi più comuni e descrivendo in dettaglio le migliori ‘best practices’, abbiamo poi creato una ‘cassetta degli attrezzi’ unica al mondo per aiutare le organizzazioni a sviluppare e gestire sistemi di intelligenza artificiale a norma di legge, tecnicamente solidi e rispettosi dei principi etici. La nostra speranza è che ‘Capai‘ possa diventare un processo standard per tutti i sistemi Ia e prevenire così i tanti problemi etici nati fino ad oggi”.