Etica e intelligenza artificiale, siamo all'anno zero. Si rischia l'effetto boomerang - CorCom

IL REPORT

Etica e intelligenza artificiale, siamo all’anno zero. Si rischia l’effetto boomerang

Secondo i risultati di uno studio Capgemini nell’ultimo anno sono state poche le iniziative delle aziende per evitare azioni discriminatorie e tutelare la privacy degli utenti. E la mancanza di strategie efficaci sta generando malcontenti e segnalazioni, anche di tipo legale, per “disconettersi” da chatbot e altri sistemi automatici. Serve un piano per uscire dall’impasse

05 Ott 2020

Antonio Dini

Intelligenza artificiale ed etica: ormai è un binomio necessario e riconosciuto da tutti, anche dalle aziende che implementano nuove soluzioni. Però, dice un rapporto di Capgemini, i progressi nell’implementazione di una intelligenza artificiale etica sono stati inconsistenti nell’ultimo anno.

Infatti, secondo il rapporto “Ai and the ethical conundrum: How organizations can build ethically robust Ai systems and gAin trust”, mentre il 65% dei dirigenti dichiara di essere a conoscenza di un problema di bias discriminatori relativi ai sistemi di intelligenza artificiale, quasi il 60% delle organizzazioni è finito sotto esame dal punto di vista giuridico, mentre il 22% ha dovuto far fronte a un calo di clienti negli ultimi due o tre anni a causa delle decisioni prese dai sistemi di Ai.

In particolare, secondo la ricerca, il 45% dei clienti ha affermato di voler condividere le proprie esperienze negative con familiari e amici e consigliare loro di non rivolgersi a una data organizzazione, il 39% ha sostenuto che condividerà le proprie preoccupazioni con l’azienda in questione esigendo una spiegazione, e un altro 39% ha ribadito che lascerà il canale di intelligenza artificiale a favore di una più costosa interazione umana. Più di un quarto dei consumatori (27%) ha affermato di essere disposto a interrompere completamente i rapporti con una data organizzazione in seguito a un’esperienza negativa. La percentuale di clienti che credono che le organizzazioni siano completamente trasparenti riguardo a come usano i loro dati personali è scesa dal 76% del 2019 al 62% di oggi. Solo il 53% delle organizzazioni presenta una figura dedicata alle questioni etiche relative Ai sistemi di intelligenza artificiale.

WHITEPAPER
Come migliorare la redditività grazie alla digital transformation nel settore industriale
Digital Transformation
IoT

Infine, la necessità per le organizzazioni di implementare un codice etico è dettata anche da un quadro regolamentare più stringente. Tuttavia, mentre nel 2019 il 73% delle organizzazioni globali aveva informato gli utenti sui diversi modi in cui le decisioni supportate dall’Ai possono avere un impatto sui clienti, oggi questa percentuale è scesa al 59%.

Lo studio di Capgemini mette in evidenza sette azioni chiave che le organizzazioni possono implementare per costruire un sistema di Ai eticamente solido. La prima è delineare chiaramente lo scopo dei sistemi di Ai e valutarne l’impatto potenziale complessivo. La seconda è implementare in modo proattivo l’Ai, a beneficio della società e dell’ambiente. La terza è incorporare proattivamente la diversità e i principi di inclusione nel ciclo di vita dei sistemi di Ai. Al quarto posto c’è l’aumento della trasparenza con l’aiuto di strumenti tecnologici. Al quinto umanizzare l’esperienza delle Ai e garantire la supervisione umana dei sistemi di Ai. Al sesto garantire la robustezza tecnologica dei sistemi di Ai. Infine, al settimo proteggere la privacy individuale delle persone, responsabilizzandole e incaricandole delle interazioni con l’Ai.

@RIPRODUZIONE RISERVATA
Argomenti trattati

Aziende

C
capgemini

Approfondimenti

I
intelligenza artificiale

Articolo 1 di 4