IL REPORT

Etica e intelligenza artificiale, siamo all’anno zero. Si rischia l’effetto boomerang

Secondo i risultati di uno studio Capgemini nell’ultimo anno sono state poche le iniziative delle aziende per evitare azioni discriminatorie e tutelare la privacy degli utenti. E la mancanza di strategie efficaci sta generando malcontenti e segnalazioni, anche di tipo legale, per “disconettersi” da chatbot e altri sistemi automatici. Serve un piano per uscire dall’impasse

Pubblicato il 05 Ott 2020

Antonio Dini

azure-intelligenza-artificiale-140618100713

Intelligenza artificiale ed etica: ormai è un binomio necessario e riconosciuto da tutti, anche dalle aziende che implementano nuove soluzioni. Però, dice un rapporto di Capgemini, i progressi nell’implementazione di una intelligenza artificiale etica sono stati inconsistenti nell’ultimo anno.

Infatti, secondo il rapporto “Ai and the ethical conundrum: How organizations can build ethically robust Ai systems and gAin trust”, mentre il 65% dei dirigenti dichiara di essere a conoscenza di un problema di bias discriminatori relativi ai sistemi di intelligenza artificiale, quasi il 60% delle organizzazioni è finito sotto esame dal punto di vista giuridico, mentre il 22% ha dovuto far fronte a un calo di clienti negli ultimi due o tre anni a causa delle decisioni prese dai sistemi di Ai.

In particolare, secondo la ricerca, il 45% dei clienti ha affermato di voler condividere le proprie esperienze negative con familiari e amici e consigliare loro di non rivolgersi a una data organizzazione, il 39% ha sostenuto che condividerà le proprie preoccupazioni con l’azienda in questione esigendo una spiegazione, e un altro 39% ha ribadito che lascerà il canale di intelligenza artificiale a favore di una più costosa interazione umana. Più di un quarto dei consumatori (27%) ha affermato di essere disposto a interrompere completamente i rapporti con una data organizzazione in seguito a un’esperienza negativa. La percentuale di clienti che credono che le organizzazioni siano completamente trasparenti riguardo a come usano i loro dati personali è scesa dal 76% del 2019 al 62% di oggi. Solo il 53% delle organizzazioni presenta una figura dedicata alle questioni etiche relative Ai sistemi di intelligenza artificiale.

Infine, la necessità per le organizzazioni di implementare un codice etico è dettata anche da un quadro regolamentare più stringente. Tuttavia, mentre nel 2019 il 73% delle organizzazioni globali aveva informato gli utenti sui diversi modi in cui le decisioni supportate dall’Ai possono avere un impatto sui clienti, oggi questa percentuale è scesa al 59%.

Lo studio di Capgemini mette in evidenza sette azioni chiave che le organizzazioni possono implementare per costruire un sistema di Ai eticamente solido. La prima è delineare chiaramente lo scopo dei sistemi di Ai e valutarne l’impatto potenziale complessivo. La seconda è implementare in modo proattivo l’Ai, a beneficio della società e dell’ambiente. La terza è incorporare proattivamente la diversità e i principi di inclusione nel ciclo di vita dei sistemi di Ai. Al quarto posto c’è l’aumento della trasparenza con l’aiuto di strumenti tecnologici. Al quinto umanizzare l’esperienza delle Ai e garantire la supervisione umana dei sistemi di Ai. Al sesto garantire la robustezza tecnologica dei sistemi di Ai. Infine, al settimo proteggere la privacy individuale delle persone, responsabilizzandole e incaricandole delle interazioni con l’Ai.

@RIPRODUZIONE RISERVATA

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Argomenti trattati

Aziende

C
capgemini

Approfondimenti

I
intelligenza artificiale