LA SURVEY

Intelligenza artificiale, il 34% delle aziende italiane ha già un Chief AI

Ma solo il 28% dei dirigenti considera la propria organizzazione pienamente preparata e il 49% evidenzia la necessità di una regolamentazione ad hoc. Energia, finanza e tecnologia i settori più preparati per le nuove sfide. In coda assicurazioni e beni di consumo. L’analisi di Bcg

Pubblicato il 03 Mag 2023

Schermata 2023-05-03 alle 13.11.18

L’Italia si dimostra già preparata in vista dell’arrivo di un quadro normativo specifico sull’intelligenza artificiale: il 49% di dirigenti del Belpaese si dicono infatti convinti della necessità di una regolamentazione per l’uso dell’AI, contro la media europea del 35%, mentre il 34% afferma inoltre di avere già un Chief AI operativo all’interno della propria organizzazione. Il tutto mentre, a livello globale, solo il 28% dei dirigenti afferma che la propria organizzazione è pienamente preparata ad affrontare le nuove normative in questo ambito.

Sono alcune delle evidenze che emergono dallo studio di Bcg Five Ways to Prepare for AI Regulation”, indagine globale e annuale condotta su 2.700 dirigenti nel mondo ormai alla sesta edizione, secondo la quale il modo migliore che le aziende hanno per affrontare le regolamentazioni è implementare un programma di Intelligenza artificiale responsabile (RAI), fondato cioè su principi volti a garantire la responsabilità, la trasparenza, la privacy e la sicurezza, nonché l’equità e l’inclusione nel modo in cui si sviluppano e si utilizzano gli algoritmi.

AI Act europeo: l’apripista

L’AI Act europeo, anche se in fase di proposta, è l’esempio del primo regolamento che istituisce un quadro giuridico volto a regolare lo sviluppo, la commercializzazione e l’uso dell’intelligenza artificiale in conformità con i valori e i diritti costituzionali dell’Ue. La proposta di regolamentazione stabilisce delle regole per l’immissione sul mercato e per l’uso dei sistemi di intelligenza artificiale, vieta pratiche come la sorveglianza biometrica di massa e la valutazione del credito basata sul social scoring e propone sanzioni pecuniarie per un massimo del 6% del fatturato alle aziende che attuano pratiche vietate. L’Italia, nello specifico, ha lanciato il “Programma strategico per l’intelligenza artificiale 2022-2024”, che delinea 24 politiche per accelerare l’innovazione e le potenzialità dell’AI nel tessuto economico e sociale del Paese.

WHITEPAPER
Ottimizzare i processi per risparmiare risorse: tutto quello che puoi fare con RPA
Robotica
Machine Learning

“L’intelligenza artificiale responsabile è valutata da molti esclusivamente in ottica di compliance, mentre in realtà rappresenta un insieme di fattori abilitanti verso l’innovazione”, spiega Enzo Barba, partner di Bcg X, divisione della società di consulenza specializzata sull’AI. “Le iniziative Rai possono infatti rappresentare il quadro di riferimento sia per chi crea strumenti di intelligenza artificiale che per chi li utilizza, aiutando entrambe le parti a confrontarsi positivamente con la regolamentazione. Questo aspetto è rilevante soprattutto per le aziende italiane che si trovano ad operare in un contesto regolamentare molto attento alle dinamiche di sviluppo delle nuove tecnologie e del loro impatto sulla privacy degli utenti – basti pensare al blocco di ChatGpt da parte del Garante della Privacy: anche se l’accesso è stato riattivato a fine aprile, questa iniziativa potrebbe fare da apripista per i lavori di una task force europea sul tema. Definire un quadro comune e condiviso potrebbe quindi richiedere del tempo, ma le aziende possono contribuire a plasmare il panorama normativo piuttosto che esserne sopraffatte, se si attivano nell’immediato.”

In Italia Energy, Finance e Tech i settori più preparati

Per le aziende  è fondamentale cogliere velocemente il momento per plasmare il panorama di riferimento, ma la maturità in tema Rai non può che corrispondere alla maturità digitale e alcune aziende risultano più avanti di altre. Quelle classificate nel quartile superiore del Digital Acceleration Index, infatti, hanno quasi 6 volte più probabilità di essere pienamente preparate alla regolamentazione dell’AI rispetto a quelle che si trovano nel quartile inferiore, mostrando una maggiore capacità di adattamento.

A livello globale, i settori delle telecomunicazioni, del tech e dei beni di consumo hanno riportato i livelli più alti di preparazione, mentre il settore dell’energia e quello pubblico sono in coda.
In Italia la situazione cambia: le aziende del settore energetico risultano essere le più preparate alla regolamentazione AI (89%), insieme alle realtà finanziarie (87.5%) e tecnologiche (83%). In coda, invece, i settori assicurativo e dei beni di consumo.

Le cinque leve abilitanti

Per implementare programmi di intelligenza artificiale responsabile non esiste un approccio universale, ma Bcg individua alcune leve fondamentali per le aziende.

È necessario innanzitutto che la leadership sia responsabilizzata: un leader di AI responsabile, che conosce le politiche e le esigenze aziendali e che si avvale di un team interfunzionale, sa mettere a punto strategie che generano benefici dall’AI, oltre che saper garantire la conformità alle normative emergenti.
È poi importante costruire e diffondere in azienda un quadro etico dell’AI per assicurarsi di soddisfare i nuovi requisiti senza ostacolare obiettivi e investimenti. Due terzi delle aziende che hanno partecipato all’indagine sui livelli di maturità digitale (DAI), stanno già compiendo passi importanti verso la creazione di un quadro di riferimento di questo tipo, ad esempio garantendo che gli sviluppatori comprendano fin dall’inizio gli obiettivi di un sistema e i risultati che esso genera, ma anche informando gli utenti su come i sistemi di AI utilizzano i loro dati.
Un altro elemento cruciale è il coinvolgimento umano nei processi e nelle piattaforme di AI: anche in questo caso le aziende più mature dal punto di vista digitale sono già all’avanguardia, dato che hanno più del doppio delle probabilità rispetto ai colleghi di attribuire un alto grado di importanza a pratiche fondamentali (come cicli di feedback e meccanismi di revisione) e di applicarle in modo coerente.
Dato che uno degli obiettivi dei programmi di Rai è individuare e risolvere i problemi il più presto possibile lungo l’intero ciclo di vita di un sistema di AI, occorre garantire che i principi fondamentali come trasparenza e inclusione siano incorporati nei processi di creazione e di lavoro con gli algoritmi. In seconda analisi, le aziende dovrebbero costruire o adottare uno strumento per condurre revisioni end-to-end, non solo degli algoritmi ma anche dei processi e dei risultati aziendali. Queste revisioni dovrebbero essere continue: dalla fase di sviluppo, alla prototipazione e all’implementazione in scala.
Infine, è necessario partecipare all’ecosistema Rai, ossia contribuire attivamente a un consorzio o gruppo di lavoro.

@RIPRODUZIONE RISERVATA

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articolo 1 di 3