IL REPORT

Intelligenza artificiale, la sicurezza dei dati bestia nera delle imprese

Secondo i dati Ibm il 42% dei manager italiani teme per le informazioni. Al top tra le preoccupazioni anche la mancanza di competenze adeguate

Pubblicato il 20 Mag 2022

chat gpt

È la sicurezza dei dati la maggiore preoccupazione delle aziende che utilizzano sistemi di intelligenza artificiale. Lo rileva l’AI for business adoption study, l’indagine Ibm che ha coinvolto oltre 8000 decision-maker aziendali in più di 20 paesi nel mondo per comprendere non solo a che punto è l’adozione dell’intelligenza artificiale, ma anche in quali direzioni si sta muovendo la sua applicazione – prime fra tutte, l’accelerazione della sostenibilità e dell’utilizzo etico – e quali sono i principali bias e ostacoli da superare.

Ne dettaglio, per i professionisti IT a livello globale, la preoccupazione principale nell’utilizzo di soluzioni di intelligenza artificiale rimane legata alla sicurezza dei dati: in Italia, è fattore di preoccupazione per il 42% degli intervistati, seguito dalla capacità di assicurare governance, compliance e privacy dei dati.

In Italia il 42% delle imprese italiane sta considerando l’utilizzo del Natural Language Processing (NLP) per affrontare questioni di security.

Trasparenza e presenza di un quadro etico all’interno del quale i modelli di intelligenza artificiale sono costruiti, gestiti e utilizzati sono sempre più fattori determinanti del successo di un’azienda sul mercato. Per l’83% dei professionisti intervistati, i consumatori sono più propensi a rivolgersi a un’impresa che sia in grado di dare evidenza a questi aspetti.

Tra le aspirazioni e la realtà, però, si frappongono diversi ostacoli, primo fra tutti la mancanza di professionisti con le giuste competenze per sviluppare e gestire una AI etica (indicato da circa 6 intervistati su 10). Non meno rilevanti la mancanza di linee guida a tutti i livelli – governativo, di settore, e aziendale – e la presenza di bias già all’interno dei dati stessi.

Per assicurare che la propria AI sia affidabile e responsabile, le aziende stanno implementando diverse strategie, prima fra tutte la salvaguardia della privacy dei dati lungo tutto il ciclo di vita dell’intelligenza artificiale. Per l’Italia, questa è la prima azione per il 43% degli intervistati, assieme alla capacità di monitorare l’AI lungo tutti gli ambienti cloud e AI (43%) e all’attenzione a minacce e potenziali incursioni per assicurare che i sistemi rimangano intatti (42%).

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati