IL REPORT

Intelligenza artificiale, la sicurezza dei dati bestia nera delle imprese

Secondo i dati Ibm il 42% dei manager italiani teme per le informazioni. Al top tra le preoccupazioni anche la mancanza di competenze adeguate

Pubblicato il 20 Mag 2022

chat gpt
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

È la sicurezza dei dati la maggiore preoccupazione delle aziende che utilizzano sistemi di intelligenza artificiale. Lo rileva l’AI for business adoption study, l’indagine Ibm che ha coinvolto oltre 8000 decision-maker aziendali in più di 20 paesi nel mondo per comprendere non solo a che punto è l’adozione dell’intelligenza artificiale, ma anche in quali direzioni si sta muovendo la sua applicazione – prime fra tutte, l’accelerazione della sostenibilità e dell’utilizzo etico – e quali sono i principali bias e ostacoli da superare.

Ne dettaglio, per i professionisti IT a livello globale, la preoccupazione principale nell’utilizzo di soluzioni di intelligenza artificiale rimane legata alla sicurezza dei dati: in Italia, è fattore di preoccupazione per il 42% degli intervistati, seguito dalla capacità di assicurare governance, compliance e privacy dei dati.

In Italia il 42% delle imprese italiane sta considerando l’utilizzo del Natural Language Processing (NLP) per affrontare questioni di security.

Trasparenza e presenza di un quadro etico all’interno del quale i modelli di intelligenza artificiale sono costruiti, gestiti e utilizzati sono sempre più fattori determinanti del successo di un’azienda sul mercato. Per l’83% dei professionisti intervistati, i consumatori sono più propensi a rivolgersi a un’impresa che sia in grado di dare evidenza a questi aspetti.

Tra le aspirazioni e la realtà, però, si frappongono diversi ostacoli, primo fra tutti la mancanza di professionisti con le giuste competenze per sviluppare e gestire una AI etica (indicato da circa 6 intervistati su 10). Non meno rilevanti la mancanza di linee guida a tutti i livelli – governativo, di settore, e aziendale – e la presenza di bias già all’interno dei dati stessi.

Per assicurare che la propria AI sia affidabile e responsabile, le aziende stanno implementando diverse strategie, prima fra tutte la salvaguardia della privacy dei dati lungo tutto il ciclo di vita dell’intelligenza artificiale. Per l’Italia, questa è la prima azione per il 43% degli intervistati, assieme alla capacità di monitorare l’AI lungo tutti gli ambienti cloud e AI (43%) e all’attenzione a minacce e potenziali incursioni per assicurare che i sistemi rimangano intatti (42%).

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x