INTELLIGENZA ARTIFICIALE

AI generativa, sale l’allerta delle aziende per la cybersecurity

Il 26% delle organizzazione punta a rafforzare la privacy, il 25% i ModelOps. Si temono fughe di dati industriali ma anche errori. Gartner: “Chi non gestisce la transizione rischia perdite finanziarie e danni reputazionali. Ma il vero pericolo è prendere decisioni sbagliate a seguito di interpretazioni distorte”. Intanto l’Antitrust britannica pubblica il primo set di regole per garantire concorrenza e tutela dei consumatori

Pubblicato il 18 Set 2023

AI generativa, sale l’allerta delle aziende per la cybersecurity
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Il 34% delle organizzazioni sta già utilizzando o sta implementando strumenti di sicurezza delle applicazioni di intelligenza artificiale (AI) per mitigare i rischi associati all’intelligenza artificiale generativa (GenAI). E il 56% dichiara di essere comunque interessata a tali soluzioni.

Lo afferma un nuovo sondaggio della Gartner Peer Community, condotto tra 150 leader dell’IT e della sicurezza delle informazioni presso organizzazioni che utilizzano, pianificano di utilizzare o stanno esplorando GenAI o modelli fondamentali. Secondo l’indagine, il 26% delle aziende afferma di essere attualmente in fase di implementazione o utilizzo di tecnologie per la protezione della privacy (Pets), ModelOps (25%) o monitoraggio dei modelli (24%).

Rischi significativi per le organizzazioni

I rischi associati a GenAI sono significativi, continui e in costante evoluzione. I partecipanti al sondaggio hanno indicato che gli output indesiderati e il codice insicuro sono tra i principali rischi che tengono a mente quando utilizzano GenAI. In questo quadro, il 57% dei partecipanti è preoccupato per la divulgazione di segreti nel codice generato dall’AI, mentre  il 58% è preoccupato per output errati o tendenziosi.

“Le organizzazioni che non gestiscono il rischio dell’AI vedranno i loro modelli che non si comportano come previsto e, nel peggiore dei casi, possono causare danni umani o materiali”, ha dichiarato Litan. “Ciò comporterà fallimenti nella sicurezza, perdite finanziarie e di reputazione e danni agli individui a causa di risultati errati, manipolati, non etici o tendenziosi. La cattiva performance dell’AI può anche portare le organizzazioni a prendere decisioni aziendali sbagliate”.

L’importanza di una strategia AI Trism

“IT e i leader della sicurezza e della gestione dei rischi devono, oltre a implementare strumenti di sicurezza, considerare il supporto a una strategia aziendale per la gestione della fiducia, dei rischi e della sicurezza dell’AI (AI Trism)”, dichiara Avivah Litan, Distinguished VP Analyst di Gartner. “L’AI Trism gestisce i flussi di dati e processi tra gli utenti e le aziende che ospitano modelli fondamentali di intelligenza artificiale generativa e deve essere un impegno continuo, non un esercizio singolo per proteggere costantemente un’organizzazione”.

L’IT come responsabile della sicurezza AI, o no?

Sebbene il 93% dei leader dell’IT e della sicurezza intervistati abbia dichiarato di essere almeno in parte coinvolti negli sforzi di sicurezza e gestione dei rischi di GenAI all’interno delle loro organizzazioni, solo il 24% ha affermato di sentire come propria questa responsabilità. Il 44% afferma che la responsabilità ultima della sicurezza di GenAI spetta all’IT, ma per il 20% dei partecipanti, i dipartimenti di governance, rischio e conformità dell’organizzazione sono responsabili della questione.

In campo anche la Cma britannica

Intanto la Competition and Markets Authority ha pubblicato in set di principi che mirano a garantire la protezione dei consumatori e una sana concorrenza al centro dello sviluppo e dell’utilizzo responsabile dei foundation model (Fm), i modelli di machine learning pre-addestrati su grandi quantità di dati utilizzati come punto di partenza per addestrare modelli specifici per compiti particolari. c

Ecco i principi proposti:

Accountability: gli sviluppatori e i distributori di Fm sono responsabili dei risultati forniti ai consumatori.

  • Accesso: accesso continuo e immediato ai fattori di produzione chiave, senza inutili restrizioni.
  • Diversità:  una diversità sostenuta di modelli di business, sia aperti che chiusi.
  • Scelta: scelta ampia per le aziende, in modo che possano decidere come utilizzare i Fm.
  • Flessibilità: possibilità di cambiare e/o utilizzare più Fm a seconda delle esigenze.
  • Correttezza: assenza di comportamenti anticoncorrenziali, tra cui l’autoreferenzialità, la vendita abbinata o il bundling.
  • Trasparenza: i consumatori e le aziende devono essere informati sui rischi e sui limiti dei contenuti generati dai Fm, in modo da poter fare scelte consapevoli.

“Nei prossimi mesi, la Cma intraprenderà un programma significativo di impegno con gli stakeholder nazionali e internazionali per sviluppare ulteriormente questi principi, con l’obiettivo di promuovere una concorrenza efficace e la protezione dei consumatori a beneficio delle persone, delle imprese e dell’economia”, fa sapere una nota della Cma.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x