INTELLIGENZA ARTIFICIALE

AI generativa, sale l’allerta delle aziende per la cybersecurity

Il 26% delle organizzazione punta a rafforzare la privacy, il 25% i ModelOps. Si temono fughe di dati industriali ma anche errori. Gartner: “Chi non gestisce la transizione rischia perdite finanziarie e danni reputazionali. Ma il vero pericolo è prendere decisioni sbagliate a seguito di interpretazioni distorte”. Intanto l’Antitrust britannica pubblica il primo set di regole per garantire concorrenza e tutela dei consumatori

Pubblicato il 18 Set 2023

Schermata 2023-09-18 alle 11.48.50

Il 34% delle organizzazioni sta già utilizzando o sta implementando strumenti di sicurezza delle applicazioni di intelligenza artificiale (AI) per mitigare i rischi associati all’intelligenza artificiale generativa (GenAI). E il 56% dichiara di essere comunque interessata a tali soluzioni.

Lo afferma un nuovo sondaggio della Gartner Peer Community, condotto tra 150 leader dell’IT e della sicurezza delle informazioni presso organizzazioni che utilizzano, pianificano di utilizzare o stanno esplorando GenAI o modelli fondamentali. Secondo l’indagine, il 26% delle aziende afferma di essere attualmente in fase di implementazione o utilizzo di tecnologie per la protezione della privacy (Pets), ModelOps (25%) o monitoraggio dei modelli (24%).

Rischi significativi per le organizzazioni

I rischi associati a GenAI sono significativi, continui e in costante evoluzione. I partecipanti al sondaggio hanno indicato che gli output indesiderati e il codice insicuro sono tra i principali rischi che tengono a mente quando utilizzano GenAI. In questo quadro, il 57% dei partecipanti è preoccupato per la divulgazione di segreti nel codice generato dall’AI, mentre  il 58% è preoccupato per output errati o tendenziosi.

“Le organizzazioni che non gestiscono il rischio dell’AI vedranno i loro modelli che non si comportano come previsto e, nel peggiore dei casi, possono causare danni umani o materiali”, ha dichiarato Litan. “Ciò comporterà fallimenti nella sicurezza, perdite finanziarie e di reputazione e danni agli individui a causa di risultati errati, manipolati, non etici o tendenziosi. La cattiva performance dell’AI può anche portare le organizzazioni a prendere decisioni aziendali sbagliate”.

L’importanza di una strategia AI Trism

“IT e i leader della sicurezza e della gestione dei rischi devono, oltre a implementare strumenti di sicurezza, considerare il supporto a una strategia aziendale per la gestione della fiducia, dei rischi e della sicurezza dell’AI (AI Trism)”, dichiara Avivah Litan, Distinguished VP Analyst di Gartner. “L’AI Trism gestisce i flussi di dati e processi tra gli utenti e le aziende che ospitano modelli fondamentali di intelligenza artificiale generativa e deve essere un impegno continuo, non un esercizio singolo per proteggere costantemente un’organizzazione”.

L’IT come responsabile della sicurezza AI, o no?

Sebbene il 93% dei leader dell’IT e della sicurezza intervistati abbia dichiarato di essere almeno in parte coinvolti negli sforzi di sicurezza e gestione dei rischi di GenAI all’interno delle loro organizzazioni, solo il 24% ha affermato di sentire come propria questa responsabilità. Il 44% afferma che la responsabilità ultima della sicurezza di GenAI spetta all’IT, ma per il 20% dei partecipanti, i dipartimenti di governance, rischio e conformità dell’organizzazione sono responsabili della questione.

In campo anche la Cma britannica

Intanto la Competition and Markets Authority ha pubblicato in set di principi che mirano a garantire la protezione dei consumatori e una sana concorrenza al centro dello sviluppo e dell’utilizzo responsabile dei foundation model (Fm), i modelli di machine learning pre-addestrati su grandi quantità di dati utilizzati come punto di partenza per addestrare modelli specifici per compiti particolari. c

Ecco i principi proposti:

Accountability: gli sviluppatori e i distributori di Fm sono responsabili dei risultati forniti ai consumatori.

  • Accesso: accesso continuo e immediato ai fattori di produzione chiave, senza inutili restrizioni.
  • Diversità:  una diversità sostenuta di modelli di business, sia aperti che chiusi.
  • Scelta: scelta ampia per le aziende, in modo che possano decidere come utilizzare i Fm.
  • Flessibilità: possibilità di cambiare e/o utilizzare più Fm a seconda delle esigenze.
  • Correttezza: assenza di comportamenti anticoncorrenziali, tra cui l’autoreferenzialità, la vendita abbinata o il bundling.
  • Trasparenza: i consumatori e le aziende devono essere informati sui rischi e sui limiti dei contenuti generati dai Fm, in modo da poter fare scelte consapevoli.

“Nei prossimi mesi, la Cma intraprenderà un programma significativo di impegno con gli stakeholder nazionali e internazionali per sviluppare ulteriormente questi principi, con l’obiettivo di promuovere una concorrenza efficace e la protezione dei consumatori a beneficio delle persone, delle imprese e dell’economia”, fa sapere una nota della Cma.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2