L'INIZIATIVA

Intelligenza artificiale responsabile, nasce il Frontier Model Forum

Anthropic, Google, Microsoft e OpenAI lanciano il nuovo organismo che si occuperà di studiare i potenziali rischi della tecnologia e sviluppare soluzioni sicure. Anche in collaborazione con governi, aziende e università

Pubblicato il 26 Lug 2023

Businessperson,Shaking,Hand,With,Digital,Partner,Over,Futuristic,Background.,Artificial

Una nuova partnership per promuovere un’intelligenza artificiale “etica”. Anthropic, Google, Microsoft e OpenAI lanciano il Frontier Model Forum, una nuova organizzazione che mira a garantire uno sviluppo sicuro e responsabile dei modelli di AI.

Il Frontier Model Forum attingerà alle competenze tecniche e operative delle aziende associate a vantaggio dell’intero ecosistema di intelligenza artificiale, ad esempio attraverso l’avanzamento di valutazioni tecniche e benchmark e lo sviluppo di una libreria pubblica di soluzioni per supportare le migliori pratiche e gli standard del settore.

I criteri di adesione

Il Forum è aperto alle organizzazioni che sviluppano e distribuiscono modelli di frontiera, dimostrano un forte impegno per la sicurezza dei modelli di frontiera, anche attraverso approcci tecnici e istituzionali e, infine, che sono disposte a partecipare a iniziative comuni per sostenere il buon funzionamento dell’organizzazione.

Cosa farà il Frontier Model Forum

Governi e industria concordano sul fatto che, sebbene l’AI offra un enorme potenziale, siano necessarie misure di sicurezza adeguate per mitigare i rischi. Su questo fronte già si sono mossi i governi degli Stati  Uniti e del Regno Unito nonché la Ue, il G7 e l’Ocse.

È però necessario un ulteriore lavoro sugli standard di sicurezza per garantire uno sviluppo e una distribuzione responsabile dei modelli di intelligenza artificiale di frontiera. Il Forum sarà dunque uno strumento per intraprendere azioni interorganizzative sull’AI responsabile.

Tre le azioni chiave su cui si concentreranno i lavori del Forum:

  • Identificazione delle migliori pratiche: promuovere la condivisione delle conoscenze e delle migliori pratiche tra l’industria, i governi, la società civile e l’accademiacon un focus sugli standard di sicurezza per mitigare i potenziali rischi.
  • Avanzamento della ricerca sulla sicurezza dell’AI: sostenere l’ecosistema della sicurezza identificando le questioni critiche. Il Forum coordinerà la ricerca in queste aree, focalizzando l’attenzione sull’interpretabilità meccanistica, la supervisione scalabile e la rilevazione delle anomalie. Il primo passo sarà la condivisione di una library pubblica di valutazioni tecniche e benchmark per i modelli di intelligenza artificiale di frontiera.
  • Facilitazione della condivisione delle informazioni tra aziende e governi riguardo alla sicurezza e ai rischi dell’AI. Il Forum seguirà le migliori pratiche di divulgazione responsabile.

Parola d’ordine condivisione

Condivisione e collaborazione sono i principi che ispireranno i lavori del Forum. “Siamo entusiasti di lavorare insieme ad altre aziende leader. Dovremo tutti lavorare insieme per assicurare che l’AI porti vantaggi”, dice Kent Walker, Presidene, Global Affairs, Google & Alphabet:

Per Brad Smith, Vicepresidente e Presidente di Microsoft, le aziende che creano tecnologie di intelligenza artificiale hanno la responsabilità di garantire che queste siano sicure e rimangano sotto il controllo umano. “Questa iniziativa è un passo fondamentale per upromuovere l’AI in modo responsabile e affrontare le sfide in modo che ne benefici l’intera umanità”, sottolinea.

Il nodo della governance

Uno dei nodi gordiani dell’AI è sicuramente quello della governance. “Le tecnologie avanzate di intelligenza artificiale possono produrre grandi benefici per la  società, ma è necessaria una supervisione e una governance forti – spiega  Anna Makanju, Vp Global Affairs di OpenAI – È fondamentale che le aziende di intelligenza artificiale, soprattutto quelle che lavorano sui modelli più potenti, si allineino su un terreno comune e promuovano pratiche di sicurezza ponderate e adattabili per garantire che gli strumenti di AI più potenti garantiscano il beneficio più ampio possibile”.

“Anthropic crede che l’AI abbia il potenziale per cambiare profondamente il modo in cui il mondo funziona – fa eco Dario Amodei, ceo di Anthropic – Siamo entusiasti di promuovere lo sviluppo sicuro e responsabile della tecnologia. Il Frontier Model Forum avrà un ruolo vitale nel coordinare le migliori pratiche e la condivisione della ricerca sulla sicurezza dell’AI di frontiera”.

Come funzionerà il Frontier Model Forum

Nel corso dei prossimi mesi, il Frontier Model Forum istituirà un Consiglio Consultivo per definire priorità e strategie. Le aziende fondatrici elaboreranno anche una carta-manifesto e definiranno la governance nonché i meccanismi di finanziamento.

“Abbiamo in programma di consultare la società civile e i governi nelle prossime settimane per capire come collaborare – si legge in una nota – Il Frontier Model Forum accoglie con favore l’opportunità di sostenere e contribuire alle iniziative governative e multilaterali già messe in campo dal G7, dall’Ocse e dal Trade and Technology Council Usa-Ue”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3