la riorganizzazione

OpenAI, via alla nuova governance: comitato security indipendente dal cda



Indirizzo copiato

Alla presidenza Zico Kolter, direttore del dipartimento di machine learning presso la scuola di informatica della Carnegie Mellon University. E la società annuncia anche il rafforzamento del team cybersecurity. Ma è sul 2025 che sono puntati i riflettori: addio al modello no-profit?

Pubblicato il 17 set 2024



open Ai, Intelligenza artificiale, artificial intelligence 2

Il comitato per la sicurezza di OpenAI, introdotto appena quattro mesi fa, a maggio, diventerà un organo indipendente di supervisione del consiglio di amministrazione. Il gruppo sarà presieduto da Zico Kolter, direttore del dipartimento di apprendimento automatico presso la scuola di informatica della Carnegie Mellon University. Tra gli altri membri figurano Adam D’Angelo, membro del consiglio di amministrazione di OpenAI e cofondatore di Quora, l’ex capo dell’Nsa e membro del consiglio di amministrazione Paul Nakasone e Nicole Seligman, ex vicepresidente esecutivo di Sony.

Il ruolo del comitato

Come entità indipendente, il comitato supervisionerà “i processi di sicurezza che guidano l’implementazione e lo sviluppo del modello di OpenAI”, ha dichiarato la società. L’organo ha recentemente concluso la sua revisione di 90 giorni, valutando i processi e le misure adottate da OpenAI e formulando raccomandazioni al consiglio di amministrazione. OpenAI renderà noti i risultati del gruppo in un post pubblico sul blog aziendale.

Le cinque raccomandazioni chiave del comitato includono la necessità di stabilire una governance indipendente per la sicurezza, di migliorare le misure di sicurezza, di essere trasparenti sul lavoro di OpenAI, di collaborare con organizzazioni esterne e di unificare i quadri di sicurezza dell’azienda.

In definitiva, il comitato “insieme all’intero consiglio di amministrazione, eserciterà la supervisione sul lancio dei modelli di intelligenza artificiale, avendo anche l’autorità di ritardare il rilascio fino a quando non saranno risolti i problemi di sicurezza”.

Il gruppo di lavoro dovrà anche cercare di appianare una serie di criticità emerse negli ultimi mesi. A maggio, un ex membro del consiglio di amministrazione di OpenAI, parlando della temporanea estromissione di Altman a novembre, ha dichiarato di aver fornito al consiglio “informazioni inesatte sul numero esiguo di processi formali di sicurezza che l’azienda aveva in atto” in diverse occasioni. Lo stesso mese, OpenAI ha deciso di sciogliere il suo team che si occupa dei rischi a lungo termine dell’AI, appena un anno dopo aver annunciato il gruppo. I leader del gruppo, Ilya Sutskever e Jan Leike, hanno annunciato le loro dimissioni da OpenAI e in un post su X, Leike ha scritto che “la cultura e i processi di sicurezza di OpenAI sono passati in secondo piano rispetto ai prodotti più brillanti”.

Nuove risorse per il team di cybersecurity

Oltre all’autonomia del comitato, la società ha annunciato anche un rafforzamento del team che si occupa di cybersecurity, definita “una componente critica della sicurezza dell’AI”. OpenAI dichiara che continuerà “ad adottare un approccio basato sul rischio alle nostre misure di sicurezza e ad evolvere il nostro approccio in base al cambiamento del modello di minaccia e dei profili di rischio dei nostri modelli. Stiamo cercando di ampliare la segmentazione delle informazioni interne, di aumentare il personale per rafforzare i team operativi di sicurezza 24 ore su 24 e di continuare a investire nelle iniziative in corso per migliorare la sicurezza dell’infrastruttura di ricerca e di prodotto di OpenAI. Nell’ambito dell’esame del comitato per la sicurezza, abbiamo individuato ulteriori opportunità di collaborazione con il settore e di condivisione delle informazioni per migliorare la sicurezza dell’industria dell’AI. Ad esempio, stiamo valutando attentamente lo sviluppo di un Centro di condivisione e analisi delle informazioni per il settore, per consentire la condivisione di informazioni sulle minacce e sulla sicurezza informatica tra le entità del comparto, al fine di migliorare la nostra resilienza collettiva contro le minacce informatiche”.

OpenAI dice addio al modello no profit?

Ma le novità non finiscono qui, almeno stando ad alcune indiscrezioni. Sam Altman, infatti, avrebbe comunicato ai dipendenti che l’azienda cambierà la sua struttura no-profit il prossimo anno. Lo dicono le fonti di Forbes, secondo cui la mossa segna un punto di svolta per l’organizzazione, che abbraccerà una più tradizionale forma societaria. Nata nel 2015 come soggetto senza scopo di lucro, OpenAI ha inizialmente fatto affidamento su donazioni per finanziare la sua ricerca. Tuttavia, l’azienda ha presto realizzato che questo modello non era sostenibile per supportare i costi elevati della potenza di calcolo e dei talenti necessari per portare avanti i suoi ambiziosi progetti di intelligenza artificiale.

Per ovviare a questo problema, OpenAI ha creato una sussidiaria a scopo di lucro, controllata dall’entità principale no-profit. Questa struttura ha a sua volta dato vita a un sistema in cui i profitti che possono essere assegnati agli investitori, tra cui Microsoft, sono limitati. Stando a un rapporto di The Information pubblicato a giugno, OpenAI ha raddoppiato i ricavi annuali nella prima metà dell’anno, grazie alla versione in abbonamento di ChatGpt. Per Forbes, la decisione di passare a un modello a scopo di lucro è motivata dalla necessità di OpenAI di accedere a maggiori risorse finanziarie per sostenere la crescita e i progetti futuri.

La forma attuale, sebbene abbia permesso di raccogliere investimenti significativi, limita anche la capacità di remunerare gli investitori e di attrarre nuovi capitali. Il sito sottolinea che l’entità no-profit continuerà a esistere e a svolgere un ruolo fondamentale nella missione dell’azienda anche se resta da vedere come il nuovo modello influenzerà le future decisioni e strategie di OpenAI.

Articoli correlati

Articolo 1 di 4