Dopo mesi di tensioni interne e crescenti pressioni esterne, OpenAI ha deciso di arrestare definitivamente il processo di trasformazione in una società a pieno titolo for-profit. La multinazionale passerà formalmente da una struttura LLC a profitto limitato a una Public Benefit Corporation (PBC), controllata dalla fondazione madre.
Una scelta che segnala il desiderio di preservare, almeno formalmente, la vocazione pubblica e filantropica dell’organizzazione, pur all’interno di un sistema che mira sempre più all’efficienza e alla scalabilità commerciale.
Questa decisione arriva dopo un anno particolarmente denso di interrogativi e attriti. Da un lato, le autorità regolatorie – in particolare i procuratori generali della California e del Delaware – hanno intensificato l’attenzione verso i rapporti aziendali e le dinamiche interne. Dall’altro, ex membri del team e numerosi osservatori del settore hanno messo in discussione la trasparenza e la coerenza dell’organizzazione con la sua missione originaria. L’azione legale avviata da Elon Musk, cofondatore e voce molto critica, ha ulteriormente evidenziato la frattura interna tra ideali iniziali e traiettoria attuale. In questo contesto, mantenere una forma ibrida è sembrata l’unica strada praticabile.
Il significato concreto del passaggio a Public Benefit Corporation
L’adozione della forma PBC consente a OpenAI di mantenere una narrazione orientata al bene collettivo, pur continuando a raccogliere ingenti investimenti privati. Un equilibrio delicato, che permette di soddisfare le aspettative di partner strategici come Microsoft e SoftBank, senza rinunciare del tutto alla legittimità etica e istituzionale. Tra le caratteristiche di una PBC, vi è l’obbligo legale di tenere conto sia dell’interesse pubblico sia di quello degli azionisti, aspetto oggi centrale per definire l’identità di OpenAI.
Strutture simili sono state adottate anche da altre realtà emergenti come Anthropic e X.ai (che Altman, nella sua lettera aperta, chiama “AGI labs”, ovvero laboratori dove si punta a creare l’intelligenza artificiale generale), ma nel caso di OpenAI la complessità della governance rende il modello più controverso. La fondazione originaria continuerà a esercitare un ruolo di supervisione, con partecipazioni e diritti di controllo nel consiglio di amministrazione, anche se i meccanismi effettivi, come i poteri di veto o la gestione delle quote, restano poco trasparenti. Sam Altman ha parlato di una struttura “più semplice e coerente”, ma la realtà appare meno definita: la supervisione no-profit opera ora all’interno di una macchina orientata dal capitale e dai suoi ritorni.
Forze in tensione: leadership, investitori e controllo pubblico
La nuova architettura societaria si inserisce in uno scenario già segnato da una governance traballante. Il ritorno repentino di Altman alla guida dell’azienda, in seguito alla sua rimozione nel 2023, ha mostrato le crepe tra l’organo direttivo no-profit, gli investitori istituzionali e le figure chiave dello sviluppo tecnico. Le dimissioni di ricercatori di spicco, soprattutto nell’ambito della sicurezza dell’IA, hanno aggravato la percezione di una perdita di visione a lungo termine.
Nel frattempo, l’afflusso costante di capitali – in particolare da grandi corporate come Microsoft e SoftBank – porta inevitabilmente l’attenzione verso l’efficienza operativa e il ritorno economico. In questo scenario, la visione originaria di un’IA orientata al beneficio collettivo rischia di rimanere relegata a dichiarazioni di facciata. Sembra quindi meno rilevante chiedersi se OpenAI abbia “tradito” la sua missione: la questione essenziale è comprendere quali strumenti concreti possano oggi garantire trasparenza e un’effettiva rendicontazione dell’impatto sociale delle sue scelte.
Verso un’IA trasparente: realtà o promessa?
Il valore della nuova conformazione dipenderà dalla capacità di rendere visibili, misurabili e condivisi i propri criteri decisionali. Le dichiarazioni d’intento non bastano più, servono segnali concreti. La comunità accademica e scientifica chiede con sempre maggiore insistenza accesso alla documentazione sui dataset di training, audit pubblici degli algoritmi e una chiara gestione del rischio sistemico. Come risposta, OpenAI finora non ha fatto che incrementare la propria propensione alla chiusura, giustificandola con motivazioni di sicurezza e prevenzione dell’abuso dell’AGI. La promessa di un modello open weights entro l’estate sembra più una necessità dettata dalla concorrenza dei modelli cinesi piuttosto che da vera convinzione.
Ma questa mancanza di apertura solleva dubbi rilevanti: come viene gestito il bilanciamento fra rischio e innovazione? Chi decide quando un comportamento etico è stato superato? Che tipo di revisione esiste per le scelte più controverse? Non dimentichiamo che recentemente diversi esperti hanno sollevato preoccupazione in merito alla decisione dell’azienda di tagliare i tempi dei test di sicurezza sui nuovi modelli dagli originali sei mesi a pochi giorni.
Affinché la PBC acquisisca credibilità, dovrà accompagnarsi a sistemi di accountability tracciabili e pubblici. Altrimenti, resterà la diffusa sensazione di un’impresa tecnologica che impiega racconti etici per alleggerire l’impatto regolatorio, pur rimanendo fortemente guidata da logiche finanziarie.
Una trasformazione che lascia aperte molte domande
Il riassetto di OpenAI mostra con chiarezza le difficoltà nel conciliare una struttura filantropica con l’ambizione di sviluppare tecnologie ad alto impatto su scala globale. La formula ibrida adottata salva il riferimento formale alla no-profit, ma opera nei fatti secondo logiche industriali. Una soluzione funzionale, forse necessaria, ma non certo definitiva. Restano infatti numerose incognite su chi eserciti davvero il controllo, in nome di quali obiettivi e con quali modalità di verifica. Le autorità pubbliche faticano a tenere il passo, mentre le grandi aziende del settore consolidano il loro vantaggio operativo.
OpenAI, in questa fase, forse rappresenta più di un’azienda. È il riflesso di tensioni strutturali irrisolte nell’evoluzione dell’intelligenza artificiale. Le sue scelte future verranno studiate attentamente non solo per i modelli che produce, ma per come gestirà il potere che quegli avanzati sistemi porteranno con sé. Finché non emergerà un quadro normativo chiaro e condiviso, con meccanismi di supervisione indipendenti, l’ecosistema dell’IA continuerà a oscillare tra promesse di responsabilità e pratiche a beneficio di pochi.