La svolta di Zuckerberg segnala una nuova fase nella competizione globale sull’intelligenza artificiale, tra sicurezza, geopolitica dei dati e modelli di business chiusi.
Meta ha annunciato che non condividerà più in formato open source i suoi modelli di intelligenza artificiale più avanzati, nel contesto dello sviluppo di una “superintelligenza personale”. L’annuncio, diffuso attraverso una comunicazione interna firmata dal CEO Mark Zuckerberg, segna un’inversione radicale rispetto alla posizione assunta solo un anno fa, quando Meta sosteneva pubblicamente l’open source come leva di sicurezza, trasparenza e leadership tecnologica.
Il nuovo approccio è giustificato da “preoccupazioni emergenti in materia di sicurezza” che, secondo Zuckerberg, richiedono maggiore rigore nella valutazione di ciò che debba essere effettivamente condiviso con la comunità. Tuttavia, dietro questa decisione si celano anche precise valutazioni economiche e competitive, in un momento cruciale della corsa globale all’AI generativa.
Il ruolo del Superintelligence Lab e la competizione per i talenti
Contestualmente, Meta ha istituito una nuova divisione interna, il Meta Superintelligence Lab, con l’obiettivo di guidare lo sviluppo di sistemi cognitivi avanzati da integrare nelle proprie piattaforme e dispositivi. L’azienda ha intrapreso una campagna di reclutamento particolarmente aggressiva, cercando di sottrarre talenti da OpenAI, Google DeepMind e Apple.
Secondo fonti riportate da TechCrunch, sono stati offerti signing bonus fino a centinaia di milioni di dollari, con pacchetti complessivi che in alcuni casi supererebbero il miliardo di dollari. Inoltre, Meta ha investito 14,3 miliardi di dollari in Scale AI, startup specializzata nella gestione dei dati per l’addestramento dei modelli, coinvolgendo il suo fondatore Alexandr Wang nella nuova iniziativa strategica.
Verso una “superintelligenza personale”: integrazione con AR e VR
La visione di Zuckerberg non si limita all’aspetto software: il piano prevede l’integrazione di una superintelligenza in dispositivi hardware come gli occhiali di realtà aumentata e i visori VR prodotti da Meta. In questo contesto, l’adozione di un modello chiuso consente una maggiore sinergia tra architettura cognitiva e progettazione hardware, con implicazioni su proprietà intellettuale, controllo dell’ecosistema e differenziazione commerciale.
L’abbandono (parziale) del paradigma open source potrebbe quindi essere letto come una scelta sistemica, volta a costruire una piattaforma verticale e proprietaria che riduca la dipendenza dagli sviluppatori terzi e rafforzi la posizione dell’azienda rispetto ai competitor nel lungo periodo.
Open source selettivo e gestione dei rischi reputazionali
Nonostante la svolta, un portavoce di Meta ha chiarito che l’azienda non abbandonerà del tutto l’approccio open source. Continuerà a pubblicare modelli all’avanguardia “quando ritenuto sicuro e utile”, mantenendo una linea ibrida tra modelli aperti e chiusi. Questo approccio riflette un crescente dilemma per tutte le aziende AI leader: massimizzare l’adozione e il valore della community, senza facilitare il reverse engineering da parte dei concorrenti o rischiare abusi nei contesti geopolitici instabili.
Considerazioni economiche e logiche di mercato
Dietro al cambiamento strategico si intravedono valutazioni di mercato, più che etiche. Quando Meta era in ritardo rispetto a OpenAI o Google, l’open source rappresentava una leva per stimolare la diffusione dei modelli LLaMA e influenzare i costi di accesso all’AI generativa. Ora che la prospettiva è quella di recuperare terreno e generare profitti diretti, la strategia si riorienta verso un modello chiuso e proprietario, che consenta maggiore controllo sulla monetizzazione, sulla compliance normativa e sulla scalabilità dell’offerta.
Secondo The Decoder, si sta anche valutando l’abbandono del progetto “Behemoth” (modello LLM sviluppato internamente) a favore di architetture più modulari, scalabili e allineate a standard di sicurezza industriale.
Implicazioni giuridiche e geopolitiche della chiusura
Il passaggio da open a closed source comporta anche rilevanti implicazioni giuridiche e regolatorie. Sul piano del diritto dell’innovazione, la chiusura dei modelli restringe la possibilità di audit, contestazione e comprensione dei sistemi decisionali automatizzati. Ciò rischia di scontrarsi con la futura regolazione dell’AI Act europeo, che promuove trasparenza, tracciabilità e valutazioni di impatto etico nei sistemi ad alto rischio.
Inoltre, in un contesto globale in cui l’accesso ai modelli fondamentali di intelligenza artificiale è diventato un fattore di potere geopolitico, la scelta di Meta potrebbe spingere altri attori — pubblici o privati — a sviluppare modelli nazionali sovrani, come già avviene in Cina, Europa e India. La frammentazione dell’ecosistema AI globale è una possibile conseguenza strutturale.
Una nuova era per l’intelligenza artificiale proprietaria
La decisione di Meta rappresenta un momento di svolta epocale nella traiettoria evolutiva dell’intelligenza artificiale. Mentre il dibattito globale si concentra sulla sicurezza, l’equità e la governance dell’AI, le grandi aziende tecnologiche sembrano orientate a concentrare risorse, talenti e infrastrutture in modo proprietario e strategico.
La “superintelligenza personale” di Meta potrebbe essere la prossima grande piattaforma post-smartphone, ma la sua realizzazione pone domande profonde su trasparenza, accountability e sostenibilità democratica delle tecnologie cognitive. Il futuro dell’IA non sarà determinato solo da chi avrà i modelli migliori, ma da come saranno distribuiti, regolati e integrati nella vita sociale e istituzionale.