L’apertura dei processi contro Meta in New Mexico e California segna un punto di svolta per l’industria dei social media. Al centro non c’è solo la moderazione dei contenuti, ma la responsabilità strutturale dei prodotti digitali nei confronti dei minori.
Una settimana cruciale per Meta, non solo in tribunale
Oggi si aprono le arringhe iniziali di uno dei procedimenti più delicati mai affrontati da Meta. In New Mexico, lo Stato accusa il colosso dei social di non aver protetto adeguatamente bambini e adolescenti su piattaforme come Facebook e Instagram, consentendo a predatori online di individuarli, contattarli e sfruttarli.
Quasi in parallelo, a Los Angeles, una giuria è stata appena selezionata per un altro processo che vede Meta imputata insieme — in origine — ad altre big tech. Un dettaglio, però, cambia radicalmente lo scenario: TikTok e Snap hanno scelto di patteggiare. Meta no. È rimasta sola al banco degli imputati.
L’accusa del New Mexico: “un prodotto pericoloso”
Il cuore del procedimento intentato dal New Mexico è concettualmente semplice e allo stesso tempo dirompente. Secondo il procuratore generale Raúl Torrez, Meta non avrebbe semplicemente “ospitato” contenuti dannosi, ma avrebbe progettato e mantenuto prodotti che facilitano l’adescamento dei minori.
L’accusa sostiene che gli algoritmi di raccomandazione e le funzionalità social abbiano attivamente “connesso” bambini e adolescenti a materiale sessualmente esplicito, reti di sfruttamento e, in alcuni casi, traffico di esseri umani. È una formulazione precisa, pensata per superare il tradizionale scudo giuridico delle piattaforme.
Non si parla più di contenuti caricati da terzi, ma di design del prodotto.
L’operazione sotto copertura che ha cambiato il processo
Uno degli elementi più incisivi del caso è l’operazione sotto copertura condotta dall’ufficio del procuratore. Un profilo fittizio, costruito come quello di una ragazza di 13 anni, è stato lasciato attivo sulle piattaforme Meta.
Il risultato, secondo l’accusa, è stato “scioccante”: il profilo sarebbe stato rapidamente inondato di messaggi, immagini e sollecitazioni a sfondo sessuale. Non episodi isolati, ma un flusso sistemico, che ha rafforzato l’idea che il problema non sia episodico, bensì strutturale.
È su questo terreno che il processo assume una portata nuova: dimostrare che il danno non nasce da un abuso marginale del sistema, ma dal suo funzionamento ordinario.
Il parallelo con Big Tobacco non è retorico
Gli esperti legali che seguono il caso lo dicono apertamente: questi processi ricordano sempre di più le cause contro le multinazionali del tabacco negli anni ’90. Anche allora il nodo non era la pericolosità “percepita” del prodotto, ma la consapevolezza delle aziende e la mancata trasparenza verso il pubblico.
Come allora, il tema centrale è la conoscenza del danno. Le accuse sostengono che Meta fosse consapevole degli effetti delle proprie piattaforme sulla salute mentale e sulla sicurezza dei minori, ma abbia ritardato interventi strutturali per ragioni di crescita e engagement.
Se questa linea dovesse reggere in tribunale, l’impatto andrebbe ben oltre Meta.
Il fronte californiano e la solitudine di Meta
Il processo di Los Angeles nasce da accuse simili: Meta, insieme ad altri colossi tech, avrebbe minimizzato i rischi delle proprie piattaforme pur conoscendo la natura potenzialmente dannosa di alcune funzionalità, soprattutto per gli utenti più giovani.
Il fatto che TikTok e Snap abbiano scelto un accordo extragiudiziale lascia Meta in una posizione delicata. Da un lato, l’azienda può rivendicare la volontà di difendere la propria linea fino in fondo. Dall’altro, diventa l’unico bersaglio visibile di una battaglia simbolica contro l’intero modello di business dei social media.
Nei prossimi giorni sono attese testimonianze chiave, tra cui quella del responsabile di Instagram e, soprattutto, quella del CEO Mark Zuckerberg.
Section 230: lo scudo che potrebbe incrinarsi
Meta, come altre piattaforme, ha spesso invocato la protezione della Section 230, che tutela i servizi online dalla responsabilità per i contenuti generati dagli utenti.
Ma il filo conduttore di questi processi è proprio il tentativo di aggirare quel perimetro giuridico. Le accuse non riguardano “cosa” viene pubblicato, ma come le piattaforme sono progettate, quali comportamenti incentivano e quali rischi rendono sistemici.
Se i giudici accetteranno questa impostazione, Section 230 potrebbe restare formalmente intatta, ma diventare molto meno efficace nella pratica.
Non solo multe: il rischio vero è il cambiamento forzato
Raúl Torrez, Procuratore Generale dello Stato del New Mexico, lo ha detto chiaramente: l’obiettivo non è solo ottenere sanzioni economiche. In gioco ci sono richieste di modifica profonda del prodotto: verifica reale dell’età, limiti alle connessioni tra minori e adulti, maggiore trasparenza sui rischi.
Questo è il punto più critico per Meta e per l’intero settore. Le multe possono essere assorbite. Un obbligo di riprogettazione, invece, può colpire direttamente il cuore del modello di business basato su crescita, dati e interazioni continue.
Il processo ai social come li conosciamo
Il 2026 rischia di diventare l’anno in cui i social media smettono di essere giudicati solo come piattaforme di comunicazione e iniziano a essere trattati come prodotti con responsabilità diretta sugli effetti che generano.
Il caso Meta non riguarda soltanto la sicurezza dei minori, né solo una singola azienda. È un banco di prova per stabilire se l’industria tecnologica può continuare a invocare neutralità mentre modella comportamenti, relazioni e vulnerabilità.
Come per il tabacco, la vera domanda non è se il prodotto sia legale. È se il suo design sia compatibile con l’interesse pubblico. E su questo, la risposta dei tribunali potrebbe cambiare Internet molto più di qualsiasi regolamento.