Apriamo un motore di ricerca, chiediamo consiglio a un assistente virtuale, consultiamo una chatbot per conoscere i fatti del giorno. Lo facciamo di continuo, senza più stupore, senza più domande. Eppure, non stiamo semplicemente cercando informazioni: stiamo subendo una decisione. Una selezione è già avvenuta. Il contributo e’ tratto dalla Rivista telematica Forma Politica, diretta dal Prof. Donato Limone.
Ci viene mostrato ciò che è stato ritenuto rilevante, affidabile, leggibile. Non dalla nostra coscienza, ma da un modello statistico addestrato su contenuti già filtrati da altri algoritmi. In questo nuovo contesto, l’intelligenza artificiale non è una voce neutra: è l’esito di un mondo che ha già deciso cosa possiamo sapere e cosa no. Un mondo fatto di miliardi di azioni digitali, emozioni, preferenze, espressioni fugaci – tutte raccolte, digerite, semplificate, e ora restituite in forma di sapere. Ma chi ha disegnato questa catena? Chi decide oggi quali conoscenze vengono apprese dalle macchine, e a beneficio di chi?
Nel corso degli ultimi quindici anni, i social network hanno attraversato una metamorfosi radicale. Nati come ambienti di connessione tra persone, luoghi virtuali pensati per raccontare la propria quotidianità, sono diventati progressivamente dispositivi predittivi orientati alla massimizzazione dell’attenzione. I meccanismi di ordinamento dei contenuti non rispondono più alla logica temporale o relazionale, ma a quella dell’engagement, della monetizzazione, della stimolazione costante. A guidare la trasformazione non è stato un piano esplicito, bensì una deriva funzionale: più un contenuto genera interazioni, più sarà mostrato; più divide, sorprende, irrita o entusiasma, più verrà premiato dall’algoritmo. In questo passaggio, la relazione autentica è stata sacrificata sull’altare dell’efficienza: il feed personale si è trasformato in una vetrina anonima, dove il valore dell’esperienza non è più determinato dalla vicinanza affettiva o dall’interesse reale, ma dalla sua capacità di produrre reazioni misurabili. In parallelo, la figura dell’utente si è trasformata: non più soggetto che esprime, ma oggetto che reagisce, monitorato, schedato, inserito in segmenti di mercato. L’informazione – intesa come bene comune – è stata progressivamente soppiantata da contenuti ottimizzati per vendere, indirizzare, influenzare. D’altro campo, i modelli generativi oggi più diffusi – da ChatGPT a Gemini – sono addestrati su contenuti che hanno superato almeno due filtri: quello della pubblicazione online e quello dell’attenzione. Non apprendono dal mondo in sé, ma da ciò che il mondo ha già deciso di rendere visibile, e che un algoritmo ha deciso di promuovere. Il sapere che ne deriva non è neutro: è una simulazione della realtà, modellata sulla viralità, non sulla verità. Un video diventato popolare perché provocatorio, un thread condiviso perché divisivo, un post spinto perché remunerativo: queste sono le molecole che compongono l’intelligenza artificiale di oggi.
E quindi, la macchina apprende da ciò che è riuscito a sopravvivere nella giungla dell’engagement. E nel farlo, lo riproduce, lo amplifica, lo impone come norma. Non si tratta più di comprendere il mondo, ma di reiterarlo fino all’assuefazione. Ogni modello di intelligenza artificiale è il prodotto del suo addestramento. E ogni addestramento si fonda su una selezione. Ma cosa accade quando quella selezione non è guidata da criteri scientifici, etici o pluralistici, bensì da meccanismi opachi di estrazione e riproduzione di contenuti digitali? Il risultato è una forma profonda e sistemica di bias cognitivo. Alcune lingue, alcune culture, alcune visioni del mondo risultano sovra-rappresentate, mentre altre vengono marginalizzate o espunte. I modelli, pur presentandosi come generalisti, riflettono in realtà una visione del mondo parziale, spesso anglocentrica, commercialmente orientata, culturalmente uniforme.
Nel contesto italiano, ciò significa che interi ambiti del sapere – giuridico, istituzionale, linguistico – sono scarsamente modellati. Le risposte delle IA in lingua italiana appaiono spesso semplificate o approssimative, non perché manchino i dati, ma perché quei dati non sono stati integrati nei processi di addestramento con la stessa intensità di quelli in lingua inglese. Il Data & Artificial Intelligence Observatory del Politecnico di Milano ha segnalato come l’assenza di dataset pubblici nazionali strutturati in ambiti strategici – dalla giustizia alla sanità – rappresenti una delle principali criticità per lo sviluppo di un’IA efficace e aderente al contesto italiano. La scarsità di risorse pubbliche dedicate alla produzione di dataset linguistici nazionali, unita alla frammentazione dei progetti open data territoriali, espone il Paese a una crescente dipendenza cognitiva da modelli esterni. La sottorappresentazione dell’italiano nei principali modelli linguistici globali ha già prodotto distorsioni in settori critici come la sanità digitale o la giustizia predittiva, con ricadute concrete sulla fiducia nelle istituzioni e sull’efficacia delle politiche pubbliche. A livello europeo, il rischio è ancor più ampio: la dipendenza da modelli anglo-americani minaccia la possibilità di una vera sovranità cognitiva. Ad oggi, non esiste ancora un grande polo europeo per l’intelligenza artificiale generativa in grado di competere, in termini di scala, con gli standard imposti da OpenAI, Google o Meta. I progetti europei – come GAIA-X, ELLIS o la European Language Grid – restano parziali, frammentati e sotto-finanziati, nonostante la crescente consapevolezza politica del tema.
Le piattaforme digitali, per tutto quanto fin qui affermato, è possibile sostenere che non sono più semplici ambienti, bensì architetture epistemiche. Non ci aiutano a trovare risposte: costruiscono la mappa di ciò che può essere chiesto. Non suggeriscono contenuti: delimitano ciò che è culturalmente legittimo. In questa economia dell’attenzione, non servono più censure: basta che un contenuto venga reso meno visibile, meno cliccabile, meno “meritevole” di essere appreso da un modello. Come in una biblioteca dove i libri vengono spostati sugli scaffali più alti, la conoscenza che le macchine apprendono è già segnata da ciò che è stato lasciato alla portata degli algoritmi. E noi, spesso inconsapevolmente, assumiamo quella mappa come unica realtà disponibile. Le disuguaglianze del nostro tempo non si misurano solo in accesso alla rete o nella disponibilità di banda larga. Si misurano nella capacità di essere inclusi nei database che formano il sapere delle macchine. Una lingua che non entra nei modelli viene dimenticata. Una comunità che non genera dati standardizzati diventa irrilevante. Un punto di vista che non è sufficientemente “ottimizzato” per l’algoritmo diventa invisibile. La disuguaglianza, oggi, è anche cognitiva. Anzi: è la nuova frontiera del potere.
Non basta, allora, costruire modelli di intelligenza artificiale: serve costruire il contesto da cui essi apprendono. In Europa si parla di sovranità digitale, ma la vera sfida è un’altra: costruire una sovranità cognitiva. Significa decidere quali dati, quali lingue, quali visioni del mondo meritano di entrare nel patrimonio di ciò che l’IA considera “sapere”. Significa passare da una regolazione ex post – che arriva quando i modelli sono già formati – a una politica culturale del dato, che metta al centro pluralismo, diversità, verifica. I primi passi ci sono: il Digital Services Act e l’AI Act tentano di aprire spazi di trasparenza e responsabilità. Ma senza un’infrastruttura pubblica dei saperi, senza una visione europea del dato come bene comune, anche le migliori regole resteranno marginali. L’accesso al futuro si gioca oggi sulla capacità di progettare ciò che verrà appreso prima ancora che venga generato.
Il futuro non sarà scritto da un algoritmo. Ma potrebbe essere omesso da esso. Non è l’intelligenza artificiale a doverci spaventare: è la nostra passività di fronte alla sua costruzione. I decisori pubblici devono investire in infrastrutture cognitive aperte, i governi devono produrre e custodire dati pubblici, le imprese devono aderire a standard etici di trasparenza, il mondo accademico deve offrire metodi di verifica, e le comunità devono imparare a interrogare le macchine con spirito critico. Solo così potremo spezzare il circuito chiuso che lega ciò che vediamo a ciò che l’IA apprende. Perché il vero pericolo non è che le macchine ci imitino. È che noi ci abituiamo a pensare con il loro sguardo, smettendo di domandarci cosa manca nei loro occhi.