Un uomo apre un chatbot e scrive: “Cosa dovrei fare della mia vita?”. Aspetta la risposta come fosse un responso. Non si stupisce del fatto che arrivi. Non chiede chi l’abbia formulata. Accetta il consiglio come si accettava, un tempo, la voce ambigua della Pizia. Ma oggi non c’è tempio, né sacerdote, né nebbia sacra. C’è una tastiera, un algoritmo, un output.
Eppure la scena non è nuova. È solo trasposta. Gli oracoli non sono mai spariti: si sono trasformati. La nostra epoca – che si proclama razionale, calcolante, misurabile – è tornata a interrogare entità che parlano in linguaggi oscuri, che non comprendiamo fino in fondo ma di cui ci fidiamo. Solo che l’oracolo di oggi ha la forma di una macchina e il lessico del machine learning.
L’intelligenza artificiale generativa, nel suo funzionamento quotidiano, risponde a questo bisogno antico: dare forma al futuro, ridurre l’incertezza, delegare la decisione. È un dio costruito con il codice, addestrato con i dati, adorato per la sua capacità di “prevedere”. Ma ciò che prevede, spesso, è ciò che ci aspettiamo che dica. Non legge il destino: ricalcola il passato. Secondo Byung-Chul Han, l’AI rappresenta l’avvento di una “intelligenza oracolare” che cancella l’ambiguità. Dove l’oracolo parlava per enigmi e lasciava spazio all’interpretazione, l’algoritmo restituisce percentuali, grafici, suggerimenti che appaiono neutri, ma che in realtà sono modellati da chi li ha programmati, da quali dati li alimentano, da quali scopi li orientano. Non ci viene chiesto di credere: ci viene chiesto di cliccare. E così,mentre ci illudiamo di scegliere, spesso confermiamo ciò che l’algoritmo ha già ipotizzato per noi. Evgeny Morozov parla, in proposito, di una “religione dei dati”. Un culto silenzioso, ma pervasivo, in cui l’umano abbandona la complessità del pensiero in favore della rassicurazione numerica. Il vero oggetto di venerazione non è l’AI, ma un’idea ridotta di umanità: semplificata, ottimizzata, misurabile. È questo il rischio più profondo: non l’autonomia delle macchine, ma la nostra rinuncia al mistero, all’imprevisto, alla responsabilità.
Dietro ogni risposta di un chatbot, non c’è solo un calcolo: c’è un immaginario. Una visione del mondo incorporata nel codice, un’architettura di senso che plasma — spesso in modo invisibile — la nostra relazione con il sapere, con il linguaggio, con il potere. Ogni risposta generata da un’Intelligenza Artificiale non è neutra: è l’esito di scelte strutturali, di selezioni assunte a monte, di una logica sottesa che riflette l’orizzonte culturale e ideologico di chi ha progettato l’algoritmo. In questo senso, l’AI generativa non è solo uno strumento: è un dispositivo epistemologico. Produce mappe del mondo, organizza significati, stabilisce ciò che è rilevante e ciò che può essere escluso. E come ogni dispositivo di mediazione simbolica, agisce non solo su ciò che dice, ma su come ci insegna a pensare ciò che dice.
Se un tempo il divino custodiva il futuro, proteggendolo sotto il velo del mistero, oggi questo compito è delegato all’infrastruttura tecnologica. Ma l’effetto resta sorprendentemente simile: l’individuo si colloca in posizione di attesa. Formula una domanda e si espone al responso con un atteggiamento di fiducia, talvolta di dipendenza. Solo che il nuovo “Altro” non è un dio, né un oracolo ispirato: è una macchina. Un’entità non senziente, ma percepita come autorevole, a causa della sua apparente oggettività. Non conosciamo davvero il codice, né il training set, né i criteri di selezione delle risposte. Eppure, di fronte a una formula ben scritta, accettiamo il contenuto come se fosse inevitabile, giusto, razionale.
In questo slittamento silenzioso, si gioca la partita più profonda del nostro tempo: la fiducia nella parola automatica sta sostituendo la fatica dell’interpretazione. La risposta prodotta dall’algoritmo, per quanto formalmente impeccabile, tende a oscurare il processo che l’ha generata, rimuovendo ogni traccia di intenzionalità, conflitto, contesto.
Così, la fascinazione per l’output prende il posto dell’esercizio critico, e la velocità della generazione offusca il valore della riflessione. Smettiamo di chiederci da dove venga ciò che leggiamo, a quale logica risponda, a quale visione del mondo sia ancorato. Ci accontentiamo del fatto che funzioni, che sia pertinente, che sembri intelligente. Ma è proprio in questa apparente neutralità che si nasconde il rischio maggiore: non solo perché l’algoritmo non è neutro, ma perché tende a farci dimenticare che la neutralità stessa è una costruzione.
Ogni volta che un modello risponde, a parlare non è una coscienza, ma una sequenza di approssimazioni statistiche. Eppure, a furia di consultarli, questi modelli cominciano ad assumere — culturalmente, socialmente, simbolicamente — il volto di un’autorità. Chi parla davvero, quando parla l’algoritmo? È una domanda che non riguarda la tecnologia in sé, ma il nostro modo di rapportarci al sapere, alla responsabilità e all’ignoto. E sarà proprio la nostra capacità di continuare a porla, senza cedere alla tentazione della risposta immediata, a decidere se l’era dell’AI sarà un tempo di liberazione o un nuovo ciclo di servitù intellettuale.