Ogni stagione dell’intelligenza artificiale sembra inaugurata da un acronimo. Negli ultimi anni abbiamo visto moltiplicarsi le sigle: AGI, LLM, LRM, GPAI. Tre o quattro lettere capaci di catturare l’attenzione dei media e di proiettare l’idea che una nuova era tecnologica sia appena cominciata. A uno sguardo distratto potrebbero sembrare semplici etichette classificatorie, necessarie per distinguere approcci e generazioni di sistemi. Ma, a ben guardare, hanno un ruolo molto più incisivo: funzionano come dispositivi retorici che orientano la percezione collettiva, accendono entusiasmi o paure, danno l’impressione di trovarsi di fronte a una svolta epocale. Non descrivono soltanto la tecnologia, la reinventano simbolicamente.
La semiotica ci insegna che i segni non sono mai neutrali. Ogni sigla è un condensato narrativo che traduce in forma abbreviata una promessa di discontinuità. Quando, nel 2022, il termine LLM (Large Language Model) entrò nel lessico comune con l’avvento di ChatGPT, non ci trovammo soltanto di fronte a una nuova architettura computazionale: si diffuse la percezione di un salto radicale, quasi l’inizio di un’epoca diversa. Qualche anno dopo, con l’arrivo della sigla LRM (Large Reasoning Model), il copione si ripeté: ancora prima che i sistemi fossero valutati su metriche indipendenti, la narrativa pubblica parlava di una svolta nella capacità di ragionamento. È il meccanismo descritto dal Gartner Hype Cycle: l’innovazione vive di picchi e cadute di aspettative, e la capacità di nominare è parte integrante di questo processo. L’acronimo diventa un rito collettivo di passaggio, che sancisce l’ingresso in una nuova epoca del discorso sull’AI, indipendentemente dalla reale portata del cambiamento tecnico.
Dietro l’apparenza di rivoluzione, però, si nasconde spesso una continuità incrementale. I LLM non hanno introdotto un concetto del tutto nuovo: hanno ampliato dimensioni e potenza, raffinato le architetture, sfruttato l’abbondanza di dati e calcolo. Il salto percepito non è tanto concettuale, quanto quantitativo. Lo stesso discorso vale per gli LRM: più che un cambio di paradigma, una riformulazione di potenzialità già note, confezionata in un’etichetta capace di mobilitare investimenti e attenzione. La sfida, per la ricerca e per la società, è distinguere la discontinuità narrativa – il cambio di sigla – dalla discontinuità tecnologica effettiva. Una sfida che riguarda la capacità di misurare, descrivere e contestualizzare ciò che i sistemi fanno davvero, invece di fermarsi al racconto pubblicitario.
Michel Callon e Bruno Latour hanno mostrato come scienza e tecnologia siano sempre frutto di reti di traduzione: gli attori costruiscono cornici interpretative condivise che danno senso ai processi in corso. Le sigle svolgono proprio questa funzione. Trasformano complessità ingegneristiche in formule maneggevoli, consentendo a ricercatori, imprese, istituzioni e opinione pubblica di comunicare e coordinarsi. Il problema emerge quando queste formule smettono di essere strumenti di orientamento e diventano sostituti della comprensione. È in questo slittamento che l’hype prende il sopravvento: la sigla si trasforma da strumento linguistico a garanzia di rivoluzione. Non ci si chiede più cosa cambi davvero, ma si dà per scontato che la novità sia reale solo perché è stata nominata.
Prendiamo il caso recente dei LRM. In assenza di metriche consolidate, la retorica pubblica li ha presentati come sistemi in grado di “ragionare”. Ma cosa intendiamo con questo termine? La capacità di risolvere puzzle logici? Di mantenere coerenza argomentativa su più passaggi? O di apprendere regole esplicite da un contesto? In realtà, le dimostrazioni finora disponibili sono parziali, e non sempre replicabili. Ciò non impedisce che il discorso pubblico li abbia già collocati in una nuova categoria ontologica. Un altro esempio è la stessa sigla AGI, intelligenza artificiale generale. Da oltre vent’anni ricorre nel dibattito accademico, ma ha assunto visibilità di massa solo quando alcune aziende hanno deciso di investirla di significato strategico. In questo caso, l’acronimo non designa un oggetto tecnico esistente, bensì una frontiera ideale, utile a mobilitare risorse e ad attrarre talenti. È un nome che produce effetti performativi, più che descrittivi.
Come distinguere allora tra novità reale e semplice rebranding? Servono criteri minimi di chiarificazione epistemologica. Ogni volta che nasce una sigla, dovremmo chiederci almeno tre cose:
- Quali sono le reali novità rispetto ai modelli precedenti?
- Quali metriche indipendenti lo dimostrano, in modo replicabile?
- Quali limiti strutturali restano irrisolti e dovrebbero essere dichiarati?
Solo così si può evitare che la comunicazione prenda il posto dell’analisi. Le sigle possono continuare a svolgere la loro funzione di orientamento, ma senza trasformarsi in feticci.
Il ciclo dell’hype, alimentato dalle sigle, ha conseguenze dirette sulla governance dell’AI. Politiche pubbliche e quadri regolatori rischiano di inseguire la narrazione dell’industria più che i dati concreti. Lo si è visto nel dibattito europeo attorno al regolamento sull’intelligenza artificiale: molte discussioni si sono concentrate su categorie di rischio definite in modo ampio e astratto, spesso più vicine alle parole del marketing che a un’analisi tecnica rigorosa. Allo stesso tempo, cresce una letteratura di commentatori che discute di coscienze artificiali e rischi esistenziali senza conoscere i meccanismi di base dei modelli. Ne risulta un cortocircuito: la retorica tecnologica gonfia le aspettative, la retorica filosofica le amplifica, e il dibattito pubblico resta intrappolato tra promesse e paure.
Se vogliamo sottrarre il discorso sull’AI alla fascinazione delle sigle, occorre un cambio di prospettiva. Non si tratta di smettere di nominare, ma di ridefinire il rapporto tra nomi e cose. Ogni acronimo deve essere accompagnato da analisi, metriche e contestualizzazione storica. Le sigle hanno il pregio della sintesi, ma il loro uso inflazionato rischia di generare più confusione che conoscenza. Per costruire una riflessione seria sull’intelligenza artificiale occorre superare la dipendenza da formule facili e intraprendere la strada più ardua: misurare empiricamente, analizzare criticamente, storicizzare con rigore.
Solo così il passaggio dal marketing all’epistemologia potrà compiersi davvero, restituendo all’AI non soltanto il suo potenziale tecnico, ma anche la dignità di oggetto di conoscenza e di responsabilità. È il primo passo di un percorso che richiede continuità: dalle sigle ai dati, dal linguaggio alle metriche, dall’hype alla comprensione.