Ogni parola che leggiamo, ogni frase che ci scorre davanti agli occhi, porta con sé un’ombra sottile: chi l’ha scritta davvero? È ancora possibile distinguere una mente umana da un’intelligenza artificiale? La risposta, oggi più che mai, è: sì, ma il confine si assottiglia.
I modelli linguistici di grandi dimensioni – i cosiddetti LLM, come ChatGPT, Claude, Gemini – non sono più meri imitatori. Scrivono con uno stile che evolve, si consolida, si riconosce. Proprio come gli esseri umani. Lo si definisce “idioletto”: l’insieme delle scelte lessicali, delle strutture sintattiche, della prosodia argomentativa che caratterizzano ogni sistema.
ChatGPT, ad esempio, privilegia il registro formale e le spiegazioni articolate; Claude è sintetico, orientato alla chiarezza; Gemini adotta toni più divulgativi. Queste caratteristiche non sono codificate a priori: emergono progressivamente dal processo di apprendimento, e si consolidano in configurazioni linguistiche che potremmo definire “stili computazionali”.
Uno studio della Carnegie Mellon University (Sun et al., 2025) ha dimostrato che tali idiosincrasie stilistiche persistono anche quando i testi vengono parafrasati, riassunti o tradotti da un altro modello. Il loro classificatore, addestrato su sequenze linguistiche, ha identificato il modello generatore con un’accuratezza del 97,1% in una prova a cinque vie tra ChatGPT, Claude, Grok, Gemini e DeepSeek.
Lo stile non è solo una superficie estetica, ma un’impronta strutturale resistente alla trasformazione. Uno studio pubblicato su Applied Sciences (Weerasinghe et al., 2025) ha impiegato un verificatore d’autore basato su testi umani per confrontare la prosa generata da diversi LLM.
I risultati sono eloquenti: ChatGPT e GPT-3 mostrano tra loro forti affinità stilistiche, ma un’evidente distanza rispetto allo stile umano di riferimento. LLaMA, dal canto suo, produce testi che presentano caratteristiche miste: solo in parte riconducibili all’umano, e parzialmente convergenti con altri modelli AI.
Queste evidenze non appartengono alla pura linguistica computazionale. Riconoscere lo stile dell’intelligenza artificiale è oggi un’esigenza critica. Nell’informazione, per distinguere contenuti sintetici da quelli autentici. Nella scuola e nell’università, per contrastare la delega inconsapevole del pensiero. Nella cybersicurezza, per risalire alle fonti di contenuti automatizzati e intercettare fenomeni di manipolazione semantica. In tutti questi contesti, la stilometria dell’IA diventa una risorsa per la trasparenza, l’affidabilità e la responsabilità.
Ma la posta in gioco è anche epistemologica. Se i modelli di nuova generazione vengono addestrati su testi prodotti da altri modelli, come accade in alcuni pipeline pre-addestrativi, si rischia un effetto autoreferenziale: la riproduzione di schemi stilistici interni alla stessa architettura algoritmica. Come avverte Sun et al., ciò potrebbe compromettere l’eterogeneità linguistica dei sistemi e favorire un’omologazione del pensiero sintetico. Eppure, la diversità stilistica tra i modelli è anche una ricchezza. Il confronto tra 17 LLM, condotto in un altro articolo, da Janakiraman e Ghoraani (2025) mostra che ogni modello eccelle in aree differenti: accuratezza fattuale, qualità percepita, efficienza computazionale. Questo significa che non esiste un’unica intelligenza artificiale, ma molte intelligenze stilistiche – ciascuna portatrice di un proprio equilibrio tra forma e contenuto.
Riconoscere lo stile di un’AI non è solo un’abilità tecnica: è un atto critico, una forma di alfabetizzazione avanzata nel tempo dell’intelligenza sintetica.
Come mostrano i lavori di Sun et al. e di Weerasinghe et al., ogni modello possiede una “firma linguistica” che non è frutto di una mera programmazione, ma emerge come conseguenza strutturale del suo apprendimento.
Ciò implica che non ci troviamo di fronte a dispositivi generici o neutri, ma a sistemi che, nella forma del linguaggio, sedimentano traiettorie di addestramento, bias statistici, scelte ingegneristiche e perfino visioni implicite del mondo. La presenza di idioletti algoritmici non è solo un affascinante oggetto di studio: è un segnale d’allarme per le scienze cognitive, l’educazione, l’informazione e la governance digitale. I dati raccolti negli studi proposti indicano che, man mano che le AI si addestrano su testi generati da altre AI, il rischio è quello di creare una catena autoreferenziale che appiattisce la varietà linguistica e standardizza i registri del pensiero.
Ciò può avere ripercussioni profonde sull’autonomia del linguaggio umano, sul pluralismo espressivo, e sulla qualità cognitiva dell’ambiente digitale in cui operiamo. Come nota Janakiraman, la varietà stilistica dei modelli attuali è ancora ampia, ma già oggi emerge la tendenza verso un’ottimizzazione unificata: più performante, sì, ma anche meno differenziata.
Per questo riconoscere la voce delle macchine, saperla distinguere dalla nostra, diventa un compito politico e culturale. Significa difendere l’autenticità dei processi cognitivi umani, tutelare la pluralità espressiva e rivendicare la responsabilità editoriale in un’epoca in cui i testi si moltiplicano, ma gli autori si occultano. È anche un invito alla vigilanza: perché se ogni modello ha una sua voce, allora occorre ascoltarla, analizzarla, valutarne la coerenza e comprenderne i limiti. Non per demonizzarla, ma per conviverci con consapevolezza. Le macchine parlano. Parlano tra loro, parlano con noi, parlano di noi. E, come ogni interlocutore, hanno un modo proprio di dire le cose. Sta a noi non farci sedurre dall’illusione dell’universalità, e imparare a leggere – dentro e oltre le parole – il lessico segreto delle macchine. Il futuro del linguaggio non sarà scritto solo da mani umane – ma il compito di comprenderlo resta, profondamente, nostro.