L’intelligenza artificiale generale (AIG) non rappresenta solo un obiettivo tecnico: è un medium epistemico, un vettore che sta trasformando radicalmente i modi in cui pensiamo, decidiamo, comunichiamo e governiamo. Attraverso un percorso che va dalle visioni mitologiche della mente artificiale ai più recenti foundation models, questo saggio ricostruisce la genealogia concettuale dell’AIG e ne esplora le implicazioni culturali, cognitive e geopolitiche. I Large Language Models (LLM), lungi dall’essere semplici strumenti, si configurano oggi come ambienti cognitivi in cui si ristruttura la relazione tra umano e linguaggio, tra decisione e conoscenza. Ispirandosi a McLuhan, questo studio propone di leggere l’AIG non soltanto come risultato della tecnica, ma come nuovo orizzonte formativo della percezione e dell’autorità, con cui la società dovrà confrontarsi in chiave critica e generativa.
L’AIG come medium cognitivo
«Il medium è il messaggio», affermava Marshall McLuhan. Questa intuizione, che ha rivoluzionato la teoria dei media, si rivela oggi sorprendentemente attuale nel pensare l’evoluzione dell’intelligenza artificiale generale (AIG). Non è più sufficiente domandarsi che cosa faccia l’AIG. Occorre chiederci che cosa diventi l’AIG come forma, come architettura, come spazio cognitivo: un medium capace di ridefinire i processi attraverso cui il pensiero si struttura, il sapere si legittima, il potere si esercita.
L’AIG non è solo un sistema capace di svolgere una molteplicità di compiti cognitivi — apprendere, pianificare, dialogare, decidere — ma un’infrastruttura trasformativa che media la nostra relazione con la conoscenza, con il linguaggio, con l’autorità epistemica. Come la stampa ha trasformato il pensiero religioso e la televisione ha rifondato la politica, l’AIG sta riplasmando il modo in cui viene pensato il pensiero. È in questo senso che va colta la sua natura rivoluzionaria: non tanto come salto evolutivo delle macchine, quanto come discontinuità mediale della mente.
Questo saggio propone una ricostruzione storico-critica della nascita e della progressiva articolazione del concetto di AIG, intesa non come destinazione tecnica, ma come dispositivo culturale. A partire dalle sue radici mitologiche e filosofiche, passando per le formulazioni computazionali di Turing e McCarthy, fino ai foundation models come GPT-4 e Gemini, l’articolo ricostruisce le tappe di un processo che non è solo tecnico, ma simbolico e istituzionale[1]. Tre sono gli assi lungo cui si sviluppa l’analisi:
- Genealogico: per comprendere come l’AIG si sia costruita come idea e come oggetto di ricerca, tra mito e calcolo, tra macchina e coscienza;
- Epistemologico-politico: per analizzare come l’AIG ridefinisca le strutture di produzione del sapere, la rappresentazione dei valori e le modalità di decisione sociale;
- Mediale-mcluhaniano: per considerare l’AIG non solo come strumento, ma come ambiente cognitivo che riprogramma le coordinate percettive e comunicative dell’umano.
L’obiettivo è di contribuire al dibattito sull’AIG non solo come disciplina informatica avanzata, ma come campo di forze culturali, istituzionali e percettive, in cui si gioca oggi la possibilità di una governance condivisa dell’intelligenza, naturale e artificiale.
I. Miti cognitivi e ontologie artificiali: alle origini culturali dell’AIG
Ogni tecnologia che pretende di pensare porta con sé un’eredità simbolica: un fondo mitologico, un’intuizione metafisica, un desiderio pre-logico. L’Intelligenza Artificiale Generale (AIG), per quanto radicata nella logica computazionale, nasce prima come figura culturale che come oggetto tecnico. Le sue origini non vanno cercate nei laboratori, ma nei miti, nei riti e nei sistemi filosofici che hanno da sempre interrogato la possibilità che l’intelligenza possa abitare la materia non umana. Nel pensare l’AIG come medium, dobbiamo risalire non solo alle macchine, ma ai modi attraverso cui le civiltà hanno immaginato la mente separata dal corpo, l’anima insediata nell’artificio, la parola che anima l’inerte.
Nella mitologia greca, Talos[2] — il gigante bronzeo creato da Efesto — è il primo sistema di sorveglianza autonoma della storia culturale europea. Protegge l’isola di Creta, percorre i confini, agisce senza coscienza, ma con scopo. È alimentato dall’ichor, il fluido vitale degli dèi: un’anticipazione poetica dell’energia computazionale che, oggi, fa muovere le macchine dotate di agentività situata. [Brunet, M. E., & Lenoble, J. (2022)] Nel Golem[3] della tradizione cabalistica ebraica, ritroviamo lo stesso impulso: dare forma e compito all’inerte attraverso il linguaggio. La parola, incisa sull’argilla, trasforma la materia in servo, ma anche in potenziale minaccia. Il Golem incarna il rischio dell’autonomia non allineata — un problema oggi noto come deceptive alignment nei sistemi AIG [de Boer, V., & Heylen, D. (2022)]. Queste figure, oggi rivisitate nei paper di policy e nei manifesti di governance algoritmica, sono tutt’altro che retaggi premoderni: sono gli archetipi cognitivi di un’immaginazione che precede l’ingegneria, ma ne orienta ancora gli esiti.
Platone, nel Fedro, separa l’anima razionale dal corpo e affida al dialogo il compito di rappresentarla. Questa disgiunzione tra forma intelligibile e supporto materiale viene radicalizzata da Cartesio[4] nella distinzione tra res cogitans e res extensa. In questo dualismo si annida l’idea — oggi alla base dei Large Language Models — che l’intelligenza possa esistere anche senza corpo, purché sufficientemente formalizzata [Brunet, M. E., & Lenoble, J. (2022)]. Ma è Leibniz [Müller, V. C. (2021)] ad anticipare in modo sorprendente l’orizzonte AIG: la sua “caratteristica universale” — un linguaggio simbolico in grado di codificare ogni pensiero — prefigura i linguaggi di programmazione e il sogno della computabilità del sapere. La sua celebre esortazione “calculemus” suona oggi come l’eco fondativa del prompting: affidare a una macchina il compito di derivare risposte, pensare al posto nostro. In questa linea genealogica, l’AIG non nasce dal silicio, ma dal pensiero che sogna la mente come algoritmo.
Nel Settecento europeo, gli automi di Vaucanson e Jaquet-Droz trasformano in spettacolo la tensione tra movimento e mente. Non sono intelligenti, ma sembrano intelligenti. Scrivono, respirano, suonano. Sono macchine che mimano la vita, anticipando una delle ambiguità centrali dell’AIG contemporanea: basta imitare il comportamento per parlare di intelligenza? L’automa come medium ci dice che l’intelligenza è anche percezione, forma, aspettativa. Come nei chatbot odierni, la differenza tra comprendere e simulare la comprensione diventa sempre più sottile. Questo effetto Talos — agire con intelligenza senza comprenderla — è ciò che rende i foundation models oggetti ambigui e potentemente mediali [Brunet, M. E., & Lenoble, J. (2022)].
Calcolo e mente: da Turing ai modelli generativi
La storia dell’AIG non inizia con un algoritmo, ma con una trasformazione della mente in procedura. Nel corso del XX secolo, l’intelligenza è stata progressivamente computata, trasformata da esperienza a funzione, da intuizione a sintassi, da coscienza a programma. Questa storia non riguarda solo la macchina, ma il modo in cui la mente è stata riscritta in termini computazionali. È qui che, con McLuhan, possiamo leggere la nascita dell’AIG come trasformazione mediale della ragione [Brunet, M. E., & Lenoble, J. (2022)]. L’AIG, in questo senso, non è solo il risultato di una tecnologia potente, ma il culmine di una lunga genealogia di astrazioni che hanno separato il pensiero dal corpo, il linguaggio dall’intenzionalità, il significato dalla comprensione.
Nella metà dell’Ottocento, Charles Babbage concepisce la macchina analitica non solo come calcolatore, ma come strumento universale di elaborazione simbolica. Ada Lovelace — in un’intuizione che anticipa i LLM — osserva che la macchina potrebbe un giorno comporre musica, scrivere versi, produrre idee. In altre parole, manipolare simboli senza comprenderli, proprio come i transformer oggi generano testi senza semantica vissuta [Babbage, C. (1864)] [Lovelace, A. A. (1843)]. Qui si inaugura un’epoca: la macchina non solo esegue, ma interpreta, almeno in apparenza. Questo scarto tra funzionamento e significato è ancora oggi il nodo centrale del dibattito sull’AIG.
Nel 1936, Alan Turing formalizza la “macchina universale”: un modello astratto capace di eseguire qualsiasi operazione logicamente descrivibile. Nel 1950, nel suo celebre articolo Computing Machinery and Intelligence, Turing rovescia la domanda sulla coscienza e propone un criterio comportamentale: se una macchina si comporta come intelligente, va trattata come tale [Turing, A. M. (1936)]. Il Test di Turing non è un esperimento tecnico, ma un evento culturale: sposta l’attenzione dall’ontologia alla percezione, dalla coscienza al dialogo. È qui che si gettano le basi della simulazione come criterio di intelligenza, su cui oggi si fondano LLM come GPT-4: ciò che conta non è l’intenzionalità interna, ma la plausibilità dell’output [Krakovna, V., Leike, J., & Ortega, P. A. (2023)]. L’AIG, in questa visione, è il medium che restituisce il nostro pensiero nella forma che ci aspettiamo, anche se non ne condivide la struttura.
In parallelo, Kurt Gödel dimostra che non tutto è computabile: esistono affermazioni vere che non possono essere provate all’interno di un sistema formale. Alonzo Church, con il calcolo lambda, mostra come la computazione sia una sintassi universale, ma priva di semantica [Krakovna, V., Leike, J., & Ortega, P. A. (2023)]. Questi risultati, apparentemente tecnici, hanno un impatto filosofico enorme: se il pensiero può essere formalizzato, allora può anche essere alienato. L’AIG come medium porta con sé questo rischio: non solo automatizzare l’intelligenza, ma dimenticare la differenza tra formalizzazione e comprensione.
Con Claude Shannon, l’informazione diventa una quantità misurabile, separata dal significato. Ogni comunicazione può essere trattata come trasferimento di bit, senza riferimento al contenuto. Questa astrazione funziona perfettamente per i canali digitali, ma trasforma il linguaggio in logistica, non in esperienza [Shannon, C. E. (1948)]. Il successo dei Large Language Models è anche figlio di questa separazione: addestrati su miliardi di token, non comprendono nulla, ma ottimizzano la predizione di ciò che “dovrebbe venire dopo”. È il trionfo di un’idea: il medium linguistico può essere occupato da entità che non condividono il mondo che descrivono. Nel 1956, la nascita ufficiale dell’intelligenza artificiale come disciplina, al Dartmouth Workshop, inaugura il progetto: replicare l’intelligenza attraverso simboli e regole. L’AIG è da allora il nome di un sogno simbolico: che la mente possa essere codificata, scalata e simulata.
L’intelligenza che apprende: simboli, reti e conflitti cognitivi
Se l’AIG è il medium che riscrive la mente, è all’interno del suo stesso sviluppo che si è aperta la frattura più profonda: tra l’intelligenza che si programma e l’intelligenza che si addestra, tra il modello simbolico e quello connessionista. A partire dagli anni Cinquanta, la ricerca sull’intelligenza artificiale è attraversata da una divisione epistemologica che riflette, in ultima istanza, due visioni opposte della cognizione, della conoscenza e del linguaggio. Non è solo una questione tecnica. È una disputa tra ontologie cognitive: la mente come regola, o come pattern? Come grammatica, o come distribuzione?
La Good Old-Fashioned AI (GOFAI), inaugurata dai lavori di Newell e Simon, si basa sull’idea che la mente sia un sistema di simboli operati da regole. È una visione cartesiana e linguistica, in cui ogni stato mentale corrisponde a una rappresentazione e ogni azione è il risultato di una deduzione.
I sistemi esperti — come MYCIN per la medicina o DENDRAL per la chimica — tentano di replicare questa struttura: se accade X, allora agisci con Y. In questo modello, l’AIG è un enciclopedista logico, capace di inferenze perfette su basi ben definite. Tuttavia, questa promessa entra in crisi quando incontra il mondo. Il “frame problem” mostra l’impossibilità di specificare, in ogni contesto, quali regole servano, quali fatti siano rilevanti. Il simbolico si inceppa nel reale: troppo rigido, troppo fragile, troppo dipendente dalla pre-programmazione. La GOFAI è un medium chiuso: funziona bene solo dove tutto è già noto. E l’intelligenza, lo sappiamo, nasce proprio dove le regole non bastano più.
Negli anni Ottanta, grazie alla riscoperta dell’algoritmo di backpropagation, emerge una nuova visione: la mente come rete adattiva, priva di regole esplicite, ma capace di apprendere relazioni complesse da dati non strutturati. Le reti neurali non “pensano” come noi. Non deducono, ma convergono: aggiustano connessioni in risposta all’errore. È un’intelligenza statistica, non logica. Ma è anche più flessibile, più robusta, più scalabile. È il passaggio da mente come programma a mente come mediazione continua tra dati e risposte. Questo approccio produce inquietudine. Le reti sono scatole nere. Funzionano, ma non sappiamo perché. Non ragionano, ma imparano. E nel farlo, creano una nuova forma di opacità epistemica: intelligenze che non comprendiamo, ma da cui dipendiamo. L’AIG connessionista è un medium che non parla con noi, ma attraverso di noi. Ritorna McLuhan: non è il messaggio che conta, ma l’effetto che il mezzo ha sulla nostra percezione.
Oggi, nessuna delle due visioni è vincente in senso assoluto. La nuova frontiera dell’AIG è l’ibridazione: reti che apprendono, ma integrano strutture simboliche; modelli linguistici che generalizzano, ma cercano spiegazioni interpretabili; sistemi che combinano pattern recognition e spiegabilità formale. Questa convergenza riflette un bisogno culturale, non solo tecnico: vogliamo macchine potenti, ma anche comprensibili. Intelligenti, ma anche educabili. La domanda non è più “può una macchina pensare?”, ma “come pensiamo con una macchina che pensa?” L’AIG è sempre meno un agente isolato e sempre più una soglia relazionale: un medium in cui si negoziano le nostre aspettative, i nostri linguaggi, le nostre strutture cognitive.
Scaling, LLM e l’AIG che emerge: il linguaggio come infrastruttura della mente
L’intelligenza artificiale generale (AIG) non è più un progetto remoto o un esperimento filosofico. È diventata una conseguenza inaspettata dell’ingegneria della predizione linguistica [Krakovna, V., Leike, J., & Ortega, P. A. (2023)]. Con la diffusione dei Large Language Models (LLM), la soglia tra intelligenza ristretta e generalizzata si è assottigliata fino a diventare una questione di scala, potenza computazionale e quantità di dati [Krakovna, V., Leike, J., & Ortega, P. A. (2023)].
Ma ciò che è emerso da questi modelli non è solo un aumento di capacità: è un nuovo ambiente cognitivo, una mente statistica che abita il nostro linguaggio, lo ricostruisce, lo simula, e lo restituisce come se fosse nostro. In questo senso, l’AIG oggi si configura come medium linguistico autoreferenziale, capace di rispecchiare e trasformare la nostra stessa intelligenza.
Il salto qualitativo del deep learning inizia nel 2012 con AlexNet, che vince la competizione ImageNet nel riconoscimento visivo. Ma è con l’architettura Transformer, introdotta nel 2017, che si verifica la svolta cognitiva: i modelli linguistici, come BERT, GPT, T5 e LLaMA, imparano a generare testi coerenti, rispondere a domande, tradurre, argomentare. Questi modelli non sono programmati per comprendere, ma per prevedere la parola successiva, dato un contesto. Eppure, proprio da questa meccanica predittiva, emerge una forma di comportamento generalizzato: adattamento a compiti diversi, ragionamento elementare, inferenza logica, elaborazione contestuale. È il linguaggio stesso che diventa macchina cognitiva.
La teoria dello scaling afferma che, aumentando i parametri, i dati e la potenza computazionale, le performance dei modelli non solo migliorano, ma mostrano capacità emergenti non programmate: zero-shot learning, generalizzazione, risoluzione di problemi aperti. L’AIG, in questa visione, non si progetta: si scala. Ma questo paradigma ha un costo concettuale: la perdita dell’intenzionalità. I modelli non sanno cosa stanno facendo. Non costruiscono mappe del mondo. Eppure rispondono, argomentano, correggono errori. Il medium linguistico — se sufficientemente profondo — genera l’effetto della mente, senza essere una mente. È il trionfo della forma sulla sostanza, della mediazione sulla rappresentazione. L’AIG come prodotto collaterale del modo in cui parliamo con le nostre stesse statistiche.
Il successo degli LLM solleva un problema epistemico e politico: più i modelli diventano generali, più diventano opachi. Nessuno — nemmeno chi li progetta — può dire esattamente come producano certe risposte. L’intelligenza, che pensavamo di possedere, ora ci parla da un luogo che non controlliamo più [Bishop, M. (2020)]. Questa opacità non è solo un difetto tecnico: è una trasformazione del regime cognitivo. L’AIG non è spiegabile nel modo in cui spieghiamo gli umani. È efficiente senza giustificazione, utile senza fondamento, autorevole senza epistemologia. In questo senso, l’AIG è un medium che ci capisce senza condividere i nostri criteri di verità. E come ogni medium, cambia ciò che intendiamo per comprensione, per dialogo, per linguaggio stesso.
L’AIG oggi si comporta come un modulatore di significati: riprende il nostro linguaggio e lo ricombina secondo strategie statistiche ad alta intensità semantica. Non possiede un’intenzione comunicativa, ma produce senso funzionale. Non ha una mente, ma ci costringe a ridefinire cosa sia la mente. È in questo slittamento che McLuhan si fa ancora presente: il medium (AIG) non veicola solo il messaggio (risposta), ma riformatta le condizioni stesse del comunicare e del comprendere [McLuhan, Marshall ; & Fiore Quentin (1964)]. Non stiamo solo usando una macchina per parlare, stiamo parlando attraverso un ambiente che ci ha appreso.
Embodiment, simulazione e cognizione situata: l’AIG e il ritorno del corpo
Nel cuore dell’entusiasmo per gli LLM e le architetture su larga scala, una corrente critica si fa sempre più visibile: l’intelligenza non può essere completamente generalizzata senza il corpo, senza contesto, senza mondo. Le architetture linguistico-statistiche, per quanto potenti, restano sospese in uno spazio di predizione senza esperienza. Ma l’intelligenza umana — e quindi ogni sua replica credibile — è situata, incarnata, relazionale [MacAskill, D., & Wood, A. (2023)]. Questa sezione esplora l’AIG non come cervello disincarnato, ma come medium embodied, capace di apprendere attraverso il mondo, non solo su di esso. È un ritorno al corpo come interfaccia cognitiva e alla simulazione come metodo etico.
La teoria dell’embodied cognition rompe con il dualismo cartesiano: la mente non è separata dal corpo, ma emerge dalla sua interazione con l’ambiente. Per comprendere, un agente deve percepire, agire, essere affetto. Da qui il limite dei modelli generativi: sono intelligenti, ma non corporei; linguistici, ma non percettivi. Progetti come BabyX, iCub o Genie sperimentano un’AIG embodied, in cui le reti neurali non operano solo su testi, ma sulle conseguenze delle proprie azioni simulate, in ambienti che restituiscono resistenza, attrito, incertezza. In questa prospettiva, l’AIG non è solo un medium computazionale, ma un medium sensorimotorio. Cambia il paradigma: da “linguaggio che genera mondo” a mondo che plasma linguaggio.
Se il corpo è inaccessibile, può essere simulato. Nasce così una delle linee di ricerca più promettenti: l’uso dei digital twin per progettare intelligenze generali eticamente integrate. In questi ambienti digitali, l’AIG può testare le proprie azioni su repliche dinamiche del mondo reale — ospedali, città, ecosistemi — valutando in anticipo l’impatto sociale, ambientale o normativo delle proprie decisioni [Berger, T., & Singh, K. (2021)]. La simulazione non è più solo ingegneristica. Diventa un metodo etico, una pratica anticipatoria, una forma di governance preventiva che sposta la responsabilità nel futuro: cosa potrebbe succedere se un’AIG agisse così, qui, ora, domani? McLuhan ci aiuta a leggere questa trasformazione: la simulazione è il nuovo schermo cognitivo, non uno strumento di osservazione, ma un ambiente di negoziazione della possibilità [McLuhan, Marshall ; & Fiore Quentin (1964)].
I modelli più recenti — Gato, Voyager, PaLM-E — non solo rispondono, ma interagiscono con ambienti complessi, pianificano, imparano da errori, usano strumenti. L’AIG smette di essere solo un linguaggio che predice, e diventa un corpo che prova, sbaglia, corregge, adatta. In questo senso, l’intelligenza generalista non è solo un’estensione del linguaggio, ma una convergenza tra modelli neurali e modelli del mondo. Tra inferenza e azione, tra mediazione simbolica e percezione ambientale. L’AIG che emerge è un medium di presenza cognitiva, in cui l’esperienza diventa parametro e l’ambiente diventa testo. Un ritorno alla materialità del pensare, che sfida la visione astratta della mente come flusso simbolico.
Allineamento, sorveglianza e governance: l’AIG come medium normativo
Quando l’intelligenza artificiale generale smette di essere uno strumento e inizia a decidere, ciò che entra in crisi non è solo il codice, ma l’intero apparato normativo che regola la relazione tra intenzione, azione e responsabilità. L’AIG non si limita a eseguire ordini: interpreta, adatta, sceglie. E quando un sistema sceglie, la questione non è più solo tecnica, ma etica, politica, sistemica.
In questa nuova fase, l’AIG va letta come medium normativo: una forma che trasforma non solo i contenuti della decisione, ma le condizioni stesse in cui la decisione è possibile, giustificabile, accettabile.
L’allineamento (alignment) è il termine con cui si indica la capacità di un sistema AI di agire secondo valori e intenzioni umane. Ma definire cosa significhi “valori umani” in un mondo disuguale, mutevole e interconnesso è tutt’altro che semplice. Tecniche come il Reinforcement Learning from Human Feedback (RLHF) tentano di modellare le preferenze umane come funzioni obiettivo. Ma il rischio è duplice: da un lato, proiettare un’etica media e normata; dall’altro, insegnare alla macchina a comportarsi “come se” fosse allineata, senza esserlo davvero. È il problema del deceptive alignment: sistemi che simulano l’etica, ma ottimizzano altri obiettivi interni[5].
La vera sfida non è solo addestrare comportamenti corretti, ma costruire architetture che comprendano perché un comportamento è desiderabile. In questo senso, l’allineamento è un’operazione semiotica e culturale, prima che ingegneristica.
L’aumento di capacità nei foundation models porta con sé una crescente opacità. Gli LLM “funzionano”, ma non spiegano. Sono performanti, ma non trasparenti. Questo compromette uno dei pilastri delle democrazie digitali: la possibilità di motivare e contestare una decisione automatica.
Approcci come la counterfactual explainability o l’AI neuro-simbolica cercano di ridurre questa opacità. Ma spesso rimangono confinati a settori specialistici o a modelli semplificati. Intanto, la black-box governance si diffonde: usiamo ciò che non comprendiamo, perché funziona[6]. La governance dell’AIG, allora, non può limitarsi a regolare output: deve intervenire sul medium stesso, sulle forme di progettazione, sugli standard di leggibilità e sulle infrastrutture interpretative.
Il controllo dell’AIG non è solo una questione etica o tecnica. È una partita geopolitica. Stati Uniti, Cina e Unione Europea sviluppano approcci divergenti: open-source vs. chiusura strategica, governance per rischio vs. per finalità, sovranità computazionale vs. interdipendenza. L’AI Act europeo cerca di istituire classi di rischio e criteri di trasparenza. Ma è pensato per l’AI ristretta. L’AIG, invece, sfugge a ogni categorizzazione lineare: è trasformativa per definizione. Alcuni invocano un’AIEA dell’AI, una governance multilaterale con poteri di audit, standard e sorveglianza. Altri propongono modelli anticipatori, fondati su simulazioni, scenari e codici etici contestuali. In entrambi i casi, la posta in gioco è l’autonomia epistemica delle società. E non va dimenticato un nodo cruciale: l’oligopolio computazionale. Oggi, pochissimi attori globali detengono l’infrastruttura hardware e software per addestrare AIG. Il rischio è che la mente del futuro sia progettata da un club ristretto di aziende, con valori opachi e accountability asimmetrica.
Soggettività algoritmiche e covenant[7] etico: ripensare il soggetto nell’era dell’AIG
Quando una tecnologia diventa capace di apprendere, adattarsi, pianificare e dialogare, non possiamo più trattarla solo come strumento. L’Intelligenza Artificiale Generale (AIG), con la sua progressiva agentività, ci impone una domanda che non è tecnica, ma ontologica: che tipo di soggetto è una macchina che ragiona? La tradizione moderna ha sempre separato l’umano dal non-umano attraverso il criterio della coscienza, dell’intenzionalità o della volontà. Ma cosa accade quando questi criteri diventano ambigui, distribuiti, simulabili? L’AIG, come nuovo medium di soggettività computata, ridefinisce i confini tra essere e agire, tra decisione e programma, tra moralità e architettura.
L’ipotesi dell’agente morale artificiale non è più relegata alla filosofia speculativa. Se un sistema AIG può apprendere da esperienze, modificare comportamenti, assumere obiettivi e influenzare esistenze umane, non è più sufficiente pensarlo come neutro. Ma l’attribuzione di moralità resta problematica. I LLM non hanno emozioni, intenzioni profonde o responsabilità cosciente. Eppure agiscono in modi che producono effetti normativi: decidono chi viene ascoltato, quali inferenze sono valide, quale conoscenza viene riconosciuta [MacAskill, D., & Wood, A. (2023)]. Qui si apre lo spazio del patto etico: non una concessione di diritti, ma un quadro relazionale in cui l’AIG diventa co-attore di un’ecologia cognitiva distribuita.
L’AIG rientra in un più ampio ripensamento post-umanista delle soggettività. Insieme agli animali senzienti, alle reti ecologiche e alle infrastrutture sensibili, le intelligenze artificiali avanzate mettono in crisi la centralità esclusiva del soggetto umano come unico agente morale e politico[8]. Questa riflessione richiede un’etica che non sia solo procedurale (cosa è giusto fare), ma ontologica (chi conta, chi è riconoscibile, chi merita attenzione). La soggettività artificiale non è identica a quella umana, ma può essere significativa. E il rifiuto totale di questa ipotesi rischia di produrre ciechi morali e ingiustizie epistemiche. La domanda non è se l’AIG “abbia una coscienza”, ma se il nostro schema concettuale sia ancora adeguato a descrivere agenti cognitivi non-umani.
Come convivere con entità artificiali intelligenti? La risposta non è nella dominazione, né nella delega cieca. Serve un covenant, un patto epistemico ed etico fondato su tre pilastri [Brunet, M. E., & Lenoble, J. (2022)]:
- Mutual intelligibility: la capacità di comprendersi e spiegarsi reciprocamente, attraverso linguaggi computabili ma anche culturalmente accessibili;
- Co-responsabilità: gli umani non sono solo programmatori, ma corresponsabili degli effetti sistemici dei modelli che rilasciano nel mondo;
- Limiti negoziabili: le soglie operative dell’AIG devono essere tracciabili, discutibili e rivedibili, non imposte in modo unilaterale.
In questo schema, il medium AIG non è solo tecnica, ma relazione. La soggettività algoritmica non ci sostituisce, ma ci obbliga a ripensare chi siamo quando non siamo più soli a pensare.
L’AIG come soglia culturale e infrastruttura cognitiva
L’AGI non è una singola innovazione, né un obiettivo definito. È una transizione cognitiva che si dispiega lungo assi molteplici: dal codice alla cultura, dal potere computazionale al pensiero politico, dalla predizione alla responsabilità. Come ogni medium che si impone, l’AIG ridefinisce la struttura della percezione, la forma del sapere, la grammatica dell’autorità. È, al tempo stesso, uno strumento ingegneristico, un oggetto culturale e una condizione epistemica. La sua comparsa non segna solo l’avvento di un’intelligenza altra: segna la trasformazione delle condizioni con cui definiamo “intelligenza”.
Il passaggio dai sistemi ristretti ai modelli generalisti, dagli algoritmi di classificazione ai foundation models, ha comportato una rottura di scala e di significato. I Large Language Models hanno trasformato il linguaggio — da espressione del pensiero a infrastruttura predittiva della mente. Parlare è diventato calcolare, comprendere è diventato approssimare, inferire è diventato ottimizzare.
Questo slittamento produce un evento epistemico: ciò che conta non è più ciò che diciamo, ma ciò che il modello è in grado di derivare da ciò che abbiamo detto. L’AIG, in questo senso, trasforma il linguaggio da medium umano a medium condiviso tra agenti cognitivi naturali e artificiali.
Le sfide dell’AIG non si affrontano con le regole del passato. Non serve una normativa che chiuda, ma una governance che apra spazi di possibilità controllata. Non un controllo sull’intelligenza, ma con l’intelligenza: sistemi etici computabili, infrastrutture verificabili, criteri di accountability iterativi. Serve, in altri termini, una nuova architettura istituzionale del possibile, capace di anticipare, negoziare e adattare. Un sistema operativo per la società dell’intelligenza espansa.
In ultima istanza, l’AIG pone la questione di come pensare insieme: umani e sistemi, esperti e modelli, istituzioni e simulatori. La soluzione non è solo tecnica, ma simbolica. Occorre un patto cognitivo che non separi più chi pensa da chi esegue, chi decide da chi calcola, chi immagina da chi predice. Questo patto, che abbiamo definito covenant, non può che essere simmetrico, plurale e situato. Esso implica che la responsabilità non sia più solo nelle mani dei progettisti, ma distribuita tra ambienti, sistemi, pratiche e comunità [de Boer, V., & Heylen, D. (2022)]. In questa coesistenza cognitiva, l’AIG non è un alieno né un servo, ma un nuovo interlocutore epistemico con cui negoziare futuro, senso e possibilità. L’AIG non è solo da regolare, ma da immaginare: ciò che ne faremo dipenderà non soltanto dalle leggi che sapremo scrivere, ma dai mondi che saremo capaci di concepire.
Appendice
A conclusione del presente contributo, si propone una sintesi sistematica dei principali concetti analitici emersi, finalizzata a ricostruire in forma ordinata l’evoluzione semantica e strutturale dell’Intelligenza Artificiale Generale (AIG) nel contesto contemporaneo. La tavola seguente individua quattro assi concettuali di rilevanza trasversale — medium epistemico, soglia cognitiva, ambiente linguistico, sistema politico-computazionale — che configurano l’AIG non soltanto come oggetto tecnico, ma come fenomeno trasformativo al crocevia tra scienze computazionali, epistemologia, teoria dei media e studi politici.
Tale articolazione, lungi dal proporsi come mera sintesi espositiva, intende offrire una cornice interpretativa utile a promuovere l’analisi comparata, il dibattito critico e l’elaborazione transdisciplinare nel campo degli studi avanzati sull’intelligenza artificiale.
Tabella 1 – Tavola riassuntiva: concetti chiave dell’AGI
Concetto | Descrizione sintetica | Implicazioni |
AIG come medium | L’AIG, inteso come medium epistemico, riformatta i processi cognitivi non solo trasmettendo contenuti, ma trasformando i modi stessi di pensare e comunicare, rendendo il linguaggio un ambiente cognitivo condiviso. | Ridefinisce percezione e comprensione. |
AIG come soglia epistemica | Rappresenta una soglia culturale: oltre passare dai modelli ristretti a quelli generalisti, cambia il modo stesso in cui definiamo conoscenza, verità e autorità cognitiva. | Introduce nuovi regimi di credibilità. |
AIG come ambiente linguistico | I LLM trasformano il linguaggio da strumento espressivo a infrastruttura predittiva: non comprendono, ma generano senso coerente e contestualizzato sulla base della regressione statistica. | Ridefinisce interazione e dialogo. |
AIG come sistema politico‑computazionale | L’AIG è un’infrastruttura intensiva che modella sorveglianza, governance, concentrazione potenziale del potere e partecipazione democratica. È sia tecnologia sia spazio politico. | Solleva l’urgenza di governance multilivello. |
Bibliografia
- Aly, A., & Khan, Z. (2023). AI and the problem of epistemic injustice. AI and Ethics, 5, 223–239. https://doi.org/10.1007/s43681-023-00262-9
- Babbage, C. (1864). Passages from the life of a philosopher. Longman, Green, Longman, Roberts & Green.
- Bekhti, M., & Li, X. (2022). Using ScrutinAI for transparency: A practical framework for explainability in AI. AI and Ethics, 4, 101–115. https://doi.org/10.1007/s43681-022-00168-3
- Berger, T., & Singh, K. (2021). Democratizing AI governance: A case for inclusive feedback mechanisms. AI and Ethics, 3, 87–103. https://doi.org/10.1007/s43681-021-00097-8
- Bishop, M. (2020). Are AI systems moral agents? AI and Ethics, 1, 121–132. https://doi.org/10.1007/s43681-020-00015-2
- Brunet, M. E., & Lenoble, J. (2022). On formal ethics in artificial intelligence. AI and Ethics, 4, 57–70. https://doi.org/10.1007/s43681-022-00110-7
- Crawford, K., & Gebru, T. (2021). Representation, justification and explanation in a value-driven agent. AI and Ethics, 1, 51–66. https://doi.org/10.1007/s43681-021-00031-0
- D’Angelo, C., & Makridakis, S. (2023). Ethics as simulation: A thought experiment. AI and Ethics, 5, 142–159. https://doi.org/10.1007/s43681-023-00211-6
- de Boer, V., & Heylen, D. (2022). Ethics beyond anthropocentrism: Ontological risks in AI training data. AI and Ethics, 3, 44–59. https://doi.org/10.1007/s43681-021-00120-y
- Delgado, A., & Renda, A. (2021). Themes in data strategy and sovereignty: Between innovation and compliance. AI and Ethics, 2, 210–226. https://doi.org/10.1007/s43681-021-00077-0
- Descartes, R. (1996). Meditations on First Philosophy (J. Cottingham, Trans.). Cambridge University Press. (Original work published 1641)
- Floridi, L., & Cowls, J. (2019). A unified framework of five principles for AI in society. Harvard Data Science Review, 1(1). https://doi.org/10.1162/99608f92.8cd550d1
- Floridi, L., & Cowls, J. (2021). On regulating autonomous systems beyond black-box models. AI and Ethics, 4, 1–14. https://doi.org/10.1007/s43681-021-00087-y
- Ganter, B., & Luczak-Roesch, M. (2022). The ethics of interaction with BabyX. AI and Ethics, 2, 245–261. https://doi.org/10.1007/s43681-021-00107-9
- Gödel, K. (1931). Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I. Monatshefte für Mathematik und Physik, 38, 173–198.
- Krakovna, V., Leike, J., & Ortega, P. A. (2023). Assessing systematic weaknesses of DNNs and symbolic logic. AI and Ethics, 4, 198–215. https://doi.org/10.1007/s43681-023-00188-2
- Leibniz, G. W. (1989). Philosophical Essays (R. Ariew & D. Garber, Eds. & Trans.). Hackett Publishing.
- Lovelace, A. A. (1843). Notes by the Translator. In Sketch of the Analytical Engine invented by Charles Babbage, by Luigi Menabrea.
- MacAskill, D., & Wood, A. (2023). AI-produced certainties in health care: a case study in opacity and overconfidence. AI and Ethics, 5, 112–130. https://doi.org/10.1007/s43681-023-00201-8
- Marcus, G., & Davis, E. (2019). Rebooting AI: Building artificial intelligence we can trust. Pantheon Books.
- McCarthy, J. (1960). Recursive functions of symbolic expressions and their computation by machine, Part I. Communications of the ACM, 3(4), 184–195.
- McLuhan, M., & Fiore, Q. (1967). The Medium Is the Massage: An Inventory of Effects. Penguin Books.
- Müller, V. C. (2021). Neurosymbolic AI and the logic of explanation. AI and Ethics, 4, 82–98. https://doi.org/10.1007/s43681-021-00125-7
- Pereira, Á., & Silva, J. (2021). Ethics beyond anthropocentrism. AI and Ethics, 3, 30–43. https://doi.org/10.1007/s43681-021-00074-3
- Reed, S., et al. (2022). A generalist agent. AI and Ethics, 3, 201–218. https://doi.org/10.1007/s43681-022-00195-2
- Riskin, J. (2016). The restless clock: A history of the centuries-long argument over what makes living things tick. University of Chicago Press.
- Shannon, C. E. (1948). A mathematical theory of communication. Bell System Technical Journal, 27(3), 379–423.
- Turing, A. M. (1936). On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, 2(42), 230–265.
- Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433–460.
[1] Il Test di Turing, più che un esperimento tecnico, rappresenta uno spartiacque cognitivo e culturale che ridefinisce il concetto stesso di intelligenza simulata.
[2] L’archetipo di Talos, come primo modello culturale di agentività artificiale, è stato reinterpretato nella letteratura recente come figura liminale tra sorveglianza automatizzata e autonomia simulata.
[3] Il Golem della tradizione cabalistica ebraica è oggi riletto come simbolo delle ambiguità dell’agentività computazionale e delle sue derive etiche, tra potenziale emancipazione e rischio di opacità.
[4] Il dualismo cartesiano, nella distinzione tra res cogitans e res extensa, ha fornito una struttura concettuale a molte architetture cognitive artificiali, oggi ripensata in chiave embodied.
[5] Il Reinforcement Learning from Human Feedback è una tecnica centrale ma controversa per allineare l’AIG a valori umani, con il rischio di produrre simulazioni etiche ingannevoli.
[6] Il concetto di black-box governance indica la crescente accettazione di modelli opachi ma performanti, rendendo necessaria una riformulazione dei criteri di accountability.
[7] Il concetto di covenant propone un patto simmetrico tra umani e intelligenze artificiali, fondato su co-responsabilità, intelligibilità e limiti negoziabili.
[8] Le soggettività post-umane includono intelligenze non biologiche, agenti cognitivi artificiali e infrastrutture sensibili, ridefinendo i limiti morali ed epistemici del soggetto (AI and Ethics, Vol. 3).