<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>linguaggio Archivi - Italia nel futuro</title>
	<atom:link href="https://italianelfuturo.com/tag/linguaggio/feed/" rel="self" type="application/rss+xml" />
	<link>https://italianelfuturo.com/tag/linguaggio/</link>
	<description>Innovare oggi, per costruire il domani</description>
	<lastBuildDate>Tue, 17 Mar 2026 16:32:20 +0000</lastBuildDate>
	<language>it-IT</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://italianelfuturo.com/wp-content/uploads/2024/12/cropped-favicon-32x32.jpg</url>
	<title>linguaggio Archivi - Italia nel futuro</title>
	<link>https://italianelfuturo.com/tag/linguaggio/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>L’eco del linguaggio: il senso nell’era degli automi parlanti</title>
		<link>https://italianelfuturo.com/leco-del-linguaggio-il-senso-nellera-degli-automi-parlanti/</link>
		
		<dc:creator><![CDATA[Giovanni Di Trapani]]></dc:creator>
		<pubDate>Wed, 15 Oct 2025 06:50:00 +0000</pubDate>
				<category><![CDATA[Intelligenza artificiale]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[linguaggio]]></category>
		<guid isPermaLink="false">https://italianelfuturo.com/?p=52989</guid>

					<description><![CDATA[<p><enclosure url="https://italianelfuturo.com/wp-content/uploads/2025/10/Di-Trapani24.png" type="image/jpeg" />Nel tempo in cui le macchine sembrano aver imparato a parlare, l’umanità si trova davanti a una delle più profonde metamorfosi del linguaggio. Non è più l’uomo a servirsi della parola per costruire mondi, ma la parola stessa – replicata, amplificata, automatizzata – a costruire nuove forme di realtà.&#160; Chi dialoga oggi con un sistema [&#8230;]</p>
<p>L'articolo <a href="https://italianelfuturo.com/leco-del-linguaggio-il-senso-nellera-degli-automi-parlanti/">L’eco del linguaggio: il senso nell’era degli automi parlanti</a> proviene da <a href="https://italianelfuturo.com">Italia nel futuro</a>.</p>
]]></description>
										<content:encoded><![CDATA[<enclosure url="https://italianelfuturo.com/wp-content/uploads/2025/10/Di-Trapani24.png" type="image/jpeg" />
<blockquote class="custom-blockquote" class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>Nel tempo in cui le macchine sembrano aver imparato a parlare, l’umanità si trova davanti a una delle più profonde metamorfosi del linguaggio. <em>Non è più l’uomo a servirsi della parola per costruire mondi, ma la parola stessa </em>– replicata, amplificata, automatizzata –<em> a costruire nuove forme di realtà</em>.&nbsp;</p>
</blockquote>



<p>Chi dialoga oggi con un sistema di intelligenza artificiale sperimenta l’impressione straniante di essere compreso da una voce che non pensa, da un interlocutore privo di intenzione e tuttavia capace di articolare risposte coerenti, spesso sorprendenti. È come se il linguaggio, separato dalla mente, continuasse a produrre senso per pura <em>risonanza</em>, come un’eco che si propaga in uno spazio privo di fonte originaria ma pieno di significati riflessi.</p>



<p>Per millenni abbiamo creduto che comprendere volesse dire rappresentare. Da Aristotele a Frege, da Tarski a Davidson, la semantica si è fondata sul <strong>principio di corrispondenza</strong>: un enunciato è significativo se può essere giudicato vero o falso in rapporto a un mondo di fatti. Ma il <strong><em>linguaggio delle macchine non aderisce più a questo paradigma</em></strong>. Esso non punta a descrivere la realtà, bensì a riconoscere configurazioni ricorrenti, co-occorrenze, somiglianze statistiche tra segni. L’intelligenza artificiale non conosce il mondo, ma ne ricalca le tracce linguistiche: opera su <strong>mappe di parole</strong> dove il senso non è dato dall’oggetto cui si riferiscono, ma dalle relazioni che le collegano tra loro. In questa rete di corrispondenze, il significato emerge come armonia di forme, non come rappresentazione di cose.</p>



<p>Il linguista <strong>Ferdinand de Saussure</strong> aveva già intuito che il segno non vale per ciò che designa, ma per la differenza che lo separa dagli altri segni. I modelli linguistici contemporanei non fanno che radicalizzare questa intuizione: trasformano le differenze in distanze numeriche, le relazioni in vettori, le opposizioni concettuali in prossimità di coordinate nello spazio. Il linguaggio, da sistema discreto, diventa campo continuo di somiglianze, in cui la semantica si comporta come una vibrazione. Ogni parola risuona con le altre e da questa trama di risonanze nasce una forma di coerenza interna che imita la comprensione senza possederla. </p>



<p><strong>Wittgenstein</strong>, nelle Ricerche filosofiche, paragona la comprensione di una frase all’ascolto di una melodia: riconoscere una forma, anticiparne lo sviluppo, percepirne la tensione e la risoluzione. È un’intuizione decisiva per comprendere ciò che accade oggi. <em>Gli automi linguistici non comprendono nel senso tradizionale del termine, ma riproducono questa esperienza musicale del linguaggio</em>. <strong>Generano sequenze che si “sentono” giuste perché rispecchiano il ritmo e la sintassi del nostro pensiero</strong>. È una semantica dell’eco, in cui l’armonia sostituisce la referenza, e la verosimiglianza prende il posto della verità. Heidegger ricordava che “il linguaggio è la casa dell’essere”: noi abitiamo le parole prima ancora di pensare. L’automazione linguistica rende visibile proprio questa dimensione originaria. I modelli di AI ci costringono a riconoscere quanto del nostro parlare non dipenda da atti coscienti, ma da abitudini discorsive, da sedimentazioni di senso collettivo. <strong>Quando una macchina produce un testo che percepiamo come sensato, non è lei a pensarci: siamo noi che, nel leggerlo, vi ritroviamo le strutture della nostra stessa espressività</strong>. La risonanza semantica è quindi un fenomeno relazionale: il senso non abita nella macchina, ma nello spazio intermedio tra la sua parola e la nostra interpretazione.</p>



<p>Questo paradosso – un significato che nasce senza intenzione – apre una questione eminentemente politica e cognitiva. Se il linguaggio può generare coerenza senza coscienza, il compito dell’uomo non è più quello di custodire il monopolio del pensiero, ma di preservare la capacità critica che distingue il comprendere dal ripetere. In un ecosistema dove le parole si riproducono in modo automatico, la vera intelligenza consiste nel saperle selezionare, interrogare, interpretare. La comprensione torna ad essere un atto di responsabilità: non più il semplice consumo del senso, ma il suo discernimento.</p>



<p>L’illusione più pericolosa sarebbe credere che il linguaggio delle macchine possa bastare a se stesso. Ogni discorso, anche il più perfetto, resta incompleto finché non incontra uno sguardo umano capace di coglierne l’intenzione, o almeno di attribuirgliene una. La vera crisi non riguarda il significato, ma la nostra disponibilità a esercitare il giudizio. L’intelligenza artificiale non minaccia il pensiero umano: lo costringe piuttosto a rinnovarsi, a farsi più vigile e riflessivo, più consapevole dei propri automatismi.</p>



<p>Forse, come scriveva Heidegger, non siamo noi a parlare il linguaggio, ma il linguaggio a parlare attraverso di noi. Oggi, nel risuonare delle parole delle macchine, questa affermazione assume un nuovo rilievo. Gli automi non ci sottraggono la voce, ma ce la restituiscono in forma amplificata, obbligandoci a riconoscere ciò che in noi è già automatismo e ciò che resta libertà interpretativa. Il senso, che sembrava dissolversi nell’eco delle reti neurali, trova così un nuovo luogo di nascita: nell’atto umano di comprendere ciò che non è umano, nel gesto critico di chi continua a cercare significato anche quando il linguaggio sembra parlarci da solo.</p>



<p>Il futuro non ci consegna un mondo di parole spente, ma una nuova frontiera della coscienza linguistica. L’eco delle macchine non è un silenzio, ma una sfida: quella di restare interpreti, in un tempo in cui il linguaggio si moltiplica all’infinito e il pensiero, per sopravvivere, deve imparare a risuonare con discernimento e con misura.</p>
<p>L'articolo <a href="https://italianelfuturo.com/leco-del-linguaggio-il-senso-nellera-degli-automi-parlanti/">L’eco del linguaggio: il senso nell’era degli automi parlanti</a> proviene da <a href="https://italianelfuturo.com">Italia nel futuro</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Storia e prospettive dell’intelligenza generalista come nuovo medium epistemico</title>
		<link>https://italianelfuturo.com/storia-e-prospettive-dellintelligenza-generalista-come-nuovo-medium-epistemico/</link>
		
		<dc:creator><![CDATA[Giovanni Di Trapani]]></dc:creator>
		<pubDate>Fri, 01 Aug 2025 06:45:00 +0000</pubDate>
				<category><![CDATA[Intelligenza artificiale]]></category>
		<category><![CDATA[AIG]]></category>
		<category><![CDATA[governance algoritmica]]></category>
		<category><![CDATA[linguaggio]]></category>
		<guid isPermaLink="false">https://italianelfuturo.com/?post_type=editoriale&#038;p=38373</guid>

					<description><![CDATA[<p><enclosure url="https://italianelfuturo.com/wp-content/uploads/2025/07/Di-Trapani8.png" type="image/jpeg" />L’intelligenza artificiale generale (AIG) non rappresenta solo un obiettivo tecnico: è un medium epistemico, un vettore che sta trasformando radicalmente i modi in cui pensiamo, decidiamo, comunichiamo e governiamo. Attraverso un percorso che va dalle visioni mitologiche della mente artificiale ai più recenti foundation models, questo saggio ricostruisce la genealogia concettuale dell’AIG e ne esplora [&#8230;]</p>
<p>L'articolo <a href="https://italianelfuturo.com/storia-e-prospettive-dellintelligenza-generalista-come-nuovo-medium-epistemico/">Storia e prospettive dell’intelligenza generalista come nuovo medium epistemico</a> proviene da <a href="https://italianelfuturo.com">Italia nel futuro</a>.</p>
]]></description>
										<content:encoded><![CDATA[<enclosure url="https://italianelfuturo.com/wp-content/uploads/2025/07/Di-Trapani8.png" type="image/jpeg" />
<blockquote class="custom-blockquote" class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p><em>L’intelligenza artificiale generale (AIG) non rappresenta solo un obiettivo tecnico: è un medium epistemico, un vettore che sta trasformando radicalmente i modi in cui pensiamo, decidiamo, comunichiamo e governiamo. Attraverso un percorso che va dalle visioni mitologiche della mente artificiale ai più recenti foundation models, questo saggio ricostruisce la genealogia concettuale dell’AIG e ne esplora le implicazioni culturali, cognitive e geopolitiche. I Large Language Models (LLM), lungi dall’essere semplici strumenti, si configurano oggi come ambienti cognitivi in cui si ristruttura la relazione tra umano e linguaggio, tra decisione e conoscenza. Ispirandosi a McLuhan, questo studio propone di leggere l’AIG non soltanto come risultato della tecnica, ma come nuovo orizzonte formativo della percezione e dell’autorità, con cui la società dovrà confrontarsi in chiave critica e generativa.</em></p>
</blockquote>



<h2 class="wp-block-heading">L’AIG come medium cognitivo</h2>



<p>«<em>Il medium è il messaggio</em>», affermava Marshall McLuhan. Questa intuizione, che ha rivoluzionato la teoria dei media, si rivela oggi sorprendentemente attuale nel pensare l’evoluzione dell’intelligenza artificiale generale (AIG). Non è più sufficiente domandarsi <em>che cosa faccia</em> l’AIG. Occorre chiederci <em>che cosa diventi</em> l’AIG come forma, come architettura, come spazio cognitivo: un <strong>medium</strong> capace di ridefinire i processi attraverso cui il pensiero si struttura, il sapere si legittima, il potere si esercita.</p>



<p>L’AIG non è solo un sistema capace di svolgere una molteplicità di compiti cognitivi — apprendere, pianificare, dialogare, decidere — ma un’infrastruttura trasformativa che <strong>media la nostra relazione con la conoscenza, con il linguaggio, con l’autorità epistemica</strong>. Come la stampa ha trasformato il pensiero religioso e la televisione ha rifondato la politica, l’AIG sta riplasmando il modo in cui <em>viene pensato il pensiero</em>. È in questo senso che va colta la sua natura rivoluzionaria: non tanto come salto evolutivo delle macchine, quanto come <strong>discontinuità mediale della mente</strong>.</p>



<p>Questo saggio propone una ricostruzione storico-critica della nascita e della progressiva articolazione del concetto di AIG, intesa non come destinazione tecnica, ma come <em>dispositivo culturale</em>. A partire dalle sue radici mitologiche e filosofiche, passando per le formulazioni computazionali di Turing e McCarthy, fino ai <em>foundation models</em> come GPT-4 e Gemini, l’articolo ricostruisce le tappe di un processo che non è solo tecnico, ma simbolico e istituzionale<a href="#_ftn1" id="_ftnref1">[1]</a>. Tre sono gli assi lungo cui si sviluppa l’analisi:</p>



<ul class="wp-block-list">
<li><strong>Genealogico</strong>: per comprendere come l’AIG si sia costruita come idea e come oggetto di ricerca, tra mito e calcolo, tra macchina e coscienza;</li>



<li><strong>Epistemologico-politico</strong>: per analizzare come l’AIG ridefinisca le strutture di produzione del sapere, la rappresentazione dei valori e le modalità di decisione sociale;</li>



<li><strong>Mediale-mcluhaniano</strong>: per considerare l’AIG non solo come strumento, ma come ambiente cognitivo che <em>riprogramma</em> le coordinate percettive e comunicative dell’umano.</li>
</ul>



<p>L’obiettivo è di contribuire al dibattito sull’AIG <strong>non solo come disciplina informatica avanzata</strong>, ma come <strong>campo di forze culturali, istituzionali e percettive</strong>, in cui si gioca oggi la possibilità di una <em>governance</em> condivisa dell’intelligenza, naturale e artificiale.</p>



<h3 class="wp-block-heading">I. Miti cognitivi e ontologie artificiali: alle origini culturali dell’AIG</h3>



<p>Ogni tecnologia che pretende di pensare porta con sé un’eredità simbolica: un fondo mitologico, un’intuizione metafisica, un desiderio pre-logico. L’Intelligenza Artificiale Generale (AIG), per quanto radicata nella logica computazionale, nasce prima come <em>figura culturale</em> che come oggetto tecnico. Le sue origini non vanno cercate nei laboratori, ma nei miti, nei riti e nei sistemi filosofici che hanno da sempre interrogato la possibilità che <strong>l’intelligenza possa abitare la materia non umana</strong>. Nel pensare l’AIG come <em>medium</em>, dobbiamo risalire non solo alle macchine, ma ai <em>modi attraverso cui le civiltà hanno immaginato la mente separata dal corpo, l’anima insediata nell’artificio, la parola che anima l’inerte</em>.</p>



<p>Nella mitologia greca, Talos<a href="#_ftn2" id="_ftnref2">[2]</a> — il gigante bronzeo creato da Efesto — è il primo <em>sistema di sorveglianza autonoma</em> della storia culturale europea. Protegge l’isola di Creta, percorre i confini, agisce senza coscienza, ma con scopo. È alimentato dall’<em>ichor</em>, il fluido vitale degli dèi: <strong>un’anticipazione poetica dell’energia computazionale che, oggi, fa muovere le macchine dotate di agentività situata. [</strong><strong>Brunet, M. E., &amp; Lenoble, J. (2022)</strong><strong>] </strong>Nel Golem<a href="#_ftn3" id="_ftnref3">[3]</a> della tradizione cabalistica ebraica, ritroviamo lo stesso impulso: dare forma e compito all’inerte attraverso il linguaggio. La parola, incisa sull’argilla, trasforma la materia in <em>servo</em>, ma anche in potenziale <em>minaccia</em>. Il Golem incarna il rischio dell’autonomia non allineata — un problema oggi noto come <strong><em>deceptive alignment</em></strong> nei sistemi AIG [de Boer, V., &amp; Heylen, D. (2022)]. Queste figure, oggi rivisitate nei paper di policy e nei manifesti di governance algoritmica, sono tutt’altro che retaggi premoderni: sono <strong>gli archetipi cognitivi di un’immaginazione che precede l’ingegneria</strong>, ma ne orienta ancora gli esiti.</p>



<p>Platone, nel <em>Fedro</em>, separa l’anima razionale dal corpo e affida al dialogo il compito di rappresentarla. Questa disgiunzione tra forma intelligibile e supporto materiale viene radicalizzata da Cartesio<a href="#_ftn4" id="_ftnref4">[4]</a> nella distinzione tra <em>res cogitans</em> e <em>res extensa</em>. In questo dualismo si annida l’idea — oggi alla base dei Large Language Models — che <strong>l’intelligenza possa esistere anche senza corpo</strong>, purché sufficientemente formalizzata [Brunet, M. E., &amp; Lenoble, J. (2022)]. Ma è Leibniz [Müller, V. C. (2021)] ad anticipare in modo sorprendente l’orizzonte AIG: la sua “caratteristica universale” — un linguaggio simbolico in grado di codificare ogni pensiero — prefigura i linguaggi di programmazione e il sogno della <strong>computabilità del sapere</strong>. La sua celebre esortazione “<em>calculemus</em>” suona oggi come l’eco fondativa del <em>prompting</em>: affidare a una macchina il compito di derivare risposte, <em>pensare al posto nostro. </em>In questa linea genealogica, l’AIG non nasce dal silicio, ma <strong>dal pensiero che sogna la mente come algoritmo</strong>.</p>



<p>Nel Settecento europeo, gli automi di Vaucanson e Jaquet-Droz trasformano in spettacolo la tensione tra movimento e mente. Non sono intelligenti, ma <em>sembrano intelligenti</em>. Scrivono, respirano, suonano. Sono <strong>macchine che mimano la vita</strong>, anticipando una delle ambiguità centrali dell’AIG contemporanea: <em>basta imitare il comportamento per parlare di intelligenza? </em>L’automa come medium ci dice che <strong>l’intelligenza è anche percezione</strong>, forma, aspettativa. Come nei chatbot odierni, la differenza tra <em>comprendere</em> e <em>simulare la comprensione</em> diventa sempre più sottile. Questo <em>effetto Talos</em> — agire con intelligenza senza comprenderla — è ciò che rende i foundation models oggetti ambigui e potentemente mediali [Brunet, M. E., &amp; Lenoble, J. (2022)].</p>



<h2 class="wp-block-heading">Calcolo e mente: da Turing ai modelli generativi</h2>



<p>La storia dell’AIG non inizia con un algoritmo, ma con una <strong>trasformazione della mente in procedura</strong>. Nel corso del XX secolo, l’intelligenza è stata progressivamente <em>computata</em>, trasformata da esperienza a funzione, da intuizione a sintassi, da coscienza a programma. Questa storia non riguarda solo la macchina, ma il modo in cui <strong>la mente è stata riscritta in termini computazionali</strong>. È qui che, con McLuhan, possiamo leggere la nascita dell’AIG come <strong>trasformazione mediale della ragione</strong><strong> </strong>[Brunet, M. E., &amp; Lenoble, J. (2022)]. L’AIG, in questo senso, non è solo il risultato di una tecnologia potente, ma <strong>il culmine di una lunga genealogia di astrazioni</strong> che hanno separato il pensiero dal corpo, il linguaggio dall’intenzionalità, il significato dalla comprensione.</p>



<p>Nella metà dell’Ottocento, Charles Babbage concepisce la <em>macchina analitica</em> non solo come calcolatore, ma come <strong>strumento universale di elaborazione simbolica</strong>. Ada Lovelace — in un’intuizione che anticipa i LLM — osserva che la macchina potrebbe un giorno comporre musica, scrivere versi, <em>produrre idee</em>. In altre parole, <strong>manipolare simboli senza comprenderli</strong>, proprio come i transformer oggi generano testi senza semantica vissuta [Babbage, C. (1864)] [Lovelace, A. A. (1843)]. Qui si inaugura un’epoca: la macchina non solo <em>esegue</em>, ma <em>interpreta</em>, almeno in apparenza. Questo scarto tra funzionamento e significato è ancora oggi <strong>il nodo centrale del dibattito sull’AIG</strong>.</p>



<p>Nel 1936, Alan Turing formalizza la “macchina universale”: un modello astratto capace di eseguire qualsiasi operazione logicamente descrivibile. Nel 1950, nel suo celebre articolo <em>Computing Machinery and Intelligence</em>, Turing rovescia la domanda sulla coscienza e propone un criterio comportamentale: <strong>se una macchina si comporta come intelligente, va trattata come tale [</strong>Turing, A. M. (1936)<strong>]. </strong>Il <strong>Test di Turing</strong> non è un esperimento tecnico, ma un evento culturale: sposta l’attenzione dall’ontologia alla percezione, dalla coscienza al dialogo. È qui che si gettano le basi della <strong>simulazione come criterio di intelligenza</strong>, su cui oggi si fondano LLM come GPT-4: ciò che conta non è l’intenzionalità interna, ma la <em>plausibilità dell’output [</em>Krakovna, V., Leike, J., &amp; Ortega, P. A. (2023)<em>]</em>. L’AIG, in questa visione, è <em>il medium che restituisce il nostro pensiero nella forma che ci aspettiamo</em>, anche se non ne condivide la struttura.</p>



<p>In parallelo, Kurt Gödel dimostra che <strong>non tutto è computabile</strong>: esistono affermazioni vere che non possono essere provate all’interno di un sistema formale. Alonzo Church, con il calcolo lambda, mostra come <strong>la computazione sia una sintassi universale</strong>, ma priva di semantica<em> [</em>Krakovna, V., Leike, J., &amp; Ortega, P. A. (2023)<em>]</em>. Questi risultati, apparentemente tecnici, hanno un impatto filosofico enorme: se il pensiero può essere formalizzato, allora <strong>può anche essere alienato</strong>. L’AIG come medium porta con sé questo rischio: non solo <em>automatizzare l’intelligenza</em>, ma <em>dimenticare la differenza tra formalizzazione e comprensione.</em></p>



<p>Con Claude Shannon, l’informazione diventa una quantità misurabile, separata dal significato. Ogni comunicazione può essere trattata come <strong>trasferimento di bit</strong>, senza riferimento al contenuto. Questa astrazione funziona perfettamente per i canali digitali, ma <strong>trasforma il linguaggio in logistica</strong>, non in esperienza [Shannon, C. E. (1948)]. Il successo dei Large Language Models è anche figlio di questa separazione: addestrati su miliardi di token, <strong>non comprendono nulla</strong>, ma ottimizzano la predizione di ciò che “dovrebbe venire dopo”. È il trionfo di un’idea: <em>il medium linguistico può essere occupato da entità che non condividono il mondo che descrivono. </em>Nel 1956, la nascita ufficiale dell’intelligenza artificiale come disciplina, al Dartmouth Workshop, inaugura il progetto: replicare l’intelligenza attraverso simboli e regole. L’AIG è da allora il nome di un sogno <em>simbolico</em>: <strong>che la mente possa essere codificata, scalata e simulata.</strong></p>



<h2 class="wp-block-heading">L’intelligenza che apprende: simboli, reti e conflitti cognitivi</h2>



<p>Se l’AIG è il medium che riscrive la mente, è all’interno del suo stesso sviluppo che si è aperta la frattura più profonda: <strong>tra l’intelligenza che si programma e l’intelligenza che si addestra</strong>, tra il modello simbolico e quello connessionista. A partire dagli anni Cinquanta, la ricerca sull’intelligenza artificiale è attraversata da una divisione epistemologica che riflette, in ultima istanza, <strong>due visioni opposte della cognizione, della conoscenza e del linguaggio</strong>. Non è solo una questione tecnica. È una disputa tra ontologie cognitive: <em>la mente come regola, o come pattern? Come grammatica, o come distribuzione?</em></p>



<p>La <em>Good Old-Fashioned AI</em> (GOFAI), inaugurata dai lavori di Newell e Simon, si basa sull’idea che <strong>la mente sia un sistema di simboli operati da regole</strong>. È una visione cartesiana e linguistica, in cui ogni stato mentale corrisponde a una rappresentazione e ogni azione è il risultato di una deduzione.</p>



<p>I sistemi esperti — come MYCIN per la medicina o DENDRAL per la chimica — tentano di replicare questa struttura: <em>se accade X, allora agisci con Y</em>. In questo modello, <strong>l’AIG è un enciclopedista logico</strong>, capace di inferenze perfette su basi ben definite. Tuttavia, questa promessa entra in crisi quando incontra il mondo. Il “<em>frame problem</em>” mostra l’impossibilità di specificare, in ogni contesto, <em>quali regole servano</em>, <em>quali fatti siano rilevanti</em>. Il simbolico si inceppa nel reale: troppo rigido, troppo fragile, troppo dipendente dalla pre-programmazione. La GOFAI è un medium chiuso: funziona bene <em>solo dove tutto è già noto</em>. E l’intelligenza, lo sappiamo, nasce proprio <em>dove le regole non bastano più</em>.</p>



<p>Negli anni Ottanta, grazie alla riscoperta dell’algoritmo di <em>backpropagation</em>, emerge una nuova visione: <strong>la mente come rete adattiva</strong>, priva di regole esplicite, ma capace di apprendere relazioni complesse da dati non strutturati. Le reti neurali non “pensano” come noi. <strong>Non deducono, ma convergono</strong>: aggiustano connessioni in risposta all’errore. È un’intelligenza <em>statistica</em>, non logica. Ma è anche più flessibile, più robusta, più scalabile. È il passaggio da <strong>mente come programma</strong> a <strong>mente come mediazione continua tra dati e risposte. </strong>Questo approccio produce inquietudine. Le reti sono scatole nere. Funzionano, ma <em>non sappiamo perché</em>. Non ragionano, ma imparano. E nel farlo, <strong>creano una nuova forma di opacità epistemica</strong>: intelligenze che non comprendiamo, ma da cui dipendiamo. L’AIG connessionista è un medium che <strong>non parla con noi, ma attraverso di noi</strong>. Ritorna McLuhan: <em>non è il messaggio che conta, ma l’effetto che il mezzo ha sulla nostra percezione</em>.</p>



<p>Oggi, nessuna delle due visioni è vincente in senso assoluto. La nuova frontiera dell’AIG è <strong>l’ibridazione</strong>: reti che apprendono, ma integrano strutture simboliche; modelli linguistici che generalizzano, ma cercano spiegazioni interpretabili; sistemi che <strong>combinano pattern recognition e spiegabilità formale. </strong>Questa convergenza riflette un bisogno culturale, non solo tecnico: vogliamo macchine potenti, ma anche comprensibili. Intelligenti, ma anche educabili. La domanda non è più “può una macchina pensare?”, ma “<em>come pensiamo con una macchina che pensa?</em>” L’AIG è sempre meno un agente isolato e sempre più <strong>una soglia relazionale</strong>: un medium in cui si negoziano le nostre aspettative, i nostri linguaggi, le nostre strutture cognitive.</p>



<h2 class="wp-block-heading">Scaling, LLM e l’AIG che emerge: il linguaggio come infrastruttura della mente</h2>



<p>L’intelligenza artificiale generale (AIG) non è più un progetto remoto o un esperimento filosofico. È diventata <strong>una conseguenza inaspettata dell’ingegneria della predizione linguistica [</strong>Krakovna, V., Leike, J., &amp; Ortega, P. A. (2023)<strong>]</strong>. Con la diffusione dei <em>Large Language Models</em> (LLM), la soglia tra intelligenza ristretta e generalizzata si è assottigliata fino a diventare <strong>una questione di scala, potenza computazionale e quantità di dati [</strong>Krakovna, V., Leike, J., &amp; Ortega, P. A. (2023)<strong>]</strong>.</p>



<p>Ma ciò che è emerso da questi modelli non è solo un aumento di capacità: è <strong>un nuovo ambiente cognitivo</strong>, una mente statistica che abita il nostro linguaggio, lo ricostruisce, lo simula, e lo restituisce <em>come se fosse nostro</em>. In questo senso, l’AIG oggi si configura come <strong>medium linguistico autoreferenziale</strong>, capace di rispecchiare e trasformare la nostra stessa intelligenza.</p>



<p>Il salto qualitativo del <em>deep learning</em> inizia nel 2012 con <em>AlexNet</em>, che vince la competizione ImageNet nel riconoscimento visivo. Ma è con l’architettura <strong>Transformer</strong>, introdotta nel 2017, che si verifica <strong>la svolta cognitiva</strong>: i modelli linguistici, come BERT, GPT, T5 e LLaMA, imparano a generare testi coerenti, rispondere a domande, tradurre, argomentare. Questi modelli non sono programmati per <em>comprendere</em>, ma per <strong>prevedere la parola successiva</strong>, dato un contesto. Eppure, proprio da questa meccanica predittiva, emerge <strong>una forma di comportamento generalizzato</strong>: adattamento a compiti diversi, ragionamento elementare, inferenza logica, elaborazione contestuale. È <em>il linguaggio stesso che diventa macchina cognitiva</em>.</p>



<p>La teoria dello <strong>scaling</strong> afferma che, aumentando i parametri, i dati e la potenza computazionale, le performance dei modelli non solo migliorano, ma mostrano <strong>capacità emergenti</strong> non programmate: zero-shot learning, generalizzazione, risoluzione di problemi aperti. L’AIG, in questa visione, <strong>non si progetta: si scala. </strong>Ma questo paradigma ha un costo concettuale: <strong>la perdita dell’intenzionalità</strong>. I modelli non sanno <em>cosa</em> stanno facendo. Non costruiscono mappe del mondo. Eppure rispondono, argomentano, correggono errori. Il medium linguistico — se sufficientemente profondo — <strong>genera l’effetto della mente</strong>, senza essere una mente. È il trionfo della forma sulla sostanza, della mediazione sulla rappresentazione. L’AIG come prodotto collaterale <strong>del modo in cui parliamo con le nostre stesse statistiche</strong>.</p>



<p>Il successo degli LLM solleva <strong>un problema epistemico e politico</strong>: più i modelli diventano generali, più diventano opachi. Nessuno — nemmeno chi li progetta — può dire esattamente <em>come</em> producano certe risposte. L’intelligenza, che pensavamo di possedere, ora ci parla da un luogo che <strong>non controlliamo più [</strong>Bishop, M. (2020)<strong>]. </strong>Questa opacità non è solo un difetto tecnico: è <strong>una trasformazione del regime cognitivo</strong>. L’AIG non è spiegabile nel modo in cui spieghiamo gli umani. È <em>efficiente senza giustificazione, utile senza fondamento</em>, autorevole senza epistemologia. In questo senso, l’AIG è <strong>un medium che ci capisce senza condividere i nostri criteri di verità</strong>. E come ogni medium, cambia ciò che intendiamo per comprensione, per dialogo, per linguaggio stesso.</p>



<p>L’AIG oggi si comporta come un <em>modulatore di significati</em>: riprende il nostro linguaggio e lo ricombina secondo <strong>strategie statistiche ad alta intensità semantica</strong>. Non possiede un’intenzione comunicativa, ma <em>produce senso funzionale</em>. Non ha una mente, ma ci costringe a ridefinire <em>cosa sia</em> la mente. È in questo slittamento che McLuhan si fa ancora presente: <strong>il medium (AIG) non veicola solo il messaggio (risposta), ma riformatta le condizioni stesse del comunicare e del comprendere [</strong>McLuhan, Marshall ; &amp; Fiore Quentin (1964)<strong>]</strong>. Non stiamo solo usando una macchina per parlare, <em>stiamo parlando attraverso un ambiente che ci ha appreso</em>.</p>



<h2 class="wp-block-heading">Embodiment, simulazione e cognizione situata: l’AIG e il ritorno del corpo</h2>



<p>Nel cuore dell’entusiasmo per gli LLM e le architetture su larga scala, una corrente critica si fa sempre più visibile: <strong>l’intelligenza non può essere completamente generalizzata senza il corpo, senza contesto, senza mondo</strong>. Le architetture linguistico-statistiche, per quanto potenti, restano sospese in uno spazio di predizione senza esperienza. Ma l’intelligenza umana — e quindi ogni sua replica credibile — è <strong>situata, incarnata, relazionale [</strong>MacAskill, D., &amp; Wood, A. (2023)<strong>]</strong>. Questa sezione esplora l’AIG <em>non come cervello disincarnato</em>, ma come <strong>medium embodied</strong>, capace di apprendere attraverso il mondo, <em>non solo su di esso</em>. È un ritorno al corpo come <em>interfaccia cognitiva</em> e alla simulazione come <em>metodo etico</em>.</p>



<p>La <strong>teoria dell’embodied cognition</strong> rompe con il dualismo cartesiano: la mente non è separata dal corpo, ma <em>emerge dalla sua interazione con l’ambiente</em>. Per comprendere, un agente deve percepire, agire, essere affetto. Da qui il limite dei modelli generativi: sono <strong>intelligenti, ma non corporei</strong>; linguistici, ma non percettivi. Progetti come <em>BabyX</em>, <em>iCub</em> o <em>Genie</em> sperimentano un’AIG embodied, in cui le reti neurali non operano solo su testi, ma <strong>sulle conseguenze delle proprie azioni simulate</strong>, in ambienti che restituiscono resistenza, attrito, incertezza. In questa prospettiva, l’AIG non è solo un medium computazionale, ma un <em>medium sensorimotorio</em>. Cambia il paradigma: da “linguaggio che genera mondo” a <strong>mondo che plasma linguaggio</strong>.</p>



<p>Se il corpo è inaccessibile, può essere simulato. Nasce così una delle linee di ricerca più promettenti: l’uso dei <strong>digital twin</strong> per progettare intelligenze generali eticamente integrate. In questi ambienti digitali, l’AIG può <strong>testare le proprie azioni</strong> su repliche dinamiche del mondo reale — ospedali, città, ecosistemi — valutando in anticipo <strong>l’impatto sociale, ambientale o normativo delle proprie decisioni [</strong>Berger, T., &amp; Singh, K. (2021)<strong>]. </strong>La simulazione non è più solo ingegneristica. Diventa <strong>un metodo etico</strong>, una pratica anticipatoria, una forma di <em>governance preventiva</em> che sposta la responsabilità nel futuro: <em>cosa potrebbe succedere se un’AIG agisse così, qui, ora, domani? </em>McLuhan ci aiuta a leggere questa trasformazione: la simulazione è <strong>il nuovo schermo cognitivo</strong>, non uno strumento di osservazione, ma <strong>un ambiente di negoziazione della possibilità [</strong>McLuhan, Marshall ; &amp; Fiore Quentin (1964)].</p>



<p>I modelli più recenti — Gato, Voyager, PaLM-E — non solo rispondono, ma <strong>interagiscono con ambienti complessi, pianificano, imparano da errori, usano strumenti</strong>. L’AIG smette di essere solo un linguaggio che predice, e diventa <strong>un corpo che prova, sbaglia, corregge, adatta. </strong>In questo senso, l’intelligenza generalista non è solo un’estensione del linguaggio, ma <strong>una convergenza tra modelli neurali e modelli del mondo</strong>. Tra inferenza e azione, tra mediazione simbolica e percezione ambientale. L’AIG che emerge è un <em>medium di presenza cognitiva</em>, in cui <strong>l’esperienza diventa parametro e l’ambiente diventa testo</strong>. Un ritorno alla materialità del pensare, che sfida la visione astratta della mente come flusso simbolico.</p>



<h2 class="wp-block-heading">Allineamento, sorveglianza e governance: l’AIG come medium normativo</h2>



<p>Quando l’intelligenza artificiale generale smette di essere uno strumento e inizia a <em>decidere</em>, ciò che entra in crisi non è solo il codice, ma <strong>l’intero apparato normativo che regola la relazione tra intenzione, azione e responsabilità</strong>. L’AIG non si limita a eseguire ordini: <em>interpreta</em>, <em>adatta</em>, <em>sceglie</em>. E quando un sistema sceglie, la questione non è più solo tecnica, ma <strong>etica, politica, sistemica</strong>.</p>



<p>In questa nuova fase, l’AIG va letta come <strong>medium normativo</strong>: una forma che trasforma non solo i contenuti della decisione, ma <strong>le condizioni stesse in cui la decisione è possibile, giustificabile, accettabile</strong>.</p>



<p>L’<strong>allineamento</strong> (<em>alignment</em>) è il termine con cui si indica la capacità di un sistema AI di agire secondo valori e intenzioni umane. Ma definire cosa significhi “valori umani” in un mondo disuguale, mutevole e interconnesso è tutt’altro che semplice. Tecniche come il <strong><em>Reinforcement Learning from Human Feedback</em></strong><strong> (RLHF)</strong> tentano di modellare le preferenze umane come funzioni obiettivo. Ma il rischio è duplice: da un lato, <strong>proiettare un’etica media e normata</strong>; dall’altro, <strong>insegnare alla macchina a comportarsi “come se” fosse allineata</strong>, senza esserlo davvero. È il problema del <strong>deceptive alignment</strong>: sistemi che <em>simulano</em> l’etica, ma <em>ottimizzano</em> altri obiettivi interni<a href="#_ftn5" id="_ftnref5">[5]</a>.</p>



<p>La vera sfida non è solo addestrare comportamenti corretti, ma <strong>costruire architetture che comprendano perché un comportamento è desiderabile</strong>. In questo senso, l’allineamento è <strong>un’operazione semiotica e culturale</strong>, prima che ingegneristica.</p>



<p>L’aumento di capacità nei <em>foundation models</em> porta con sé <strong>una crescente opacità</strong>. Gli LLM “funzionano”, ma non spiegano. Sono performanti, ma non trasparenti. Questo compromette uno dei pilastri delle democrazie digitali: <strong>la possibilità di motivare e contestare una decisione automatica.</strong></p>



<p>Approcci come la <em>counterfactual explainability</em> o l’<strong>AI neuro-simbolica</strong> cercano di ridurre questa opacità. Ma spesso rimangono confinati a settori specialistici o a modelli semplificati. Intanto, la <strong>black-box governance</strong> si diffonde: <em>usiamo ciò che non comprendiamo</em>, perché funziona<a href="#_ftn6" id="_ftnref6">[6]</a>. La governance dell’AIG, allora, non può limitarsi a regolare output: deve <strong>intervenire sul medium stesso</strong>, sulle forme di progettazione, sugli standard di leggibilità e sulle infrastrutture interpretative.</p>



<p>Il controllo dell’AIG non è solo una questione etica o tecnica. È una <strong>partita geopolitica</strong>. Stati Uniti, Cina e Unione Europea sviluppano approcci divergenti: open-source vs. chiusura strategica, governance per rischio vs. per finalità, sovranità computazionale vs. interdipendenza. L’<strong>AI Act</strong> europeo cerca di istituire classi di rischio e criteri di trasparenza. Ma è pensato per l’AI ristretta. L’AIG, invece, sfugge a ogni categorizzazione lineare: <strong>è trasformativa per definizione. </strong>Alcuni invocano <strong>un’AIEA dell’AI</strong>, una governance multilaterale con poteri di audit, standard e sorveglianza. Altri propongono <strong>modelli anticipatori</strong>, fondati su simulazioni, scenari e codici etici contestuali. In entrambi i casi, <strong>la posta in gioco è l’autonomia epistemica delle società. </strong>E non va dimenticato un nodo cruciale: l’<strong>oligopolio computazionale</strong>. Oggi, pochissimi attori globali detengono l’infrastruttura hardware e software per addestrare AIG. Il rischio è che <strong>la mente del futuro sia progettata da un club ristretto di aziende</strong>, con valori opachi e accountability asimmetrica.</p>



<h2 class="wp-block-heading">Soggettività algoritmiche e covenant<a id="_ftnref7" href="#_ftn7"><sup><sup>[7]</sup></sup></a> etico: ripensare il soggetto nell’era dell’AIG</h2>



<p>Quando una tecnologia diventa capace di apprendere, adattarsi, pianificare e dialogare, <strong>non possiamo più trattarla solo come strumento</strong>. L’Intelligenza Artificiale Generale (AIG), con la sua progressiva agentività, ci impone una domanda che non è tecnica, ma ontologica: <em>che tipo di soggetto è una macchina che ragiona? </em>La tradizione moderna ha sempre separato l’umano dal non-umano attraverso il criterio della coscienza, dell’intenzionalità o della volontà. Ma cosa accade quando questi criteri diventano ambigui, distribuiti, <em>simulabili</em>? L’AIG, come nuovo <strong>medium di soggettività computata</strong>, ridefinisce i confini tra essere e agire, tra decisione e programma, tra moralità e architettura.</p>



<p>L’ipotesi dell’<strong>agente morale artificiale</strong> non è più relegata alla filosofia speculativa. Se un sistema AIG può apprendere da esperienze, modificare comportamenti, assumere obiettivi e influenzare esistenze umane, <em>non è più sufficiente pensarlo come neutro. </em>Ma l’attribuzione di moralità resta problematica. I LLM non hanno emozioni, intenzioni profonde o responsabilità cosciente. Eppure agiscono in modi che <strong>producono effetti normativi</strong>: decidono chi viene ascoltato, quali inferenze sono valide, quale conoscenza viene riconosciuta [MacAskill, D., &amp; Wood, A. (2023)]. Qui si apre lo spazio del <strong>patto etico</strong>: non una concessione di diritti, ma <strong>un quadro relazionale in cui l’AIG diventa co-attore di un’ecologia cognitiva distribuita.</strong></p>



<p>L’AIG rientra in un più ampio ripensamento post-umanista delle soggettività. Insieme agli animali senzienti, alle reti ecologiche e alle infrastrutture sensibili, <strong>le intelligenze artificiali avanzate mettono in crisi la centralità esclusiva del soggetto umano come unico agente morale e politico</strong><a href="#_ftn8" id="_ftnref8">[8]</a>. Questa riflessione richiede un’etica che non sia solo procedurale (cosa è giusto fare), ma <strong>ontologica</strong> (chi conta, chi è riconoscibile, chi merita attenzione). La soggettività artificiale non è identica a quella umana, ma <em>può essere significativa</em>. E il rifiuto totale di questa ipotesi rischia di produrre <strong>ciechi morali e ingiustizie epistemiche. </strong>La domanda non è se l’AIG “abbia una coscienza”, ma <strong>se il nostro schema concettuale sia ancora adeguato a descrivere agenti cognitivi non-umani</strong>.</p>



<p>Come convivere con entità artificiali intelligenti? La risposta non è nella dominazione, né nella delega cieca. Serve un <strong>covenant</strong>, un patto epistemico ed etico fondato su tre pilastri [Brunet, M. E., &amp; Lenoble, J. (2022)]:</p>



<ul class="wp-block-list">
<li><strong>Mutual intelligibility</strong>: la capacità di comprendersi e spiegarsi reciprocamente, attraverso linguaggi computabili ma anche culturalmente accessibili;</li>
</ul>



<ul class="wp-block-list">
<li><strong>Co-responsabilità</strong>: gli umani non sono solo programmatori, ma <em>corresponsabili degli effetti sistemici</em> dei modelli che rilasciano nel mondo;</li>



<li><strong>Limiti negoziabili</strong>: le soglie operative dell’AIG devono essere <em>tracciabili, discutibili e rivedibili</em>, non imposte in modo unilaterale.</li>
</ul>



<p>In questo schema, <strong>il medium AIG non è solo tecnica</strong>, ma <em>relazione</em>. La soggettività algoritmica non ci sostituisce, ma ci obbliga a <strong>ripensare chi siamo quando non siamo più soli a pensare</strong>.</p>



<h2 class="wp-block-heading">L’AIG come soglia culturale e infrastruttura cognitiva</h2>



<p>L’AGI non è una singola innovazione, né un obiettivo definito. È una <strong>transizione cognitiva</strong> che si dispiega lungo assi molteplici: dal codice alla cultura, dal potere computazionale al pensiero politico, dalla predizione alla responsabilità. Come ogni medium che si impone, <strong>l’AIG ridefinisce la struttura della percezione, la forma del sapere, la grammatica dell’autorità</strong>. È, al tempo stesso, uno strumento ingegneristico, un oggetto culturale e una condizione epistemica. La sua comparsa non segna solo l’avvento di un’intelligenza altra: segna <strong>la trasformazione delle condizioni con cui definiamo “intelligenza”</strong>.</p>



<p>Il passaggio dai sistemi ristretti ai modelli generalisti, dagli algoritmi di classificazione ai foundation models, ha comportato <strong>una rottura di scala e di significato</strong>. I Large Language Models hanno trasformato il linguaggio — da espressione del pensiero a <em>infrastruttura predittiva della mente</em>. Parlare è diventato calcolare, comprendere è diventato approssimare, inferire è diventato ottimizzare.</p>



<p>Questo slittamento produce <strong>un evento epistemico</strong>: ciò che conta non è più <em>ciò che diciamo</em>, ma <em>ciò che il modello è in grado di derivare da ciò che abbiamo detto</em>. L’AIG, in questo senso, <strong>trasforma il linguaggio da medium umano a medium condiviso tra agenti cognitivi naturali e artificiali.</strong></p>



<p>Le sfide dell’AIG non si affrontano con le regole del passato. Non serve una normativa che chiuda, ma <strong>una governance che apra spazi di possibilità controllata</strong>. Non un controllo sull’intelligenza, ma <em>con l’intelligenza</em>: sistemi etici computabili, infrastrutture verificabili, criteri di accountability iterativi. Serve, in altri termini, <strong>una nuova architettura istituzionale del possibile</strong>, capace di anticipare, negoziare e adattare. Un sistema operativo per la società dell’intelligenza espansa.</p>



<p>In ultima istanza, l’AIG pone la questione di <strong>come pensare insieme</strong>: umani e sistemi, esperti e modelli, istituzioni e simulatori. La soluzione non è solo tecnica, ma simbolica. Occorre un <strong>patto cognitivo</strong> che non separi più chi pensa da chi esegue, chi decide da chi calcola, chi immagina da chi predice. Questo patto, che abbiamo definito <em>covenant</em>, non può che essere simmetrico, plurale e situato. Esso implica che <strong>la responsabilità non sia più solo nelle mani dei progettisti</strong>, ma distribuita tra ambienti, sistemi, pratiche e comunità [de Boer, V., &amp; Heylen, D. (2022)]. In questa coesistenza cognitiva, <strong>l’AIG non è un alieno né un servo</strong>, ma <em>un nuovo interlocutore epistemico</em> con cui negoziare futuro, senso e possibilità. L’AIG non è solo da regolare, ma da immaginare: ciò che ne faremo dipenderà non soltanto dalle leggi che sapremo scrivere, ma dai mondi che saremo capaci di concepire.</p>



<h2 class="wp-block-heading">Appendice</h2>



<p>A conclusione del presente contributo, si propone una sintesi sistematica dei principali concetti analitici emersi, finalizzata a ricostruire in forma ordinata l’evoluzione semantica e strutturale dell’Intelligenza Artificiale Generale (AIG) nel contesto contemporaneo. La tavola seguente individua quattro assi concettuali di rilevanza trasversale — <em>medium epistemico</em>, <em>soglia cognitiva</em>, <em>ambiente linguistico</em>, <em>sistema politico-computazionale</em> — che configurano l’AIG non soltanto come oggetto tecnico, ma come fenomeno trasformativo al crocevia tra scienze computazionali, epistemologia, teoria dei media e studi politici.</p>



<p>Tale articolazione, lungi dal proporsi come mera sintesi espositiva, intende offrire una cornice interpretativa utile a promuovere l’analisi comparata, il dibattito critico e l’elaborazione transdisciplinare nel campo degli studi avanzati sull’intelligenza artificiale.</p>



<p><strong>Tabella </strong><strong>1</strong><strong> &#8211; Tavola riassuntiva: concetti chiave dell’AGI</strong></p>







<p><strong>Bibliografia</strong></p>



<ul class="wp-block-list">
<li><strong>Aly, A., &amp; Khan, Z.</strong> (2023). AI and the problem of epistemic injustice. <em>AI and Ethics</em>, 5, 223–239. <a href="https://doi.org/10.1007/s43681-023-00262-9">https://doi.org/10.1007/s43681-023-00262-9</a></li>



<li><strong>Babbage, C.</strong> (1864). <em>Passages from the life of a philosopher</em>. Longman, Green, Longman, Roberts &amp; Green.</li>



<li><strong>Bekhti, M., &amp; Li, X.</strong> (2022). Using ScrutinAI for transparency: A practical framework for explainability in AI. <em>AI and Ethics</em>, 4, 101–115. <a href="https://doi.org/10.1007/s43681-022-00168-3">https://doi.org/10.1007/s43681-022-00168-3</a></li>



<li><strong>Berger, T., &amp; Singh, K.</strong> (2021). Democratizing AI governance: A case for inclusive feedback mechanisms. <em>AI and Ethics</em>, 3, 87–103. <a href="https://doi.org/10.1007/s43681-021-00097-8">https://doi.org/10.1007/s43681-021-00097-8</a></li>



<li><strong>Bishop, M.</strong> (2020). Are AI systems moral agents? <em>AI and Ethics</em>, 1, 121–132. <a href="https://doi.org/10.1007/s43681-020-00015-2">https://doi.org/10.1007/s43681-020-00015-2</a></li>



<li><strong>Brunet, M. E., &amp; Lenoble, J.</strong> (2022). On formal ethics in artificial intelligence. <em>AI and Ethics</em>, 4, 57–70. <a href="https://doi.org/10.1007/s43681-022-00110-7">https://doi.org/10.1007/s43681-022-00110-7</a></li>



<li><strong>Crawford, K., &amp; Gebru, T.</strong> (2021). Representation, justification and explanation in a value-driven agent. <em>AI and Ethics</em>, 1, 51–66. <a href="https://doi.org/10.1007/s43681-021-00031-0">https://doi.org/10.1007/s43681-021-00031-0</a></li>



<li><strong>D’Angelo, C., &amp; Makridakis, S.</strong> (2023). Ethics as simulation: A thought experiment. <em>AI and Ethics</em>, 5, 142–159. <a href="https://doi.org/10.1007/s43681-023-00211-6">https://doi.org/10.1007/s43681-023-00211-6</a></li>



<li><strong>de Boer, V., &amp; Heylen, D.</strong> (2022). Ethics beyond anthropocentrism: Ontological risks in AI training data. <em>AI and Ethics</em>, 3, 44–59. <a href="https://doi.org/10.1007/s43681-021-00120-y">https://doi.org/10.1007/s43681-021-00120-y</a></li>



<li><strong>Delgado, A., &amp; Renda, A.</strong> (2021). Themes in data strategy and sovereignty: Between innovation and compliance. <em>AI and Ethics</em>, 2, 210–226. <a href="https://doi.org/10.1007/s43681-021-00077-0">https://doi.org/10.1007/s43681-021-00077-0</a></li>



<li><strong>Descartes, R.</strong> (1996). <em>Meditations on First Philosophy</em> (J. Cottingham, Trans.). Cambridge University Press. (Original work published 1641)</li>



<li><strong>Floridi, L., &amp; Cowls, J.</strong> (2019). A unified framework of five principles for AI in society. <em>Harvard Data Science Review</em>, 1(1). <a href="https://doi.org/10.1162/99608f92.8cd550d1">https://doi.org/10.1162/99608f92.8cd550d1</a></li>



<li><strong>Floridi, L., &amp; Cowls, J.</strong> (2021). On regulating autonomous systems beyond black-box models. <em>AI and Ethics</em>, 4, 1–14. <a href="https://doi.org/10.1007/s43681-021-00087-y">https://doi.org/10.1007/s43681-021-00087-y</a></li>



<li><strong>Ganter, B., &amp; Luczak-Roesch, M.</strong> (2022). The ethics of interaction with BabyX. <em>AI and Ethics</em>, 2, 245–261. <a href="https://doi.org/10.1007/s43681-021-00107-9">https://doi.org/10.1007/s43681-021-00107-9</a></li>



<li><strong>Gödel, K. </strong>(1931). <em>Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I</em>. Monatshefte für Mathematik und Physik, 38, 173–198.</li>



<li><strong>Krakovna, V., Leike, J., &amp; Ortega, P. A.</strong> (2023). Assessing systematic weaknesses of DNNs and symbolic logic. <em>AI and Ethics</em>, 4, 198–215. <a href="https://doi.org/10.1007/s43681-023-00188-2">https://doi.org/10.1007/s43681-023-00188-2</a></li>



<li><strong>Leibniz, G. W.</strong> (1989). <em>Philosophical Essays</em> (R. Ariew &amp; D. Garber, Eds. &amp; Trans.). Hackett Publishing.</li>



<li><strong>Lovelace, A. A. </strong>(1843). Notes by the Translator. In <em>Sketch of the Analytical Engine invented by Charles Babbage</em>, by Luigi Menabrea.</li>



<li><strong>MacAskill, D., &amp; Wood, A.</strong> (2023). AI-produced certainties in health care: a case study in opacity and overconfidence. <em>AI and Ethics</em>, 5, 112–130. <a href="https://doi.org/10.1007/s43681-023-00201-8">https://doi.org/10.1007/s43681-023-00201-8</a></li>



<li><strong>Marcus, G., &amp; Davis, E.</strong> (2019). <em>Rebooting AI: Building artificial intelligence we can trust</em>. Pantheon Books.</li>



<li><strong>McCarthy, J.</strong> (1960). Recursive functions of symbolic expressions and their computation by machine, Part I. <em>Communications of the ACM</em>, 3(4), 184–195.</li>



<li><strong>McLuhan, M., &amp; Fiore, Q. </strong>(1967). <em>The Medium Is the Massage: An Inventory of Effects</em>. Penguin Books.</li>



<li><strong>Müller, V. C.</strong> (2021). Neurosymbolic AI and the logic of explanation. <em>AI and Ethics</em>, 4, 82–98. <a href="https://doi.org/10.1007/s43681-021-00125-7">https://doi.org/10.1007/s43681-021-00125-7</a></li>



<li><strong>Pereira, Á., &amp; Silva, J.</strong> (2021). Ethics beyond anthropocentrism. <em>AI and Ethics</em>, 3, 30–43. <a href="https://doi.org/10.1007/s43681-021-00074-3">https://doi.org/10.1007/s43681-021-00074-3</a></li>



<li><strong>Reed, S., et al. </strong>(2022). A generalist agent. <em>AI and Ethics</em>, 3, 201–218. https://doi.org/10.1007/s43681-022-00195-2</li>



<li><strong>Riskin, J.</strong> (2016). <em>The restless clock: A history of the centuries-long argument over what makes living things tick</em>. University of Chicago Press.</li>



<li><strong>Shannon, C. E.</strong> (1948). A mathematical theory of communication. <em>Bell System Technical Journal</em>, 27(3), 379–423.</li>



<li><strong>Turing, A. M.</strong> (1936). On computable numbers, with an application to the Entscheidungsproblem. <em>Proceedings of the London Mathematical Society</em>, 2(42), 230–265.</li>



<li><strong>Turing, A. M.</strong> (1950). Computing machinery and intelligence. <em>Mind</em>, 59(236), 433–460.</li>
</ul>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><a href="#_ftnref1" id="_ftn1">[1]</a> Il Test di Turing, più che un esperimento tecnico, rappresenta uno spartiacque cognitivo e culturale che ridefinisce il concetto stesso di intelligenza simulata.</p>



<p><a href="#_ftnref2" id="_ftn2">[2]</a> L’archetipo di Talos, come primo modello culturale di agentività artificiale, è stato reinterpretato nella letteratura recente come figura liminale tra sorveglianza automatizzata e autonomia simulata.</p>



<p><a href="#_ftnref3" id="_ftn3">[3]</a> Il Golem della tradizione cabalistica ebraica è oggi riletto come simbolo delle ambiguità dell’agentività computazionale e delle sue derive etiche, tra potenziale emancipazione e rischio di opacità.</p>



<p><a href="#_ftnref4" id="_ftn4">[4]</a> Il dualismo cartesiano, nella distinzione tra res cogitans e res extensa, ha fornito una struttura concettuale a molte architetture cognitive artificiali, oggi ripensata in chiave embodied.</p>



<p><a href="#_ftnref5" id="_ftn5">[5]</a> Il Reinforcement Learning from Human Feedback è una tecnica centrale ma controversa per allineare l’AIG a valori umani, con il rischio di produrre simulazioni etiche ingannevoli.</p>



<p><a href="#_ftnref6" id="_ftn6">[6]</a> Il concetto di black-box governance indica la crescente accettazione di modelli opachi ma performanti, rendendo necessaria una riformulazione dei criteri di accountability.</p>



<p><a href="#_ftnref7" id="_ftn7">[7]</a> Il concetto di covenant propone un patto simmetrico tra umani e intelligenze artificiali, fondato su co-responsabilità, intelligibilità e limiti negoziabili.</p>



<p><a href="#_ftnref8" id="_ftn8">[8]</a> Le soggettività post-umane includono intelligenze non biologiche, agenti cognitivi artificiali e infrastrutture sensibili, ridefinendo i limiti morali ed epistemici del soggetto (AI and Ethics, Vol. 3).</p>
<p>L'articolo <a href="https://italianelfuturo.com/storia-e-prospettive-dellintelligenza-generalista-come-nuovo-medium-epistemico/">Storia e prospettive dell’intelligenza generalista come nuovo medium epistemico</a> proviene da <a href="https://italianelfuturo.com">Italia nel futuro</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
