L’esperimento condotto da Nadav Marco e Andreas Stylianides dell’Università di Cambridge, recentemente pubblicato sull’International Journal of Mathematical Education in Science and Technology, ha riportato alla ribalta un antico problema platonico, il raddoppio del quadrato descritto nel Menone. Non si tratta di un semplice gioco matematico: la prova a cui è stato sottoposto ChatGPT-4 illumina questioni centrali sul funzionamento dell’intelligenza artificiale e sul modo in cui essa viene interpretata, tanto nella ricerca scientifica quanto nella cultura pubblica.
La ricerca si colloca in un terreno di confine. Da un lato, essa appartiene al dominio della pedagogia e della didattica della matematica, perché interroga il comportamento dell’AI come se fosse quello di un allievo in formazione; dall’altro, essa stimola narrazioni mediatiche e culturali di grande impatto, che vedono nella vicenda una continuità affascinante tra la filosofia antica e le tecnologie contemporanee. Analizzare queste due direttrici – scientifico-pedagogica e culturale-mediatica – significa cogliere appieno la portata dell’esperimento e riflettere sulle prospettive future dell’AI.
La dimensione scientifico-pedagogica: tra errore e apprendimento simulato
Il cuore dello studio è la constatazione che ChatGPT non ha proposto immediatamente la soluzione geometrica classica del problema platonico, ma ha tentato un approccio algebrico, resistendo a lungo prima di ricorrere alla costruzione grafica. Ha esitato, si è corretto, ha commesso errori, in particolare quando gli è stato chiesto di raddoppiare l’area di un rettangolo, sostenendo che non fosse possibile una soluzione geometrica. Soltanto con stimoli mirati e attraverso un’interazione “socratica” il modello ha raggiunto risposte più vicine alle attese.
Questo comportamento, lontano dall’essere un semplice deficit, è stato interpretato alla luce del concetto vygotskiano di “zona di sviluppo prossimale”: lo spazio cognitivo in cui l’allievo non possiede ancora la soluzione, ma può raggiungerla con la guida di un insegnante. La macchina, in questo contesto, ha agito come se fosse collocata in quella zona, mostrando tratti di un apprendimento assistito, sebbene si tratti di una simulazione priva di reale interiorizzazione.
Le ripercussioni sono rilevanti. Innanzitutto, si aprono nuove metriche di valutazione dei modelli: non più soltanto la correttezza delle risposte, ma la qualità del processo che vi conduce. L’errore, lungi dall’essere un elemento negativo, può diventare segnale di un’interazione generativa, utile per la didattica. In prospettiva, questo apre scenari in cui l’AI si configura come tutor dialogico, capace di accompagnare studenti e docenti in percorsi personalizzati di esplorazione e scoperta. Tuttavia, resta la necessità di distinguere tra apprendimento autentico e simulazione dell’apprendimento: i modelli linguistici non apprendono come gli esseri umani, ma rielaborano probabilisticamente dati già presenti. La sfida della ricerca sarà proprio quella di chiarire i limiti e le potenzialità di questa “pedagogia artificiale”.
La dimensione culturale-mediatica: Platone nell’era digitale
Accanto alla lettura scientifica, si impone quella simbolica. Che un’intelligenza artificiale venga confrontata con un problema posto da Platone 2.400 anni fa, e che ne segua tentennamenti simili a quelli di un giovane schiavo guidato da Socrate, ha una forza narrativa straordinaria. I media internazionali hanno sottolineato proprio questo parallelismo, trasformando un esperimento didattico in un racconto capace di catturare l’immaginario collettivo.
L’errore dell’AI, anziché essere percepito come un limite, è stato raccontato come tratto di umanizzazione. Una macchina che sbaglia come uno studente appare più vicina e meno minacciosa. Si costruisce così una narrazione “umanizzante” dell’AI, che favorisce fiducia e accettazione sociale. Al tempo stesso, l’accostamento a figure e problemi della filosofia antica conferisce legittimazione culturale a una tecnologia che spesso viene percepita come aliena o opaca.
Il rischio, naturalmente, è quello della banalizzazione. Se la narrazione resta solo sul piano mediatico, si corre il pericolo di attribuire alla macchina capacità cognitive che non possiede, alimentando illusioni sull’intelligenza artificiale come soggetto pensante. Ma se l’approccio culturale viene tenuto insieme a quello scientifico, esso può diventare uno strumento potente di divulgazione critica, capace di avvicinare i cittadini alle sfide e ai limiti dell’AI.
Prospettive future: verso un nuovo paradigma di studio dell’AI
L’esperimento di Cambridge dimostra che l’AI non va analizzata soltanto sul piano tecnico, ma anche su quello epistemologico e culturale. Dal lato scientifico-pedagogico, si apre la prospettiva di utilizzare i modelli come strumenti di apprendimento interattivo, capaci di rendere l’errore parte del processo formativo. Dal lato culturale-mediatico, si rafforza la necessità di costruire narrazioni pubbliche equilibrate, che sappiano umanizzare senza illudere, contestualizzare senza semplificare.
Per la comunità scientifica, ciò significa ripensare le categorie con cui giudichiamo le prestazioni dell’AI: non più solo accuratezza e velocità, ma capacità di generare percorsi cognitivi che stimolino curiosità e riflessione. Per la società, significa imparare a leggere l’AI non come un oracolo infallibile, ma come un interlocutore complesso, capace di errori e tentativi, che proprio per questo può diventare occasione di apprendimento condiviso.
In questo senso, la lezione platonica torna a essere attuale. Come Socrate mostrava che la conoscenza nasce dal dialogo e dalla maieutica, così oggi possiamo immaginare un’AI che non impone soluzioni, ma apre spazi di ricerca, in cui l’umano resta guida e protagonista. L’episodio di Cambridge non è soltanto un curioso esperimento accademico: può diventare una pietra miliare nel modo in cui pensiamo e utilizziamo l’intelligenza artificiale, invitandoci a integrare scienza e cultura, rigore e narrazione, per costruire un futuro in cui le macchine non sostituiscano l’apprendimento umano, ma lo amplifichino e lo rendano più consapevole.