MEZZO MILIONE DI SLOP: consulenti beccati a usare la AI, errore umano o crisi?

RedazioneRedazione
| 19 Novembre 2025

Un report commissionato dal governo australiano a Deloitte, del valore di 440 mila dollari, viene scoperto essere basato su fonti inventate generate da un’intelligenza artificiale. Questo episodio solleva importanti questioni sulla responsabilità e la validità del lavoro consulenziale, evidenziando un problema sistemico di affidamento cieco alla tecnologia senza un’adeguata verifica umana.


Il governo australiano ha affidato a Deloitte, una delle più prestigiose società di consulenza al mondo, l’incarico di realizzare un report critico sul sistema informatico delle sanzioni ai disoccupati, per un valore di 440 mila dollari. Le conclusioni del report erano pesanti, delineando un sistema difettoso e basato su presupposti punitivi. Tuttavia, un accademico, Christopher Raggio, ha scoperto che il report conteneva fonti inesistenti, citazioni di professori che non avevano mai scritto gli articoli menzionati e persino sentenze inventate.

Deloitte ha successivamente ammesso di aver utilizzato un modello di intelligenza artificiale generativa, OpenAI GPT-4.0 tramite Azure, per produrre parti del documento. Questa ammissione è stata vista come una toppa peggiore del buco, poiché ha sollevato dubbi sulla validità del documento originale e ha portato Deloitte a restituire parte del compenso al governo.

Il problema principale non risiede nell’uso dell’intelligenza artificiale, che può essere uno strumento utile se usato correttamente, ma nell’abdicazione della responsabilità intellettuale. Deloitte è stata pagata per la sua competenza e verifica, non per un semplice abbonamento a un modello di AI. Questo caso evidenzia un classico esempio di “automation bias”, dove ci si fida ciecamente dei risultati generati da sistemi automatizzati senza una verifica critica.

La questione solleva importanti interrogativi sulla validità del lavoro consulenziale e sulla necessità di protocolli chiari per l’uso dell’intelligenza artificiale negli appalti pubblici. È fondamentale garantire trasparenza e responsabilità nell’uso di queste tecnologie, poiché un’informazione plausibile non è equivalente a un’informazione vera. Questo incidente potrebbe avere ripercussioni su altri settori, come la medicina o l’ingegneria, se non si interviene con misure adeguate.

Infine, il caso di Deloitte rappresenta un campanello d’allarme per la necessità di sviluppare competenze critiche nella verifica delle informazioni prodotte dalle macchine. L’intelligenza artificiale non sostituisce il pensiero critico, ma lo amplifica. La verifica umana rimane l’unica vera rete di sicurezza.


Chi è Matteo Flora

Matteo Flora è Professore (a.c.) in AI and Superintelligence Safety (ESE)Corporate Reputation (Pavia) e Generative AI (IAAD).

Imprenditore, ha fondato The Fool, società leader in Narrative Governance oltre a essere Partner e co-fondatore dello Studio Legale 42 Law Firm.

Future Leader IVLP del Dipartimento di Stato USA (Obama, 2012), conduce “Intelligenze Artificiali” su TgCom24 e “Ciao Internet!” su YouTube, il primo podcast di Tech-Policy italiano.

Barberio & Partners s.r.l.

Via Donatello 67/D - 00196 Roma
P.IVA 16376771008

Policy
Privacy Policy
Cookie Policy
Termini e Condizioni
iscriviti alla nostra newsletter
Questo sito è protetto da reCAPTCHA e la Informativa sulla Privacy di Google, nonché i Termini di Servizio sono applicabili.