Chi governa l’intelligenza artificiale governa il futuro. Intervista a Luca Tomassini

| 22/01/2026
Chi governa l’intelligenza artificiale governa il futuro. Intervista a Luca Tomassini

E’ appena uscito l’ultimo libro di Luca Tomassini “L’illusione intelligente. Democrazie fragili, lavoro smaterializzato e il mondo ridisegnato dall’intelligenza artificiale”, che propone una lettura critica e strutturale dell’AI: non come semplice tecnologia, ma come infrastruttura di potere che interroga il ruolo dello Stato, del mercato e della responsabilità pubblica. Ne nasce una riflessione su sovranità digitale, concentrazione economica e fragilità delle istituzioni democratiche nell’era algoritmica.

Lo abbiamo incontrato e ne e’ scaturita l’intervista che vi proponiamo.

D. Nel suo nuovo libro L’illusione intelligente. Democrazie fragili, lavoro smaterializzato e il mondo ridisegnato dall’intelligenza artificiale, lei sostiene che l’intelligenza artificiale non sia una semplice evoluzione tecnologica, ma una vera e propria trasformazione politica ed economica. Da dove nasce questa convinzione?

R. Nasce dall’esperienza diretta e dall’osservazione storica. Ogni grande infrastruttura tecnologica – dall’energia alle telecomunicazioni – ha sempre ridistribuito potere, ricchezza e influenza. L’AI fa lo stesso, ma su una scala inedita: incide sul lavoro, sull’informazione, sulla sicurezza, sulla capacità decisionale degli Stati. Pensarla come uno strumento neutro significa ignorare che oggi l’innovazione è diventata una questione di sovranità economica e democratica.

D. Lei parla di “democrazie fragili”. Qual è il nesso tra intelligenza artificiale e crisi democratica?

R. Le democrazie funzionano grazie a mediazione, pluralismo, responsabilità. L’ecosistema digitale, invece, tende a semplificare, accelerare, polarizzare. L’intelligenza artificiale amplifica queste dinamiche: personalizza l’informazione, riduce lo spazio del confronto e rende opachi i processi decisionali. Il risultato non è una dittatura tecnologica, ma una democrazia che perde progressivamente spessore, capacità di deliberare e fiducia nei fatti condivisi.

D. Dal punto di vista economico, l’AI viene spesso presentata come il motore della prossima grande crescita. Lei invita però alla cautela.

R. La crescita in sé non è mai un valore assoluto. Dipende da come viene distribuita. L’AI genera enormi incrementi di produttività, ma tende a concentrare valore e potere in chi controlla dati, infrastrutture e modelli. Senza politiche correttive, rischiamo una crescita che aumenta il PIL ma riduce la coesione sociale, comprimendo il lavoro e ampliando le disuguaglianze. È già successo in altre fasi della globalizzazione, oggi il rischio è ancora maggiore.

D. Il lavoro è uno dei pilastri del libro. L’AI sta davvero cambiando la natura del lavoro?

R. Sì, e in modo profondo. Non stiamo assistendo alla scomparsa del lavoro, ma alla sua smaterializzazione e frammentazione. Molte professioni cognitive vengono automatizzate parzialmente, altre perdono valore contrattuale. Il rischio è che l’insicurezza diventi strutturale, una condizione permanente. Questo non è inevitabile: dipende dalle scelte industriali e dalle politiche pubbliche che accompagnano l’adozione dell’AI.

D. In questo scenario, quale dovrebbe essere il ruolo dello Stato?

R. Tornare a fare politica industriale. Non per sostituirsi al mercato, ma per orientarlo. Significa investire in formazione continua, protezioni sociali adeguate, infrastrutture digitali pubbliche e criteri chiari sull’uso dell’AI. Lasciare tutto alle logiche di mercato equivale ad accettare che il futuro venga deciso da chi ha più capitale e meno responsabilità pubblica.

D. Lei è molto critico verso l’idea di una autoregolazione tecnologica. Perché?

R. Perché la storia dimostra che non funziona. Le grandi innovazioni hanno sempre richiesto regole: il lavoro industriale, la finanza, l’energia. L’AI non fa eccezione. Pensare che si governi da sola è una forma di rinuncia alla politica.

D. Il tema della concentrazione del potere nelle grandi piattaforme attraversa tutto il libro. Quanto è grave oggi questo squilibrio?

R. È uno dei nodi centrali del nostro tempo. Pochissimi attori controllano dati, cloud, capacità di calcolo e modelli avanzati. Questo non è solo un problema di concorrenza, ma di democrazia economica. Chi controlla queste infrastrutture ha un potere di influenza enorme su mercati, informazione e decisioni pubbliche. Senza contromisure, il rischio è una privatizzazione di fatto di funzioni che un tempo erano pubbliche.

D. L’Europa può davvero recuperare terreno?

R. A mio modo di vedere si, ma solo se supera la frammentazione. Servono investimenti comuni, strategie industriali coordinate e una visione di lungo periodo. La sovranità digitale non è chiudersi, ma avere alternative credibili. Senza dati, infrastrutture e competenze proprie, l’Europa resterà un grande mercato di consumo tecnologico, non un attore geopolitico.

D. Lei propone il principio “umano-centrico” come chiave di governo dell’innovazione. Come si traduce in pratica?

R. Significa fissare dei limiti e delle priorità. Non tutto ciò che è tecnicamente possibile è socialmente desiderabile. L’adozione dell’AI dovrebbe essere accompagnata da valutazioni obbligatorie sull’impatto umano, come già avviene per l’ambiente. E significa usare leva pubblica – incentivi, regolazione – per premiare modelli che aumentano le capacità delle persone invece di sostituirle indiscriminatamente.

D. Nel libro lei scrive che il rischio maggiore non è un’AI troppo potente, ma una società troppo debole.

R. Esatto. Una società che rinuncia al giudizio critico, che delega per comodità, che accetta l’opacità in cambio di efficienza. Quando decisioni economiche, amministrative o politiche vengono automatizzate senza controllo democratico, non stiamo guadagnando progresso, ma perdendo responsabilità. L’AI diventa pericolosa quando smettiamo di interrogarla.

D. Veniamo allora alla prospettiva futura: siamo destinati a subire questa trasformazione?

R. No, ed è questo il messaggio centrale del libro. L’innovazione non è una forza naturale, ma una costruzione sociale. Dipende da scelte politiche, industriali e culturali. Possiamo governare l’intelligenza artificiale oppure lasciarci governare da essa. La differenza la fa la consapevolezza collettiva e il coraggio di intervenire.

L’IA non e’ un destino, ma un campo di decisione. Conclusioni

L’illusione intelligente, scrive Luca Tomassini, è credere che il futuro sia già scritto negli algoritmi. In realtà, l’intelligenza artificiale non è un destino, ma un campo di decisione. Può diventare uno strumento di crescita inclusiva, rafforzare il lavoro, la democrazia e la sovranità economica, oppure accentuare disuguaglianze, precarietà e concentrazione del potere.

La posta in gioco non è tecnologica, ma politica. E riguarda una scelta fondamentale: se accettare un’innovazione guidata da pochi attori privati o rivendicare un governo pubblico e democratico della trasformazione digitale. Perché, conclude Tomassini, il vero rischio non è che le macchine diventino intelligenti, ma che gli esseri umani rinuncino a esserlo.

La fine delle promesse della Silicon Valley segna un passaggio storico. Le grandi aziende tecnologiche non chiedono più consenso: lo presuppongono. Sono diventate infrastrutture private di funzioni pubbliche, senza che a questo corrisponda una responsabilità pubblica adeguata.

È in questo spazio che si gioca la partita dell’intelligenza artificiale. Non tra entusiasmo e rifiuto, ma tra governo e delega. Perché, conclude Tomassini, ogni vuoto politico prima o poi viene riempito. E decidere da chi e come è oggi la vera scelta davanti a noi.

(*) Luca Tomassini è un imprenditore, dirigente di azienda e accademico italiano. È conosciuto come uno dei i padri della telefonia mobile italiana e uno dei maggiori interpreti della rivoluzione digitale. Professore aggiunto in diverse università, tra molti premi e riconoscimenti è stato nominato dal Presidente Mattarella Cavaliere del Lavoro e Grande Ufficiale dell’Ordine al Merito della Repubblica Italiana. Già direttore dell’innovazione del Gruppo Telecom Italia è presidente della Fondazione Luca & Katia Tomassini. Ha pubblicato numerosi saggi, tra i quali, di recente, Oltre. Il ruolo dell’uomo nella società dell’intelligenza artificiale (Franco Angeli, 2024), Il grande salto (LUISS, 2020), L’innovazione non chiede permesso (Franco Angeli, 2018) e Vite Connesse (Franco Angeli, 2015).

www.lucatomassini.it

Video del Giorno

La sessione: “Factories that Think” dal World Economic Forum 2026, Davos

"Se la tua compassione non include anche te stessa è incompleta"

Buddha

Articoli recenti

Tecnologie in video

Drone View

Barberio & Partners s.r.l.

Via Donatello 67/D - 00196 Roma
P.IVA 16376771008

Policy
Privacy Policy
Cookie Policy
Termini e Condizioni
iscriviti alla nostra newsletter
Questo sito è protetto da reCAPTCHA e la Informativa sulla Privacy di Google, nonché i Termini di Servizio sono applicabili.