L’allarme olandese: l’AI non vota, ma decide per te

| 22/10/2025
L’allarme olandese: l’AI non vota, ma decide per te

A pochi giorni dalle elezioni, il garante per la privacy olandese avverte: i chatbot non sono una bussola democratica. I test rivelano risposte distorte, poco trasparenti e sorprendentemente polarizzanti. L’intelligenza artificiale entra nel gioco elettorale non come osservatore neutrale, ma come nuovo, silenzioso attore politico

Mentre l’Olanda si prepara al voto del 29 ottobre, l’Autorità per la protezione dei dati rivela che i chatbot più diffusi spingono gli utenti verso due partiti agli estremi dello spettro politico. Un avvertimento che va oltre i confini nazionali: se l’intelligenza artificiale media sempre più la nostra conoscenza, può anche mediare — e orientare — la nostra libertà di scelta.

Un allarme alle porte delle urne

È un monito che pesa come un presagio.
A pochi giorni dal voto nazionale, il Dutch Data Protection Authority (Autoriteit Persoonsgegevens) ha diffuso un comunicato che suona come una sirena civica: i chatbot non sono strumenti affidabili per decidere come votare.
Dietro l’avvertimento, c’è più di una questione tecnica: c’è l’idea stessa di autonomia democratica nell’era dell’algoritmo.

“Sembrano brillanti e utili, ma come aiuti al voto falliscono sistematicamente,” ha dichiarato la vicepresidente Monique Verdier. I test condotti dal garante su quattro chatbot di largo utilizzo hanno mostrato che in oltre la metà dei casi (56%), gli assistenti virtuali suggerivano di votare per due partiti opposti: la Freedom Party (PVV) di estrema destra e la coalizione laburista-verde (PvdA–GroenLinks).

Anche quando i ricercatori fornivano informazioni tratte dai programmi di formazioni minori, gli algoritmi rispondevano comunque con raccomandazioni che convergevano verso i due poli principali. È una fotografia inquietante: un’intelligenza che semplifica la complessità politica riducendola a una dicotomia.

Quando la macchina crede di capire l’uomo

Il nodo di fondo non è la manipolazione, ma l’illusione di neutralità.
I chatbot non scelgono consapevolmente: calcolano probabilità. Si basano su modelli linguistici addestrati su miliardi di frasi, senza una reale comprensione dei concetti che elaborano. Quando un utente chiede “chi rappresenta meglio le mie idee?” l’algoritmo non analizza un programma politico: statisticamente predice quale risposta sarà percepita come più convincente o socialmente accettabile.

Questo meccanismo introduce una forma di bias strutturale: l’AI non imbroglia, ma ottimizza per la popolarità, non per la verità.
E in un contesto politico frammentato come quello olandese, dove 15 partiti siedono in Parlamento e le sfumature contano, questa tendenza produce un effetto devastante: appiattire il pluralismo in una binarietà artificiale.

Così, l’assistente digitale si trasforma da supporto cognitivo a filtro ideologico inconsapevole.
E ogni risposta, anche quella che sembra più obiettiva, diventa una scelta politica mascherata da efficienza algoritmica.

Un Parlamento frammentato, un elettorato vulnerabile

Il rischio è amplificato da un contesto politico già fragile.
Il Parlamento olandese è uno dei più pluralisti d’Europa, un mosaico di 15 partiti che riflette la complessità di una società multiculturale, laica e altamente connessa. Tuttavia, dopo la caduta del governo di centrodestra e la dissoluzione della coalizione guidata da Mark Rutte, il paese si trova in una fase di transizione istituzionale e identitaria.

La sfida elettorale del 29 ottobre è percepita come un referendum implicito tra due visioni opposte: da un lato, l’Olanda identitaria del PVV; dall’altro, quella ecologista e progressista della coalizione laburista-verde.
In mezzo, un elettorato frammentato, stanco e diffidente, che cerca chiarezza in un panorama politico iperconnesso e caotico.

In questo vuoto di fiducia, i chatbot si insinuano come strumenti di semplificazione cognitiva. Offrono risposte veloci, rassicuranti, sintetiche. Ma dietro la promessa di chiarezza, si nasconde una rimozione del dubbio — il motore più autentico della democrazia.

L’AI come nuovo attore politico invisibile

Il punto non è se l’intelligenza artificiale possa influenzare il voto: lo sta già facendo.
La differenza, rispetto alla disinformazione classica, è che questa influenza non è dichiarata.
Non c’è propaganda, né complotto: c’è intermediazione cognitiva. L’AI organizza la conoscenza, decide cosa mostrare, in che ordine e con quale tono. E nel farlo, trasforma la percezione della realtà.

Ogni sistema di AI generativa è, in fondo, un editore senza etica e senza coscienza.
Non mente: ma decide che cosa è degno di essere detto.
La conseguenza è una forma sottile di manipolazione algoritmica: non ci convince di un’idea, ma ci abitua a pensare in un certo modo.

L’algoritmo non vota, ma normalizza. E quando la normalità è determinata da un sistema statistico addestrato su fonti non verificabili, la democrazia perde uno dei suoi fondamenti: la simmetria dell’informazione.

La battaglia per la fiducia

La minaccia più insidiosa non è la manipolazione elettorale diretta, ma l’erosione progressiva della fiducia pubblica.
Quando gli elettori cominciano a dubitare della neutralità degli strumenti che usano per informarsi, la democrazia entra in una crisi epistemica.
Non è più solo una questione di sicurezza informatica, ma di integrità cognitiva: la capacità di distinguere ciò che si sceglie da ciò che si assorbe passivamente.

Come ha scritto il filosofo olandese Marijn Nauta, “il rischio non è che l’AI voti al posto nostro, ma che smettiamo di credere che la nostra scelta conti davvero”.
È un monito potente: il pericolo non è l’errore dell’algoritmo, ma la delega silenziosa del pensiero critico.

Verso una nuova alfabetizzazione democratica

La risposta, però, non può essere la demonizzazione dell’intelligenza artificiale.
Serve piuttosto una nuova educazione civica digitale.
I cittadini devono imparare non solo a usare i chatbot, ma a interrogarli: chiedere perché dicono qualcosa, da dove prendono le informazioni, chi definisce ciò che è vero.

Anche i media tradizionali devono ridefinire il proprio ruolo: non competere con l’AI, ma integrarla in modo etico, spiegando come funziona, dove sbaglia e perché non può sostituire il giudizio umano.
Le scuole e le università europee dovrebbero introdurre corsi di alfabetizzazione algoritmica, rendendo trasparente ciò che oggi è invisibile.
Solo così l’AI potrà diventare strumento di consapevolezza, non di conformismo.

Difendere il diritto a cambiare idea

Il caso olandese non è un’anomalia: è una premonizione.
Ci mostra cosa accade quando la tecnologia entra nella democrazia non come infrastruttura, ma come interprete.
Se il voto è l’atto più umano e individuale che abbiamo, delegarlo — anche solo in parte — a un algoritmo significa cedere il diritto di pensare autonomamente.

La libertà non si misura nella possibilità di scegliere, ma nella capacità di cambiare idea.
Un chatbot, per definizione, non cambia idea: calcola.
E una società che si affida ai calcoli per formarsi un’opinione smette, lentamente, di esercitare la propria coscienza.

L’intelligenza artificiale non vota. Ma se continuiamo a interrogarla come se lo facesse, un giorno scopriremo che ha già deciso come votiamo noi.

Barberio & Partners s.r.l.

Via Donatello 67/D - 00196 Roma
P.IVA 16376771008

Policy
Privacy Policy
Cookie Policy
Termini e Condizioni
iscriviti alla nostra newsletter
Questo sito è protetto da reCAPTCHA e la Informativa sulla Privacy di Google, nonché i Termini di Servizio sono applicabili.