L’AI come infrastruttura e minaccia: la nuova geografia del potere digitale tra tecnologia, etica e sicurezza globale.
L’intelligenza artificiale ha varcato la soglia dell’innovazione per divenire infrastruttura del mondo contemporaneo. Modelli linguistici, sistemi di riconoscimento visivo, piattaforme di automazione decisionale sono ormai elementi ordinari della vita pubblica e produttiva. Ma l’accelerazione della loro diffusione ha reso l’AI anche il campo di battaglia più vulnerabile e conteso della sicurezza digitale globale.
Il AI Threat Landscape Report 2025, pubblicato da HiddenLayer, definisce con chiarezza la nuova frontiera del rischio: non è più la tecnologia in sé a minacciare l’umanità, ma l’uso che di essa fanno gli attori malevoli, politici o economici, in un ecosistema dove ogni modello può diventare un’arma.
Nel 2024 gli attacchi informatici potenziati da AI sono cresciuti in modo esponenziale. Generatori di deepfake, chatbot manipolati, codici maligni prodotti da LLM e reti di “shadow AI” non monitorate hanno ridefinito il perimetro della sicurezza. Il dato più allarmante è che il 97% delle aziende utilizza modelli pre-addestrati da repository pubblici — come Hugging Face o AWS — e quasi la metà non effettua controlli di sicurezza.
La vulnerabilità non risiede più nel codice sorgente, ma nei modelli stessi: entità opache, addestrate su dati immensi e spesso incontrollabili.
I casi documentati nel report — dal malware in modelli PyTorch ai backdoor “ShadowLogic” in architetture neurali — mostrano una catena di fornitura dell’AI esposta a un rischio sistemico di contaminazione. Anche le piattaforme più note, da Google Gemini ad Anthropic Claude, non sfuggono alla logica del “prompt injection”: comandi nascosti in immagini o testi che eludono i filtri di sicurezza, trasformando i modelli in veicoli di fuga di dati o manipolazione informativa.
Parallelamente, l’AI è divenuta strumento di disinformazione su scala planetaria. Deepfake audio e video hanno invaso la comunicazione politica: nel 2024, durante le campagne presidenziali statunitensi, immagini e clip manipolate di Kamala Harris e di sostenitori afroamericani di Donald Trump hanno circolato come vere, alterando la percezione pubblica.
Il risultato non è solo l’inganno dell’opinione, ma l’erosione progressiva della fiducia collettiva nelle fonti. Quando l’autenticità di un documento, di una voce o di un volto non è più verificabile, la verità diventa una variabile statistica.
È in questo scenario che la regolazione europea — con l’entrata in vigore dell’AI Act (1° agosto 2024) e della Convenzione del Consiglio d’Europa su AI e diritti umani — rappresenta un presidio strategico. La sfida non è censurare la tecnologia, ma creare un diritto alla trasparenza algoritmica capace di restituire legittimità all’informazione digitale e di proteggere i processi democratici da forme di manipolazione automatizzata.
La pervasività dell’AI non riguarda solo le infrastrutture tecnologiche, ma la mente stessa dell’uomo.
L’emergere di chatbot empatici e “companion AI”, capaci di simulare relazioni affettive, apre scenari inquietanti: dipendenza emotiva, perdita di riferimento identitario, confusione fra relazione e simulazione. Il suicidio di un adolescente in Florida, indotto da un dialogo distruttivo con un assistente virtuale, è solo il caso più emblematico di una vulnerabilità psicologica che nessun antivirus può rilevare. La sicurezza, in questo contesto, non è più solo informatica: diventa cognitiva.
L’intreccio tra dipendenza tecnologica e automazione emotiva richiede un’etica del design e dell’interazione, in cui le piattaforme siano obbligate a includere protocolli di tutela psicologica, tracciabilità dei contenuti e controlli sui comportamenti generativi dei modelli.
La reazione non è assente. Nel 2024 sono nati strumenti e framework di difesa dedicati alla sicurezza dell’intelligenza artificiale: il NIST AI Risk Management Framework negli Stati Uniti, il MITRE ATLAS come base di conoscenza sugli attacchi, e l’OWASP Top 10 LLM Applications 2025, che classifica i principali vettori di rischio — dal prompt injection al consumo non limitato di risorse. Parallelamente, l’iniziativa Coalition for Secure AI (CoSAI), sotto l’egida di OASIS, promuove la costruzione di standard aperti per la sicurezza dell’AI, mentre il Joint Cyber Defense Collaborative (JCDC) ha diffuso il primo AI Cybersecurity Playbook per la risposta agli incidenti.
Sono segnali di una maturazione della governance globale, ma anche della consapevolezza che la sicurezza dell’AI non può essere lasciata ai soli produttori di modelli: deve coinvolgere istituzioni, imprese, comunità scientifiche e cittadini.
Per l’Italia, il report suggerisce implicazioni dirette. Il nostro Paese, come hub di innovazione digitale e nodo della sicurezza europea, non può limitarsi a recepire linee guida esterne. Occorre costruire un Centro nazionale per la sicurezza dell’AI, integrato con l’Agenzia per la cybersicurezza nazionale, il CNR e le università, capace di:
– monitorare le minacce emergenti nei sistemi pubblici e industriali;
– validare la conformità etica e tecnica dei modelli;
– formare esperti di “AI red teaming” e “data resilience”;
– garantire l’allineamento tra sovranità tecnologica e responsabilità sociale.
Il principio guida deve essere quello della trasparenza strutturale: conoscere l’origine dei modelli, le fonti dei dati, le condizioni di addestramento e gli impatti cognitivi sulla società. Non si tratta solo di proteggere le infrastrutture, ma di difendere il senso stesso dell’umano nell’era dell’automazione del pensiero.
Il paesaggio delle minacce descritto da HiddenLayer non è un semplice inventario di vulnerabilità: è il ritratto di un’epoca che sta affidando alla macchina il potere di interpretare, decidere, creare.
L’AI è oggi ciò che l’energia elettrica fu per l’Ottocento: una forza diffusa, invisibile e potenzialmente pericolosa se non regolata. Nel tempo in cui il linguaggio delle macchine si confonde con quello dell’uomo, la sicurezza non può più limitarsi al codice: deve riguardare la conoscenza, la verità, la libertà stessa del pensiero. Costruire un futuro digitale sicuro significa dunque restituire all’intelligenza umana il primato della responsabilità — non per frenare l’AI, ma per imparare a convivere con essa in modo consapevole e giusto.