Quando parliamo di intelligenza artificiale, tendiamo a concentrarci sugli aspetti più appariscenti: la velocità di calcolo, l’efficienza predittiva, la precisione nelle diagnosi o nei suggerimenti automatici. Ma se provassimo, invece, a leggere l’AI non solo come una tecnologia, ma come uno specchio della nostra epoca?
Un artefatto simbolico che porta alla luce la nostra visione del mondo, i nostri valori impliciti, le nostre paure e le nostre aspirazioni.
In questa chiave di lettura, l’AI è molto più di un sistema computazionale. È un epifenomeno della condizione tecno-umana, per usare l’espressione della filosofia contemporanea: la tecnologia non è più un semplice strumento esterno, ma un ambiente ontologico in cui siamo immersi, in cui si forma il nostro pensiero, la nostra identità, persino la nostra idea di libertà.
Il teologo Paolo Benanti ha descritto la tecnica come il luogo della libertà e della colpa: ciò che ci permette di creare, ma anche ciò che ci costringe a scegliere e a rispondere.
Ogni algoritmo che decide per noi – nella sanità, nella giustizia e nel lavoro – incarna una visione antropologica implicita: un’idea di uomo, di società, di ordine.
Luciano Floridi ha definito questo fenomeno come re-ontologizzazione della realtà: gli algoritmi non si limitano a descrivere il mondo, ma lo riscrivono secondo una logica che riflette le strutture di potere, gli stereotipi culturali, i bias cognitivi di chi li ha progettati. Non si tratta solo di pregiudizi individuali. La logica algoritmica è selettiva per natura: enfatizza ciò che è misurabile, standardizzabile e prevedibile. Ma la vita umana è eccedenza, ambiguità, contesto. Ed è qui che nasce la domanda etica fondamentale: che tipo di umanità stiamo codificando nelle nostre macchine?
Pensare l’AI come simbolo significa sottrarla all’illusione di neutralità. Significa riconoscere che ogni sistema decisionale automatizzato è anche un atto culturale e politico, e che i suoi effetti ricadono su corpi, biografie, comunità reali. Un filone consolidato e crescente nella letteratura scientifica sui bias epistemici e sulla giustizia cognitiva, mostra che i sistemi di AI possono escludere o marginalizzare conoscenze non dominanti: il sapere delle donne, delle minoranze, delle persone con disabilità.
Serve allora un nuovo paradigma: non più “etica applicata” ex post, ma etica incorporata nel design dei sistemi. Questo implica l’adozione di approcci situati e intersezionali, audit partecipativi, strumenti di explainable AI (XAI) per rendere comprensibili le decisioni, e pratiche di machine unlearning per garantire finanche un diritto all’oblio. L’AI non può essere valutata solo in base alla performance: deve rispecchiare ciò in cui crediamo.
Alcuni studi propongono l’uso dei digital twin per simulare scenari etico-decisionali: modelli dinamici che permettono di testare gli impatti di un algoritmo prima che venga implementato nella società. Si tratta di un passaggio cruciale: dall’etica come limite, all’etica come strumento proattivo di progettazione sociale. È l’inizio di una governance anticipatoria, che include la pluralità delle voci e la valutazione dei contesti. Allo stesso tempo, cresce l’interesse per una riflessione più radicale: cosa accade se pensiamo l’AI non solo come strumento umano, ma come forma emergente di soggettività? È possibile attribuire diritti o responsabilità a macchine dotate di autonomia? È in gioco una bioetica post-antropocentrica, capace di includere non solo l’umano, ma anche l’artificiale e l’ecosistemico.
L’AI ci restituisce la nostra immagine riflessa, amplificata e distorta. Ogni linea di codice è una scelta. Ogni scelta è un atto di responsabilità. L’intelligenza artificiale non ci esonera dalla libertà: la espone, la mette alla prova, la moltiplica. E ci obbliga a interrogarci non tanto su cosa le macchine possono fare, ma su chi vogliamo essere mentre le costruiamo. La vera posta in gioco non è il funzionamento della tecnologia, ma la sua simbolizzazione etica. È qui che si gioca il futuro non solo dell’AI, ma dell’umano stesso.