Etica sospesa: il dibattito sull’AI senza dati

Giovanni Di TrapaniGiovanni Di Trapani
| 25/09/2025

Mai come oggi disponiamo di dati, metriche e osservazioni empiriche sull’ambiente digitale.
Eppure, il dibattito etico sull’intelligenza artificiale procede troppo spesso come se queste evidenze non esistessero. Bias, trasparenza, rischi esistenziali, responsabilità algoritmica: sono parole chiave che tornano di continuo, ma rischiano di trasformarsi in formule vuote, recitate più per suscitare emozioni che per orientare analisi e decisioni. Ci troviamo così in una condizione paradossale: più conoscenza empirica, meno radicamento etico.

Le scienze sociali e computazionali hanno già tracciato linee chiare. Numerosi studi mostrano come il linguaggio online stia progressivamente semplificandosi, riducendo la varietà lessicale e accentuando forme stereotipate.
Altri rilevano che la polarizzazione politica e culturale segue schemi ricorrenti, indipendenti dalle singole piattaforme. L’economia dell’attenzione ci dice che una quota sempre minore di contenuti catalizza la quasi totalità delle interazioni, mentre miliardi di post restano invisibili. L’ipertrofia informativa, infine, rende più difficile distinguere tra ciò che è rilevante e ciò che è rumore.

Tutte queste tendenze sono supportate da serie storiche, indicatori quantitativi e analisi comparate.
Non si tratta di impressioni, ma di dati. Eppure, quando il discorso si sposta sul piano etico, questi elementi tendono a scomparire. Prendiamo un caso emblematico. Un’indagine dell’Università di Tübingen ha mostrato come, tra il 2010 e il 2020, la lunghezza media dei post su Twitter (oggi X) sia diminuita del 25%, e come la varietà lessicale utilizzata dagli utenti si sia ridotta in maniera costante, con un indice di entropia testuale in calo del 15%. Dati simili emergono anche per Facebook e TikTok, dove l’uso di un numero ristretto di espressioni e formule standardizzate risulta statisticamente prevalente.

Queste osservazioni hanno implicazioni etiche dirette: se il linguaggio online si semplifica, i modelli di AI che lo apprendono tenderanno a replicare e amplificare questa semplificazione, con effetti potenzialmente regressivi sulla qualità del discorso pubblico. Eppure, raramente questo tema entra nei dibattiti etici sull’AI, più spesso incentrati su scenari apocalittici che su problemi già osservabili e misurabili.
Questo scollamento era stato già intuito da filosofi della scienza come Gaston Bachelard e Karl Popper. Senza verificazione, senza la prova dei fatti, la riflessione scivola in una filosofia istantanea: suggestiva nei toni, sterile negli effetti. Popper ci ricordava che il criterio della scientificità risiede nella falsificabilità: ciò che non può essere smentito dall’esperienza resta speculazione. Applicato all’etica dell’AI, significa che un discorso che non si confronta con dati verificabili non può incidere realmente sulle scelte pubbliche o normative. Andrew Feenberg, nella sua teoria critica della tecnologia, sottolinea come ogni sistema tecnico sia inscritto in un contesto sociale e culturale.

Parlare di AI senza guardare a questi contesti equivale a ridurre la complessità a un duello astratto tra uomo e macchina. È una semplificazione che non aiuta a comprendere i rischi reali né a immaginare soluzioni praticabili.
La conseguenza è un doppio cortocircuito. La retorica tecnologica gonfia le aspettative, promettendo capacità cognitive straordinarie a sistemi che restano macchine statistiche. La retorica etica risponde su quello stesso terreno, evocando coscienze artificiali, diritti delle macchine, rischi esistenziali. Entrambe le retoriche si alimentano a vicenda, ma nessuna poggia su basi empiriche solide. In questo quadro, il marketing diventa paradossalmente la principale fonte d’ispirazione per la filosofia morale. Il risultato è duplice: da un lato, allarmismi e polarizzazioni che distolgono attenzione dai problemi concreti; dall’altro, politiche pubbliche rischiano di fondarsi su scenari ipotetici invece che su dati verificati, con il pericolo di costruire regole inadatte a incidere sui processi reali.

Come uscire da questa impasse? La risposta non sta nell’abbandonare i principi etici, ma nel radicarli dentro analisi verificabili. Tre condizioni minime possono guidare questo passaggio. La prima è la metrica: per ogni principio (trasparenza, equità, responsabilità) occorre stabilire indicatori osservabili che ne consentano la valutazione. La seconda è la procedura: i principi devono essere tradotti in pratiche replicabili, auditabili, verificabili da più attori. La terza è il contesto: ogni valutazione etica deve tener conto delle condizioni socio-tecniche specifiche in cui i sistemi operano, evitando generalizzazioni che confondono più di quanto chiariscano. Solo così un’etica dell’AI può passare dall’astrazione alla responsabilità pratica. È il senso della riflessione di Brent Mittelstadt, secondo cui i principi da soli non garantiscono nulla: servono misure e procedure per tradurli in realtà.

Il dibattito etico sull’AI non deve smettere di interrogarsi sui grandi dilemmi, ma deve imparare a partire dai fenomeni osservabili. Non serve evocare coscienze artificiali quando sappiamo già che i modelli replicano polarizzazioni o semplificano il linguaggio. Non serve immaginare scenari apocalittici quando i dati mostrano rischi concreti di diseguaglianza informativa, sfruttamento dei dati o impatti ambientali.

Costruire un’etica situata significa accettare la fatica del radicamento: misurare, contestualizzare, descrivere. Significa accettare che la filosofia dell’AI non possa vivere di slogan, ma debba sporcarsi le mani con le metriche, con gli indicatori, con i limiti. Solo così il discorso etico potrà diventare strumento di governo, capace di distinguere problemi reali da allarmi retorici, opportunità concrete da promesse commerciali.
Altrimenti resteremo prigionieri di un’etica sospesa: elegante nei toni, sterile negli effetti.

Barberio & Partners s.r.l.

Via Donatello 67/D - 00196 Roma
P.IVA 16376771008

Policy
Privacy Policy
Cookie Policy
Termini e Condizioni
iscriviti alla nostra newsletter
Questo sito è protetto da reCAPTCHA e la Informativa sulla Privacy di Google, nonché i Termini di Servizio sono applicabili.