L’intelligenza artificiale non è progresso se non è per tutti

Giovanni Di TrapaniGiovanni Di Trapani
| 05/08/2025

Nel tempo delle grandi promesse tecnologiche, una parafrasi di Henry Ford ci ricorda che il vero progresso è tale solo quando include, distribuisce, emancipa.

Nel cuore del Novecento, Henry Ford – pioniere dell’industria moderna – affermava: “C’è vero progresso solo quando i vantaggi di una nuova tecnologia diventano per tutti”. Oggi, in un’epoca segnata dalla rapida diffusione dell’intelligenza artificiale, quella frase risuona con forza nuova.

L’abbiamo parafrasata così: “Nel tempo dell’intelligenza artificiale, possiamo parlare di autentico progresso solo quando le opportunità generate da questa tecnologia sono distribuite in modo equo e partecipato, contribuendo al benessere collettivo e non all’accrescimento delle disuguaglianze.” Ma quanto è realmente condiviso il progresso digitale che stiamo vivendo? E chi resta indietro, nel silenzio algoritmico di un futuro che non lo contempla?
L’intelligenza artificiale si annuncia come il motore principale della trasformazione tecnologica del XXI secolo. Dai sistemi generativi ai modelli predittivi, dagli assistenti conversazionali alle piattaforme decisionali automatizzate, tutto sembra indicare un’accelerazione inarrestabile. Eppure, l’entusiasmo collettivo è attraversato da una faglia profonda: la diseguaglianza nell’accesso, nella comprensione e nella governance di queste tecnologie. Non tutti hanno voce in capitolo nel decidere come e perché l’AI viene sviluppata. Non tutti ne traggono beneficio in egual misura.

Anzi, molte comunità – geografiche, professionali, sociali – rischiano di diventare oggetto dell’AI, piuttosto che soggetto attivo del suo sviluppo.
Quando Henry Ford introdusse la catena di montaggio e rese l’automobile un bene accessibile anche ai suoi stessi operai, stava lanciando – forse inconsapevolmente – un principio di redistribuzione tecnologica. Il modello era industriale, ma l’intuizione era culturale: una tecnologia ha senso se migliora la vita concreta delle persone. Nel mondo dell’AI, questa intuizione rischia di essere dimenticata. Oggi non si tratta solo di avere un prodotto, ma di comprendere un processo. Non basta che l’AI sia ovunque: serve che sia comprensibile, controllabile, giusta.

Serve una “catena di montaggio etica” che permetta a tutti – cittadini, istituzioni, territori – di partecipare alla sua costruzione.
Il punto cruciale è che il progresso tecnologico non è mai neutrale. La diffusione dell’intelligenza artificiale tende a riflettere, e spesso amplificare, le disuguaglianze preesistenti: economiche, culturali, linguistiche. Se l’accesso ai modelli generativi più avanzati è nelle mani di poche big tech, e se i dati con cui vengono addestrati riflettono solo alcune culture o economie, allora siamo lontani da un progresso condiviso. L’equità algoritmica va progettata. Richiede policy inclusive, alfabetizzazione digitale diffusa, accountability nei processi decisionali automatizzati. E richiede, soprattutto, un cambio di paradigma: dall’efficienza alla giustizia, dalla performance all’accessibilità, dal profitto al bene comune.
C’è, però, un elemento ulteriore che rende questa riflessione ancora più complessa. Oggi l’accessibilità materiale all’intelligenza artificiale – almeno nella sua dimensione tecnica – è già in parte realtà. Alcune piattaforme offrono a chiunque la possibilità di scaricare, addestrare e condividere modelli di AI pronti all’uso, anche con risorse modeste e hardware domestico. È un fenomeno che legittimamente si può leggere come rivoluzionario. Tuttavia, l’apertura del codice non equivale a consapevolezza d’uso. Il vero problema non è più (solo) chi possiede l’algoritmo, ma chi sa cosa contiene, su quali dati si basa, che tipo di conoscenza produce. Un modello può essere pubblico, ma restare opaco. E soprattutto può generare risposte che l’utente medio interpreta come verità, anche quando si tratta di output incerti, probabilistici o privi di fonte verificabile.

È qui che nasce la trappola della verità algoritmica: quando un motore di ricerca, un chatbot o un assistente vocale restituisce una risposta assertiva, senza usare il condizionale o senza dichiarare il grado di affidabilità, l’informazione generata dall’AI viene assunta come certa. Una vera illusione cognitiva che trasforma la disponibilità dello strumento in dipendenza dall’output. Ecco perché una delle sfide più urgenti oggi è costruire interfacce che accompagnino ogni risposta con indicatori di attendibilità comprensibili, spiegazioni dei limiti del modello e segnalazioni esplicite delle incertezze. Il problema, in fondo, non è la presenza dell’AI nella nostra quotidianità, ma l’assenza di una cultura della responsabilità epistemica che la renda leggibile e criticabile.

In questo contesto, le istituzioni pubbliche – a livello locale, nazionale, europeo – hanno un ruolo determinante: non come meri regolatori “a valle” dell’innovazione, ma come attori capaci di orientare il suo sviluppo in modo equo, trasparente e responsabile. È in questa prospettiva che si inserisce l’Artificial Intelligence Act (AI Act), approvato definitivamente dal Parlamento europeo nel marzo 2024 e destinato a entrare in vigore con piena applicazione a partire dal 2026. L’AI Act rappresenta il primo tentativo sistemico di classificare i sistemi di intelligenza artificiale in base al rischio che comportano per i diritti fondamentali, prevedendo obblighi differenziati, meccanismi di trasparenza, requisiti tecnici e controlli indipendenti. Ma il suo significato va oltre la dimensione normativa: si tratta di un atto politico che afferma una visione europea dell’innovazione, basata su diritti, sicurezza e inclusività. Tuttavia, per tradurre questa visione in realtà occorre uno sforzo ulteriore. Serve un’agenda pubblica per l’AI democratica: sostenere progetti di ricerca pubblici, promuovere modelli open-source, garantire l’accessibilità dei dati e delle infrastrutture, rafforzare le competenze digitali nelle amministrazioni e nei territori. L’Europa, con l’AI Act, ha tracciato la cornice; ora tocca agli attori pubblici e sociali riempirla di contenuti, prassi e visioni condivise.
Come ricorda Luciano Floridi, “non basta una governance tecnica dell’AI; serve una governance umanistica”. Che significa: riportare l’essere umano – con la sua dignità, vulnerabilità e intelligenza critica – al centro del disegno algoritmico. Una tecnologia che non tiene conto dei suoi effetti sistemici, o che non può essere compresa e controllata da chi la subisce, è una tecnologia a metà. E non può dirsi progresso. La storia dell’innovazione è una storia di promesse. Ma è anche una storia di esclusioni. Ricordare oggi la lezione – e la visione – di Henry Ford non è un vezzo nostalgico, ma un atto politico. Se l’intelligenza artificiale deve davvero rappresentare un passo avanti, deve essere un passo condiviso. Solo così, nel tempo dell’algoritmo, potremo dire che siamo davvero entrati nel tempo del progresso. Quello autentico. Quello per tutti.

Barberio & Partners s.r.l.

Via Donatello 67/D - 00196 Roma
P.IVA 16376771008

Policy
Privacy Policy
Cookie Policy
Termini e Condizioni
iscriviti alla nostra newsletter
Questo sito è protetto da reCAPTCHA e la Informativa sulla Privacy di Google, nonché i Termini di Servizio sono applicabili.