L’integrazione dell’Intelligenza Artificiale nei sistemi sanitari è oggi un processo strutturale e in accelerazione. L’impiego di tecnologie di machine learning, deep learning e natural language processing – nei sistemi di supporto decisionale, nel triage automatizzato, nell’analisi di immagini, e nella previsione dei rischi clinici – configura un passaggio rilevante dalla medicina tradizionale alla cosiddetta medicina aumentata.
Quest’ultima non si limita a potenziare le capacità cognitive e operative del professionista sanitario, ma ne ridefinisce in profondità il ruolo e le modalità di interazione con il paziente. Un quadro aggiornato dell’opinione pubblica sull’impiego dell’IA in sanità è stato recentemente tracciato da Il Sole 24 Ore (Bartoloni & Cerati, “Intelligenza artificiale, arma a doppio taglio”, 25 luglio 2025), che riporta tra l’altro i dati di un’indagine condotta da Demopolis: il 61% degli intervistati si dichiara favorevole all’utilizzo dell’intelligenza artificiale nella medicina, a condizione che essa “resti uno strumento al servizio del medico”. Tale esito riflette una tensione strutturale tra le potenzialità di miglioramento dell’efficienza predittiva e l’esigenza di conservare una governance umana, responsabile e relazionale dei processi clinici. È in questo contesto che si afferma il paradigma della clinica algoritmica: un modello ibrido in cui la decisione medica è assistita, ma non sostituita, da modelli computazionali.
L’adozione dell’IA nella pratica medica non è neutra: essa modifica il perimetro epistemico dell’atto clinico e i presupposti della relazione di cura. Il rischio di una medicalizzazione algoritmica – in cui la malattia viene trattata come un pattern computazionale e il paziente come un insieme di parametri – è stato messo in evidenza da autorevoli voci della comunità scientifica. Secondo Massimo Massetti, direttore del Dipartimento Cuore e Vasi del Policlinico Gemelli di Roma, la medicina è e resta una relazione umana prima ancora che un processo tecnico: ascolto, empatia e contestualizzazione restano elementi costitutivi della qualità dell’intervento terapeutico. L’efficienza predittiva, se disancorata dalla responsabilità relazionale, rischia di disumanizzare il trattamento e ridurre la persona a un oggetto di ottimizzazione. In termini etico-sistemici, Paolo Benanti – docente di etica delle tecnologie alla Pontificia Università Gregoriana e membro del Comitato ONU sull’IA – propone il concetto di “nuovo contratto sociale della cura”. Tale contratto, aggiornato alla presenza dell’intelligenza artificiale come terzo attore nel rapporto terapeutico, implica una redistribuzione delle responsabilità e la costruzione di nuove condizioni di fiducia epistemica. L’autonomia decisionale del medico deve essere integrata – non compressa – dalla capacità computazionale delle macchine. Il paziente, d’altro canto, deve essere tutelato nella sua integrità cognitiva ed emotiva attraverso una comunicazione trasparente e una mediazione consapevole delle scelte algoritmiche.
La progressiva istituzionalizzazione dell’IA in sanità richiede l’elaborazione di un impianto normativo e organizzativo capace di disciplinarne l’uso, salvaguardando i diritti fondamentali del paziente e la qualità professionale dell’atto medico. Il quadro europeo, delineato nel Regolamento sull’Intelligenza Artificiale (COM/2021/206 final), introduce una classificazione dei sistemi ad “alto rischio” in cui rientrano molte applicazioni sanitarie, sottoponendole a obblighi stringenti in termini di robustezza tecnica, tracciabilità, documentazione, valutazione del rischio e sorveglianza post-market. In ambito clinico, tali requisiti devono tradursi in procedure operative che comprendano la validazione scientifica dei modelli, la supervisione umana documentata, l’obbligo di explainability delle decisioni automatizzate e una formazione specialistica continua per i professionisti sanitari. Inoltre, occorre integrare queste misure con un’etica della responsabilità che superi il tecnicismo regolamentare, per riaffermare una medicina in cui la tecnologia sia posta al servizio della persona, e non viceversa. La clinica algoritmica, se non guidata da principi di giustizia relazionale, rischia di introdurre nuovi bias sistemici, in particolare in relazione ai dati di addestramento e alla rappresentazione diseguale delle popolazioni vulnerabili.
L’Intelligenza Artificiale, nel suo impiego sanitario, non rappresenta soltanto una risorsa innovativa, ma una trasformazione strutturale dei modelli di conoscenza, delle responsabilità e dei criteri di validazione dell’atto clinico. La diffusione della clinica algoritmica e l’emergere della medicina aumentata impongono, pertanto, una riflessione sistemica sulla ridefinizione del patto terapeutico, che oggi coinvolge almeno tre attori: medico, paziente e macchina. Il nodo critico non è la disponibilità tecnologica, ma il tipo di equilibrio istituzionale ed etico che intendiamo costruire tra efficienza predittiva e responsabilità relazionale. Perché questo equilibrio sia sostenibile, è necessario riaffermare alcuni principi fondativi e non negoziabili: la centralità della relazione medico-paziente, la trasparenza delle decisioni, la responsabilità umana nell’orientare i percorsi terapeutici, e la tutela dell’autonomia cognitiva, informativa ed esistenziale del soggetto in cura. In questa prospettiva, l’entrata in vigore dell’AI Act europeo rappresenta un passaggio strategico, non solo sotto il profilo regolatorio ma come segnale politico di un cambio di paradigma nella gestione dell’innovazione. Le applicazioni IA in ambito sanitario saranno soggette a obblighi di valutazione ex ante, sistemi di gestione della qualità, audit documentati e requisiti di trasparenza algoritmica. Tali disposizioni si accompagnano all’elaborazione, in sede europea, di Codici di Condotta settoriali – inclusi quelli in ambito sanitario – che dovranno fungere da riferimento operativo e deontologico per gli sviluppatori, gli enti sanitari e gli operatori.
L’attuazione effettiva di questo impianto, tuttavia, dipenderà dalla capacità delle istituzioni pubbliche, degli ordini professionali e delle comunità scientifiche di tradurre i principi in modelli di governance adattiva. Sarà cruciale, ad esempio, dotare i professionisti di strumenti formativi e giuridici per esercitare una supervisione consapevole sull’IA, promuovere una cultura della explainability, sviluppare metriche condivise per valutare l’impatto degli algoritmi sulla qualità dell’assistenza, e costruire una vigilanza epistemica continua sui processi decisionali automatizzati. Nel medio termine, si aprono scenari promettenti: dalla diagnostica multimodale guidata da IA alle terapie predittive personalizzate, dalla gestione dinamica dei flussi ospedalieri alla medicina di precisione applicata su larga scala. Tuttavia, l’efficacia di queste innovazioni sarà misurabile non solo in termini di performance o output clinici, ma in base alla loro capacità di rafforzare l’equità nell’accesso, la sicurezza dei pazienti, e la coerenza etica delle scelte pubbliche in ambito sanitario. Per affrontare la complessità della medicina del futuro non basteranno soluzioni tecnologiche avanzate. Occorrerà una visione istituzionale capace di integrare innovazione, etica della cura e responsabilità pubblica, affinché l’IA contribuisca in modo sostanziale a una sanità più equa, sicura e realmente centrata sulla persona.