Dirigente Medico di Medicina Interna Ospedale S. Croce e Carle, Cuneo
Abbiamo il privilegio di ospitare nel nostro Notiziario una riflessione di ampio respiro su un tema che sta cambiando in profondità la nostra professione: l’intelligenza artificiale in Medicina Interna. Il collega che ci accompagna in questo percorso è il prof. Francesco Dentali, internista, Direttore del Dipartimento dell’Area Medica e della SC Medicina Generale all’ASST Sette Laghi di Varese, Presidente azionale FADOI e Professore Associato di Medicina Interna all’Università dell’Insubria, con una produzione scientifica vastissima nei campi della trombosi, dell’aterosclerosi e della ricerca clinica, con oltre 459 pubblicazioni indicizzate, più di 23.800 citazioni e 68 di H index.
La sua esperienza clinica “sul campo”, unita alla competenza metodologica maturata anche in centri internazionali e nel coordinamento di studi multicentrici e linee guida, lo rende una voce particolarmente autorevole per aiutarci a comprendere come l’AI stia trasformando il modo di fare Medicina Interna, quali opportunità offra e quali rischi richiedano un governo attento da parte di noi clinici. Con questo spirito di confronto e crescita condivisa, accogliamo la sua lettura magistrale effettuaua al Congresso Medicina Interna 2025 – Clinica e Ricerca si incontrano organizzato dal dott. Fulvio Pomero, Direttore Dipartimento Area Medica, Ospedale Michele e Pietro Ferrero di Verduno.
Introduzione
L’intelligenza artificiale sta entrando con forza nella medicina, modificando non solo gli strumenti che utilizziamo, ma il modo stesso in cui pensiamo, ragioniamo e costruiamo la cura. L’Europa ha scelto di regolamentare questa trasformazione con l’AI Act, una normativa che considero un passaggio epocale (European Commission, 2024) (1).
In queste righe desidero condividere alcune riflessioni su ciò che stiamo vivendo e su come la Medicina Interna può affrontare questa rivoluzione senza smarrire la propria identità.
L’AI Act: perché è nato e perché riguarda tutti noi
Negli ultimi anni abbiamo assistito a un’accelerazione straordinaria nelle applicazioni dell’intelligenza artificiale alla medicina. Per la prima volta una normativa europea — l’AI Act — definisce che cosa possiamo fare, che cosa non possiamo fare e quali responsabilità abbiamo quando utilizziamo sistemi di AI in ambito sanitario (European Commission, 2024)(1).
L’AI Act classifica i sistemi in quattro livelli di rischio: inaccettabile, alto, limitato e minimo. Tutto ciò che attiene alla salute rientra quasi sempre nella categoria “alto rischio”, con obblighi su qualità dei dati, tracciabilità, robustezza dei modelli e supervisione umana.
La regolazione può sembrare un limite, ma in realtà è un’opportunità. In un mondo in cui i dataset sono spesso opachi, gli algoritmi proprietari e i modelli difficili da spiegare, avere criteri comuni significa proteggere i pazienti e anche noi professionisti (WHO, 2023) (2).
Dove siamo arrivati: una rivoluzione silenziosa, ma reale
L’AI non è un fenomeno improvviso: nasce negli anni ’50, ma è negli ultimi cinque anni che ha trovato applicazioni cliniche concrete. Oggi in molte aree l’intelligenza artificiale raggiunge prestazioni notevoli:
-
nella radiologia, con sistemi capaci di individuare lesioni millimetriche (3);
-
in dermatologia e patologia, con riconoscimenti morfologici superiori all’occhio umano(4);
-
in cardiologia, con modelli che identificano fibrillazione atriale analizzando le micro-variazioni del volto in un semplice video (5).
Queste non sono promesse future: sono evidenze ormai robuste e già utilizzate in diversi contesti clinici.
La vera domanda è: che cosa significa tutto questo per noi internisti?
Medicina Interna e complessità: ciò che le macchine non vedono
La nostra disciplina ha una peculiarità: ci confrontiamo quotidianamente con la multimorbidità, con pazienti che presentano tre, quattro, cinque patologie croniche interagenti. Il tema è ampiamente discusso anche nella recente letteratura internazionale (6,7).
Nessun algoritmo oggi è in grado di cogliere pienamente la complessità reale di un paziente internistico. L’AI riconosce pattern, individua probabilità, calcola rischi.
Ma non comprende il contesto, non valuta preferenze, non considera la storia personale, non integra l’effetto cumulativo delle terapie.
Un algoritmo può dirmi qual è la scelta statisticamente migliore; non potrà mai dirmi qual è quella giusta per quella persona.
Per questo non credo alla retorica della “sostituzione” dei medici. Credo invece che la Medicina Interna sia il terreno in cui l’intelligenza artificiale potrà esprimere il massimo potenziale solo se accompagnata dal ragionamento clinico umano.
Dall’intelligenza artificiale all’intelligenza aumentata
Il modello più convincente è quello di intelligenza aumentata, già ampiamente discusso da Topol (2019)(8): un’intelligenza artificiale che non rimpiazza ma potenzia quella umana.
Significa:
-
filtrare l’enorme quantità di dati disponibili;
-
evidenziare pattern clinici invisibili;
-
anticipare rischi e instabilità;
-
supportare decisioni complesse mantenendo il clinico al centro.
L’algoritmo non è il fine: è uno strumento.
E come ogni strumento, può essere usato bene o male.
I rischi che dobbiamo conoscere per non esserne travolti
Non possiamo ignorare i limiti dell’AI, già evidenziati in letteratura(9,10). I principali sono:
-
Bias dei dati: se i dati sono distorti, anche le decisioni lo saranno.
-
Opacità: molti modelli non sono spiegabili.
-
Dipendenza cognitiva: rischio concreto di “pensare meno”.
-
Privacy e sostenibilità: l’impronta energetica dei modelli è spesso sottostimata.
-
Errore sistemico: quando un algoritmo sbaglia, lo fa per tutti.
La supervisione umana non è un optional: è il fondamento dell’uso sicuro e affidabile dei sistemi di AI (WHO, 2023) (2).
La cura resta umana: non dimentichiamolo
Nella mia relazione ho inserito volutamente un’immagine provocatoria: un robot che comunica cattive notizie.
È un modo per ricordarci che la cura non è solo diagnosi e terapia, ma relazione.
Esistono studi rigorosi che dimostrano che l’alleanza terapeutica influisce sulla prognosi, sull’aderenza, sulla qualità della vita (11).
Non è romanticismo: è medicina basata sull’evidenza.
L’intelligenza artificiale non possiede empatia, né responsabilità, né giudizio morale.
E non guarisce.
È il modo in cui noi la utilizziamo che può contribuire alla guarigione.
- Inaccettabile: manipolazione, social scoring, riconoscimento biometrico indiscriminato.
- Alto rischio: la quasi totalità dell’AI in sanità; richiede qualità dei dati, tracciabilità, supervisione.
- Rischio limitato: sistemi che devono dichiarare di essere macchine.
- Rischio minimo: applicazioni senza impatto clinico.
- Supporto al ragionamento clinico.
- Filtrare dati complessi.
- Migliorare la valutazione del rischio.
- Sostenere la presa in carico nel territorio.
- Rafforzare il paradigma dell’intelligenza aumentata.
Discussione critica
L’intelligenza artificiale rappresenta una grande opportunità per la medicina contemporanea, ma un’opportunità non è un vantaggio se non viene governata. Il nostro compito, come internisti, non è diventare programmatori, ma saper usare questi strumenti in modo competente e critico.
Il rischio più grande non è la sostituzione del medico, ma la sostituzione del pensiero clinico. Delegare all’algoritmo decisioni che richiedono interpretazione, ascolto, narrazione, prudenza sarebbe un errore grave.
Il ragionamento clinico resta un processo ciclico: raccogliere indizi, interpretarli, decidere, verificare, adattare.
Nessun sistema informatico può eseguire questo ciclo nella sua interezza.
L’AI Act, da questo punto di vista, ci obbliga a rimanere responsabili e presenti. È una cornice che tutela i pazienti e noi stessi, purché venga applicata con consapevolezza e non come mero adempimento formale.
La direzione che immagino è quella di una collaborazione matura: le macchine faranno ciò che noi non possiamo fare (analizzare milioni di dati), e noi continueremo a fare ciò che loro non potranno mai fare (interpretare la complessità umana).
Take Home Message
-
L’AI Act crea un quadro di sicurezza, trasparenza e responsabilità.
-
L’AI non sostituirà il medico internista, ma ne trasformerà profondamente il lavoro.
-
Il ragionamento clinico resta il centro insostituibile della professione.
-
I rischi — bias, opacità, dipendenza cognitiva — vanno conosciuti e governati.
-
La relazione terapeutica rimane una evidenza scientifica: nessun algoritmo può replicarla.
Bibliografia
- Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act) (Text with EEA relevance) [Internet]. giu 13, 2024. Disponibile su: http://data.europa.eu/eli/reg/2024/1689/oj
- Organization WH. Regulatory considerations on artificial intelligence for health. World Health Organization; 2023. 80 p.
- Rajpurkar P, Chen E, Banerjee O, Topol EJ. AI in health and medicine. Nat Med. gennaio 2022;28(1):31–8.
- Esteva A, Kuprel B, Novoa RA, Ko J, Swetter SM, Blau HM, et al. Dermatologist–level classification of skin cancer with deep neural networks. Nature. 2 febbraio 2017;542(7639):115–8.
- Yan BP, Lai WHS, Chan CKY, Au ACK, Freedman B, Poh YC, et al. High-Throughput, Contact-Free Detection of Atrial Fibrillation From Video With Deep Learning. JAMA Cardiol. 1 gennaio 2020;5(1):105–7.
- Tinetti ME, Fried TR, Boyd CM. Designing Health Care for the Most Common Chronic Condition—Multimorbidity. JAMA. 20 giugno 2012;307(23):2493–4.
- Barnett K, Mercer SW, Norbury M, Watt G, Wyke S, Guthrie B. Epidemiology of multimorbidity and implications for health care, research, and medical education: a cross-sectional study. Lancet. 7 luglio 2012;380(9836):37–43.
- Topol E. Deep Medicine: How Artificial Intelligence Can Make Healthcare Human Again. New York: Basic Books; 2019. 378 p.
- Obermeyer Z, Emanuel EJ. Predicting the Future — Big Data, Machine Learning, and Clinical Medicine. N Engl J Med. 29 settembre 2016;375(13):1216–9.
- Amann J, Blasimme A, Vayena E, Frey D, Madai VI, the Precise4Q consortium. Explainability for artificial intelligence in healthcare: a multidisciplinary perspective. BMC Med Inform Decis Mak. 30 novembre 2020;20(1):310.
- Street RL, Makoul G, Arora NK, Epstein RM. How does communication heal? Pathways linking clinician-patient communication to health outcomes. Patient Educ Couns. marzo 2009;74(3):295–301.