Lo scenario 2026 Gennaio 2026 segna una data storica: negli Stati Uniti è stata lanciata ufficialmente “ChatGPT Health”, una versione dell’intelligenza artificiale specificamente addestrata per la medicina, capace di leggere referti e integrarsi con le cartelle cliniche in sicurezza. La notizia ha fatto il giro del mondo, creando enormi aspettative su questo “medico in tasca”. Tuttavia, c’è un problema fondamentale che spesso sfugge: a causa delle normative europee sulla privacy (GDPR), questo strumento specifico in Italia è bloccato. Nonostante ciò, i dati dell’Osservatorio del Politecnico di Milano ci dicono che l’11% degli italiani sta già usando l’Intelligenza Artificiale generativa per curarsi. Il rischio? Stanno usando lo strumento sbagliato (le chat generaliste progettate per scrivere testi, non per curare) per scopi delicati, esponendosi a pericoli che l’Ordine dei Medici ritiene urgente chiarire.
Il fenomeno: dal “Dottor Google” al “Dottor Chat”
Fino a ieri correvamo su Google a digitare i sintomi, ottenendo liste infinite di link che generavano ansia. Oggi la tendenza è cambiata: ci rivolgiamo ai chatbot. Perché lo facciamo? Perché l’IA risponde subito (anche di notte), è gentile, usa un linguaggio semplice ed empatico e sembra capire le nostre paure. La tentazione di delegare decisioni cliniche – come interpretare un esame del sangue o capire la causa di un dolore – è fortissima. OpenAI riporta che nel mondo già 230 milioni di persone usano settimanalmente questi sistemi per domande sulla salute. Ma l’IA che abbiamo sui nostri telefoni oggi in Italia è progettata per conversare, non per fare diagnosi.
La realtà scientifica: il “Pappagallo Coltissimo”
Per usare l’IA senza farsi male, bisogna capire come funziona. L’Intelligenza Artificiale Generativa (LLM) non “capisce” la medicina e non ha responsabilità etica. Funziona come un “pappagallo stocastico”: ha letto tutto internet e prevede la parola che statisticamente “suona meglio” dopo l’altra. Questo meccanismo genera tre rischi concreti segnalati dalle linee guida internazionali (ESMO e JAMA):
- Le “Allucinazioni”: è il termine tecnico per indicare quando l’IA inventa di sana pianta. Poiché è programmata per darvi sempre una risposta e non per dire “non lo so”, può citare farmaci che non esistono, inventare studi clinici o trovare correlazioni tra sintomi prive di fondamento scientifico, il tutto con un tono di assoluta certezza.
- L’eccesso di fiducia (Overreliance): poiché l’IA scrive in un italiano grammaticalmente perfetto ed è molto cortese, il nostro cervello tende a credere che sia anche competente. Ci fidiamo della “bella forma” ignorando che la sostanza potrebbe essere errata.
- Il furto di dati (Privacy): in Italia non abbiamo ancora la “segregazione dei dati” presente nel modello “Health” USA (conforme HIPAA). Se caricate un referto o scrivete i vostri sintomi in una chat pubblica, quelle informazioni vengono “mangiate” dal sistema per addestrarsi. State di fatto regalando la vostra cartella clinica a un’azienda privata senza le tutele del segreto medico.
Le regole in arrivo
L’Europa si sta muovendo per tutelarci. Il Regolamento Europeo sull’Intelligenza Artificiale (AI Act) è in fase di piena applicazione (con termine ultimo al 2 agosto 2026 per alcuni obblighi) e imporrà regole severe. I software che fanno diagnosi dovranno rispettare requisiti doppi di sicurezza (sia come IA che come Dispositivi Medici). Ma fino ad allora, la prudenza è interamente nelle mani del cittadino.

Il consiglio del medico: Traduttore sì, Dottore no
Non dobbiamo demonizzare il futuro, ma governarlo. L’IA può essere un alleato prezioso se usata come strumento di orientamento, mai come “decisore”. La regola d’oro è il principio dello “Human-in-the-loop” (Umano nel circuito): nessuna informazione ottenuta dall’IA deve trasformarsi in un’azione (prendere una pillola, saltare un esame) senza che un medico in carne ed ossa l’abbia validata.
Decoder scientifico: le parole chiave
- Pappagallo Stocastico (LLM).
È il soprannome scientifico dei modelli come ChatGPT. Significa che non è un’enciclopedia che ragiona, ma un sistema di “autocompletamento brillante”. Può scrivere una diagnosi falsa in un italiano perfetto solo perché le parole “suonano bene” insieme. - Allucinazione (Digitale).
Non è una malattia mentale, ma un errore del software. Succede quando l’IA presenta come fatto certo un dato inesistente (es. un farmaco inventato o una procedura medica errata) con estrema sicurezza. - Algorithmovigilance.
Un concetto nuovo introdotto dalla rivista JAMA. Significa che, proprio come si controllano i farmaci dopo che sono stati messi in commercio (farmacovigilanza), bisogna controllare costantemente gli algoritmi perché possono “degradare” o imparare cose sbagliate nel tempo.
IL SEMAFORO della salute digitale
◉ VERDE (uso sicuro e consigliato)- Tradurre il “Medichese”: “Spiegami cosa significa ‘leucocitosi’ in parole semplici come se avessi 12 anni”.
- Preparare la visita: “Devo andare dal cardiologo per ipertensione, fammi un elenco delle domande più intelligenti da fargli per capire la mia situazione”.
- Burocrazia: Chiedere come funziona il ticket, dove sono gli uffici o come prenotare.
- Riassunti: Chiedere di riassumere un testo lungo o istruzioni terapeutiche senza cambiarne il significato.
◉ ROSSO (VIETATO – pericolo grave)
- Autodiagnosi: “ho questo dolore allo stomaco, che malattia ho?”. L’IA potrebbe alimentare la vostra ansia (cybercondria) o rassicurarvi falsamente.
- Terapie fai-da-te: “posso sospendere questo farmaco?” o “Quale antibiotico devo prendere?”. Queste sono decisioni cliniche che richiedono la conoscenza della vostra storia personale.
- Privacy: caricare foto di lesioni della pelle, PDF di referti completi o inserire nome e cognome nelle chat pubbliche.
- Salute Mentale: usare la chat come psicologo in momenti di crisi acuta. L’IA non ha empatia né capacità di intervento d’emergenza.
Messaggio finale OMCeO Cuneo
Come ricordato dal Presidente della FNOMCeO Filippo Anelli e dal Segretario Roberto Monaco: “L’Intelligenza Artificiale può migliorare accesso e qualità delle cure solo se resta uno strumento controllato. La diagnosi non è un automatismo, ma un ragionamento clinico complesso che include l’empatia”. Usate la tecnologia per informarvi e capire meglio, ma affidate la cura della vostra salute a chi vi guarda negli occhi e conosce la vostra storia. Il futuro è l’alleanza tra intelligenza artificiale e intelligenza umana, ma l’ultima parola deve sempre spettare all’uomo.
Fonti ufficiali
- Wong et al., “ESMO Guidance on the use of Large Language Models in Clinical Practice (ELCAP Framework)”, Annals of Oncology, 2025.
- Angus DC et al., “JAMA Summit Report on AI, Health, and Health Care”, JAMA, October 2025.
- Osservatorio Sanità Digitale, “Dati sull’utilizzo dell’AI da parte dei pazienti italiani”, Politecnico di Milano, 2026.
- OpenAI, “Launch of ChatGPT Health and Usage Statistics”, Official Announcement, Jan 2026.
- World Health Organization, “Ethics and governance of artificial intelligence for health: Guidance on large multi-modal models”, 25/03/2025.
- Commissione Europea, “AI Act – Regulatory framework and application timeline”, s.d..
- [FNOMCeO – Portale] – IA, Anelli: “Utile ma non sostitutiva, diagnosi resta atto umano”
Devi effettuare l'accesso per postare un commento.