A cura di:
NUMICO dr Gianmauro (oncologo ASO Cuneo), 
BRACCO dr Christian (Medico internista ASO Cuneo)

Oggi commentiamo

  1. Wong EYT, Verlingue L, Aldea M, et al. ESMO guidance on the use of Large Language Models in Clinical Practice (ELCAP). Annals of Oncology. 2025.
  2. Angus DC, et al. AI, Health, and Health Care Today and Tomorrow: The JAMA Summit Report on Artificial Intelligence. JAMA. Published online October 13, 2025.

Spunti di riflessione

  • Convergenza Tassonomica: I due documenti sanciscono la fine dell’AI come monolite: entrambi dividono nettamente gli strumenti per il paziente (Type 1/DTC), per il clinico (Type 2/Clinical) e per l’infrastruttura (Type 3/Business Ops).
  • Il paradosso dell’invisibile: L’area più critica non è quella diagnostica, ma quella gestionale (Type 3). Algoritmi di back-office che ottimizzano liste e rimborsi stanno modificando l’accesso alle cure senza la supervisione clinica richiesta per i dispositivi medici.
  • Oltre la validazione statica: Il trial clinico tradizionale (RCT) è troppo lento per l’evoluzione del software. Serve passare da una validazione “una tantum” a una “algorithmovigilance” continua, simile alla farmacovigilanza.

Commento

Siamo giunti a un punto di svolta. Se il biennio 2023-2024 è stato caratterizzato dall’entusiasmo (e dall’hype) per l’Intelligenza Artificiale Generativa, il 2025 segna l’inizio della fase normativa e metodologica. Due documenti fondamentali, pubblicati quasi simultaneamente sulle sponde opposte dell’Atlantico — le linee guida ELCAP di ESMO 1 e il JAMA Summit Report 2 — ci offrono per la prima volta una mappa sovrapponibile per orientarci nel caos digitale.

Leggere questi lavori in parallelo è illuminante perché si completano a vicenda: dove ESMO è pragmatica e operativa, JAMA è sistemica e politica. Il primo punto di contatto è la tassonomia. 

ESMO definisce tre categorie d’uso: Tipo 1 (paziente), Tipo 2 (clinico), Tipo 3 (sistema)2. Questa suddivisione risponde perfettamente alla classificazione proposta da JAMA (DTC, Clinical, Business Operations).

Perché è rilevante? 

Perché smette di trattare “l’AI” come un unico oggetto magico. Un chatbot che risponde a un paziente ansioso richiede cautele diverse rispetto a un algoritmo che estrae dati per un trial clinico.

Il nodo dei sistemi “invisibili” (Type 3) 

Qui emerge la tensione clinica più preoccupante. 

Entrambi i paper accendono un riflettore sui sistemi di background (ESMO Type 3 o JAMA Business Operations). Ospedali e assicurazioni stanno adottando massicciamente AI per gestire scheduling, codifica dei rimborsi e priorità di accesso. JAMA avverte: questi strumenti, spesso esenti dalla regolamentazione FDA/MDR perché considerati “amministrativi”, influenzano gli esiti clinici decidendo chi viene visto e quando. ESMO rincara la dose con una raccomandazione perentoria: “Non implementare soluzioni AI senza valutare il loro impatto sui processi clinici esistenti”. Il rischio è ottimizzare i conti peggiorando la salute, con il clinico che si trova a valle di decisioni algoritmiche invisibili.

La crisi della validazione

Il report di JAMA è brutale nel demolire l’idea che l’attuale metodo scientifico basti. I trial randomizzati classici (RCT) sono troppo lenti e costosi per software che si aggiornano ogni mese. ESMO, pragmaticamente, risponde con il concetto di “Human-in-the-loop”: in attesa di una “scienza della delivery” dell’AI, nessun output generativo deve diventare decisione clinica senza revisione umana. JAMA propone il concetto di “algorithmovigilance” : monitorare i modelli nel tempo reale, esattamente come facciamo per gli eventi avversi dei farmaci, per intercettare il “model drift” (il degrado delle prestazioni) prima che faccia danni.

Il paziente “aumentato”

Sul fronte del paziente (Type 1), la concordanza è totale ma disarmante. I pazienti usano già questi strumenti. ESMO suggerisce di non vietarli, ma di educare il paziente a considerarli supporti informativi e mai sostituti in acuto. JAMA sottolinea però il vuoto normativo: il mercato Direct-to-Consumer è una giungla di app “wellness” non validate.

In sintesi, l’integrazione di questi due documenti ci dice che l’era dell’adozione ingenua è finita. L’AI in sanità non è più un gadget tecnologico, ma un determinante di salute che richiede una governance ferrea. Per noi medici, significa acquisire una nuova competenza: la capacità di interrogare non solo il paziente, ma anche lo strumento che ci aiuta a curarlo.

Il consiglio della redazione

Applicazioni pratiche:

  • Per il Clinico (Type 2): Usare LLM per bozze di lettere o sintesi, ma verificare ogni output con le linee guida (Consenso ESMO 2.1).
  • Per il Management (Type 3): Se la vostra struttura implementa AI per la gestione flussi, esigete un audit sui potenziali bias di selezione dei pazienti (Raccomandazione JAMA/ESMO).
  • Per il Paziente (Type 1): Consigliare ai pazienti di usare prompt chiari e di non inserire mai dati identificativi nelle chat pubbliche.

Avvertenze (Don’ts):

  • Delega: Mai delegare la responsabilità finale di diagnosi o piano terapeutico all’AI (Consenso ESMO 2.5).
  • Staticità: Non assumere che un modello validato oggi funzioni ancora bene tra 6 mesi; i dati cambiano e i modelli “derivano” (JAMA Insight).

    Take Home Messages

    1.  Framework a 3 Livelli: Adottare mentalmente la distinzione ESMO (Paziente, Clinico, Sistema) per valutare i rischi: ogni livello ha regole di ingaggio diverse.
    2. Attenzione al Backend: Gli strumenti amministrativi (Type 3) non sono neutri; possono alterare l’accesso alle cure e richiedono supervisione clinica, non solo informatica.
    3. Vigilanza Dinamica: La validazione scientifica dell’AI non è un “bollino” eterno ma un processo continuo (algorithmovigilance); diffidare di strumenti non monitorati localmente.

    Bibliografia

    1. Summit Report on Artificial Intelligence. JAMA. Published online October 13, 2025.
    2. Wong EYT, Verlingue L, Aldea M, et al. ESMO guidance on the use of Large Language Models in Clinical Practice (ELCAP). Ann Oncol. 2025.
    3. Warraich HJ, Tazbaz T, Califf RM. FDA perspective on the regulation of artificial intelligence in health care and biomedicine. JAMA. 2025;333(3):241-247.