L’impatto dell’Intelligenza Artificiale generativa sulla pratica clinica
A cura della Commissione IA dell’OMCEO Cuneo

 

L’integrazione dei modelli linguistici nella pratica clinica e nella gestione della sanità pubblica rappresenta una variabile emergente di elevato impatto epidemiologico. Le attuali evidenze indicano che decine di milioni di utenti interrogano settimanalmente le piattaforme di intelligenza artificiale per ottenere risposte a quesiti medico-sanitari (OpenAI 2026). Questo fenomeno riflette un bisogno reale della popolazione di orientarsi in un sistema sanitario complesso, rendendo imperativa un’analisi tecnica da parte della classe medica. L’accesso a dati sanitari tramite algoritmi generativi solleva questioni critiche sulla affidabilità clinica e sulla tutela delle informazioni.

Il panorama tecnologico ha registrato due aggiornamenti significativi con il rilascio di piattaforme dedicate all’ambito sanitario. Il 7 gennaio 2026 è stato annunciato lo sviluppo di ChatGPT Salute, progettato per supportare l’assistenza medica attraverso il collegamento sicuro con le cartelle cliniche elettroniche e le app di monitoraggio (OpenAI 2026). L’11 gennaio 2026 è stata presentata l’architettura Claude for Healthcare (Anthropic 2026). Tali sistemi, in fase di test e accessibili su invito, mirano a fornire risposte contestualizzate basandosi sui dati sanitari personali dell’utente. Essi garantiscono ambienti crittografati in cui le conversazioni non vengono impiegate per l’addestramento dei futuri modelli algoritmici (Le News 2026).

Sotto il profilo metodologico e clinico, l’accesso ai dati sanitari individuali incrementa la pertinenza delle risposte generate, ma non risolve il problema strutturale delle allucinazioni dei modelli linguistici (Le News 2026). La generazione di informazioni clinicamente errate avviene in modo stocastico e imprevedibile.La fluidità linguistica dei modelli può indurre un eccesso di fiducia (‘over-trust’), aumentando il rischio di assumere come corrette informazioni clinicamente errate. Tali sistemi non possiedono validità diagnostica né finalità terapeutiche, configurandosi come strumenti di orientamento informativo. Le aziende sviluppatrici riconoscono l’incertezza intrinseca dei modelli, implementando avvertenze contestuali e indirizzando proattivamente gli utenti verso la consultazione formale con i professionisti sanitari per ottenere indicazioni personalizzate e clinicamente validate (Anthropic 2026).

Le ricadute pratiche di questa transizione tecnologica impongono un aggiornamento paradigmatico per il personale medico. La responsabilità clinica derivante dall’uso di questi strumenti e dall’interpretazione dei relativi output ricade interamente sull’utente (Le News 2026). Emerge la necessità non procrastinabile di strutturare percorsi formativi istituzionali rivolti ai medici di medicina generale, ai pediatri di libera scelta, agli specialisti e alla cittadinanza. La formazione deve focalizzarsi sui meccanismi tecnici dei modelli linguistici, sui loro limiti intrinseci di accuratezza clinica e sulle normative inerenti la privacy. Solo un’adeguata alfabetizzazione mitigherà i rischi clinici emergenti a breve termine.

Fonti