MONDO SALUTE

Da ChatGPT Salute a MIA: l'AI in campo medico, ma solo a certe condizioni

Nelle scorse settimane ChatGPT Salute ha fatto un gran parlare di sé. Il nuovo strumento è stato presentato da OpenAI come uno spazio dedicato all’interno della nota piattaforma di intelligenza artificiale. L’obiettivo dichiarato è quello di aiutare l’utente a sentirsi più informato, preparato e sicuro nella gestione della propria salute. 

“ChatGPT Salute – si legge sul sito – è progettato per supportare l’assistenza medica, non per sostituirla. Non è destinato né alla diagnosi né al trattamento. Aiuta, invece, a orientarsi tra le domande quotidiane e a comprendere gli andamenti nel tempo, non solo i singoli momenti di malattia, per affrontare con maggiore consapevolezza le conversazioni mediche importanti”. Si insiste in modo deciso sul ruolo informativo del nuovo strumento, che non andrebbe a sostituire medici e mediche. 

Per ottenere risposte più precise e mirate, basate su informazioni sanitarie personali, sarà possibile “collegare in modo sicuro” le cartelle cliniche e le app di benessere, che secondo quanto dichiarato “vengono archiviati separatamente dalle altre chatt”. Il sistema sarebbe basato sui “solidi controlli di privacy, sicurezza e gestione dei dati di ChatGPT, con ulteriori livelli di protezione progettati specificamente per la salute, inclusi sistemi di crittografia dedicati e meccanismi di isolamento per mantenere le conversazioni sanitarie private e separate”. 

Cosa aspettarci dunque da questo nuovo strumento? Un valido aiuto per orientarci (in modo affidabile) in un sistema (quello sanitario) talora complesso? No, secondo Eugenio Santoro. Ma ciò non significa che l’AI non possa essere adottata nel settore medico. A certe condizioni, però. 

Eugenio Santoro è responsabile dell'Unità di ricerca in Sanità digitale e terapie digitali del laboratorio di Metodologia della ricerca clinica all’Istituto di Ricerche farmacologiche Mario Negri di Milano. 

 

ChatGPT Salute viene presentato come uno strumento di supporto informativo in ambito sanitario. Si insiste però sul fatto che non sostituisce il medico. Secondo lei può realmente aiutare i pazienti in qualche modo?

No, e lo dico con franchezza, per due ragioni. La prima è che dal punto di vista scientifico non è validato. Esistono alcuni studi su ChatGPT generalista che danno un’idea di affidabilità grossolana delle informazioni fornite. Restando su un piano molto generale, le risposte possono sembrare affidabili; ma quando si va più a fondo, emergono errori. 

Per quanto riguarda ChatGPT Salute, al momento non esistono studi che dimostrino la solidità delle risposte fornite in ambito clinico. Secondo quanto è stato comunicato dall’azienda, il sistema sarebbe stato testato da circa 260 medici a livello mondiale, in 60 Paesi. Tuttavia, non vengono forniti dati metodologici, né tantomeno misure di affidabilità, come sarebbe invece necessario per strumenti di questo tipo. Dal punto di vista scientifico, dunque, questo genere di affermazioni non ha alcun valore. L’attendibilità del sistema non viene opportunamente dimostrata, e questo è il primo problema. 

In secondo luogo, ChatGPT Salute viene presentato come uno strumento puramente informativo, ma questo è in realtà un modo fuorviante di comunicare con i cittadini. Le persone chiedono informazioni per trarne suggerimenti in fase di diagnosi e trattamento. Di fatto l’informazione al paziente tipo serve per prendere decisioni.

 

Per rendere le risposte più contestualizzate, il sistema prevede la possibilità di caricare dati personali e cartelle cliniche: un aspetto estremamente delicato…

Questa è la ragione per cui, se la situazione rimane così, difficilmente uno strumento del genere potrà essere utilizzato in Italia e in Europa. Non è conforme all’AI Act e, anche se dovesse diventarlo, io comunque sconsiglierei  a chiunque di caricare i propri dati clinici. Nonostante si dichiari che tali dati non saranno usati per addestrare il sistema o per fini terzi. Dal mio punto di vista questa è un’altra ragione sufficiente per non utilizzarlo.

La regolamentazione negli Stati Uniti è cambiata a partire dal 30 dicembre. La Food and Drug Administration ha stabilito che i cosiddetti “sistemi informativi” basati su intelligenza artificiale, così come quelli legati al mondo dei wearable, non necessitano più di alcuna approvazione da parte della FDA. Secondo l’Agenzia, la questione riguarda esclusivamente il consumatore e il produttore. In pratica, chi dovrebbe garantire la sicurezza e la salute dei pazienti se ne disinteressa, ritenendo che non sia di sua competenza.
 

Abbiamo toccato il tema della privacy e dei dati sensibili. Quali altri rischi possono nascondersi dietro l’utilizzo di strumenti come ChatGPT Salute?

I rischi sono gli stessi che si correvano utilizzando “Dottor Google”, ma con ChatGPT Salute sono amplificati. La soluzione fornita, infatti, è così ben scritta da riuscire a convincere l’utente della sua bontà. Con Dottor Google, con il web tradizionale o con le applicazioni che si sono succedute nel tempo, l’informazione era spesso più grezza, più artigianale. Qui l’aggravante è che l’intelligenza artificiale generativa utilizza forme di comunicazione estremamente persuasive. Il rischio è quello di rendere vero ciò che è solo verosimile.

 

Molti nuovi prodotti nascono per rispondere a esigenze di mercato. In questo caso ChatGPT Salute a quali bisogni risponde?

Risponde al problema cronico della carenza di medici, alla scarsa fiducia dei cittadini – ancora prima che dei pazienti – nelle istituzioni sanitarie, alle lunghe liste d’attesa. I problemi sono sempre gli stessi, e sono le stesse ragioni per cui sono nati i vari “dottor Google”, che tuttavia non hanno mai avuto successo. Ricordiamo Medpedia, una sorta di Wikipedia della medicina, Microsoft Health, Google Health: sono almeno quindici anni che si parla di strumenti che avrebbero dovuto risolvere problemi endemici del sistema sanitario, senza mai riuscirci.

 

Il rapporto medico-paziente è già sotto pressione per tempi stretti e carichi di lavoro elevati. L’AI può venire in aiuto o rischia di sostituire la relazione umana?

Il rapporto medico-paziente ne verrà in qualche modo compromesso. Mi aspetto un numero sempre maggiore di pazienti che, se fino a ieri arrivavano con il foglio stampato da Google – o i più esperti da Medline – in futuro arriveranno con le risposte di ChatGPT. E sarà difficile spiegare loro che, nella maggior parte dei casi, quelle informazioni non sono corrette o comunque non sono sufficienti o complete. Il problema, come dicevo, è che le risposte sembrano ben strutturate: a livello generale le informazioni appaiono coerenti e plausibili, ma in realtà non dicono nulla di veramente utile. Quando si entra più nel dettaglio, emergono errori. 

 

Recentemente è stata presentata anche Claude for Healthcare, un’altra piattaforma pensata sempre per il settore medico. L’intelligenza artificiale è uno strumento a cui si guarda con sempre maggiore frequenza in questo campo…

Se i sistemi di intelligenza artificiale vengono addestrati correttamente, studiati e valutati in modo rigoroso, possono produrre risultati utili. E infatti esistono progetti che vanno in questa direzione. In questo caso, sono il primo a sostenerli. Sono contrario invece alla moda che vuole questi sistemi “risolutori” di tutti i problemi. 

 

Di quali progetti parla?

Google lavora da anni allo sviluppo di un sistema addestrato esclusivamente con dati di tipo medico, con letteratura scientifica, con linee guida. Sono strumenti pensati per il medico. Penso, ad esempio, a MedGemma, che rappresenta l’evoluzione di un percorso iniziato almeno un paio d’anni fa. I risultati sono pubblicati in letteratura scientifica, con studi che misurano l’efficacia di questi sistemi nel rispondere a domande di tipo medico, confrontandoli sia con l’AI generalista sia con altri competitor nell’ambito della salute. E i risultati sembrano molto interessanti. 

Si sta lavorando inoltre a strumenti come i virtual coach, pensati per supportare cittadini e cittadine nella gestione della propria salute. L’Organizzazione Mondiale della Sanità (OMS) ha sviluppato S.A.R.A.H. (A Smart AI Resource Assistant for Health) che va esattamente in questa direzione: il sistema è addestrato su materiale prodotto dall’OMS e realizzato per la promozione della salute. Si concentra su aree chiave come la modifica degli stili di vita e la prevenzione di patologie croniche, come malattie cardiovascolari, diabete, oncologia e altre ancora.

Anche qui manca ancora un processo strutturato di validazione della risposta, tuttavia vengono utilizzati materiali di tipo sanitario pensati appositamente per rispondere a quel genere di domande: l’intelligenza artificiale generativa interpreta, riadatta e personalizza questi contenuti in base all’utente. Non si tratta dunque di strumenti basati su ChatGPT o su modelli generalisti, perché questi ultimi non soddisfano i criteri richiesti. Bisogna continuare in questa direzione, sia per fornire strumenti di supporto al medico sia per fornire informazioni al cittadino-paziente. 

 

Nell’ambito di un progetto previsto all’interno della Missione 6 “Salute” del PNRR, nei prossimi mesi circa 1.500 medici di medicina generale in tutta Italia inizieranno a sperimentare “MIA” (Medicina e Intelligenza Artificiale). Si tratta di una piattaforma di intelligenza artificiale pensata per affiancare i medici nelle decisioni cliniche quotidiane. L’obiettivo è quello di creare un’infrastruttura di Intelligenza Artificiale nell’ambito delle cure primarie e dell’assistenza territoriale. Questo cosa significa?

La piattaforma è attualmente in fase di sperimentazione e vedremo i risultati nel corso dell’anno. Gli obiettivi sono molto interessanti e ambiziosi. Si utilizzano soprattutto tecniche di intelligenza artificiale predittiva, che hanno una storia più consolidata, mentre la generativa è presente in misura minore. I sistemi interagiscono con le cartelle cliniche elettroniche e utilizzano i dati già disponibili ai medici. Sono strumenti addestrati su linee guida, letteratura scientifica, casi clinici analoghi, cioè tutto ciò che serve per rendere il dato accurato. 

L’obiettivo è identificare i pazienti più a rischio, quelli su cui concentrare maggiormente l’attenzione; ma anche personalizzare le cure, in modo tale da prescrivere il farmaco più appropriato, andando oltre le linee guida che spesso sono molto generali. Lo scopo inoltre è anche quello di fare prevenzione, individuando chi potrebbe sviluppare una patologia prima che questa si manifesti, intercettando dunque le situazioni di emergenza su cui intervenire con un anticipo sufficiente. Ritengo che l’idea di calarlo nelle cure primarie sia vincente, perché lavora sul territorio e valorizza il ruolo del medico di medicina generale.

 

Ha qualcosa da aggiungere in conclusione?

L’unica cosa che mi preme sottolineare è che non si può inseguire qualunque novità, senza porsi domande. Bisogna sempre chiedersi: è uno strumento sicuro? È efficace? Dove sono le prove? Alessandro Liberati, che è stato tra i fondatori del Centro Cochrane Italiano all’inizio degli anni Novanta e ha contribuito a diffondere nel nostro Paese il ragionamento basato sulle evidenze scientifiche, avrebbe posto proprio questa domanda: “Dove sono le prove?”. E oggi sembra che nessuno più se lo chieda. 

© 2025 Università di Padova
Tutti i diritti riservati P.I. 00742430283 C.F. 80006480281
Registrazione presso il Tribunale di Padova n. 2097/2012 del 18 giugno 2012