robot dottore medicina intelligenza artificiale sanita farmaci

I PROSSIMI A ESSERE SOSTITUITI DALL'INTELLIGENZA ARTIFICIALE SARANNO I MEDICI? - OPENAI LANCIA "CHATGPT HEALTH", UNA SEZIONE DI CHATGPT DOVE GLI UTENTI POSSONO CARICARE LE LORO CARTELLE CLINICHE E RICEVERE UNA "DIAGNOSI" - SECONDO OPENAI, OGNI SETTIMANA SONO OLTRE 230 MILIONI LE PERSONE CHE INTERROGANO L'IA IN MERITO A QUESTIONI DI SALUTE (SOPRATTUTTO IN AMERICA, VISTO CHE UNA VISITA DAL DOTTORE PUO' COSTARE MIGLIAIA DI DOLLARI) - IL RISCHIO È CHE CHATGPT METTA IN PERICOLO I PAZIENTI: SECONDO UNO STUDIO, IL 22% DELLE CURE "PRESCRITTE" E' DANNOSO PER LA SALUTE...

Vai all'articolo precedente Vai all'articolo precedente
guarda la fotogallery

Estratto dell'articolo di Luigi Ripamonti per il “Corriere della Sera”

 

MEDICI E INTELLIGENZA ARTIFICIALE

OpenAI ha annunciato ChatGpt Health, una sezione di ChatGpt con maggiore sicurezza dei dati, dove gli utenti possono caricare cartelle cliniche o collegare feed di app per il benessere. La creazione di una sezione specifica per chi pone domande sulla propria salute alle piattaforme di Intelligenza Artificiale basate su Large Language Model (LLM) risponde a una domanda ma impone qualche riflessione.

 

La domanda sta nei numeri: secondo OpenAI oltre 230 milioni di persone interrogano a questo scopo ChatGpt ogni settimana. Non sorprende visto che in alcuni Paesi chiamare un’ambulanza o andare in Pronto soccorso può tradursi in un «bagno di sangue» economico, mentre in altri può essere difficile vedere un medico o «resistere» a chiedere un consiglio all’AI mentre si è in una lunga lista d’attesa per una visita.

MEDICI E INTELLIGENZA ARTIFICIALE

 

Ciò però propone una prima riflessione, che verte sulla fiducia che si può porre in un LLM quando gli si affida «la pelle». Se ChatGpt Health — assicurano — è stata «istruita» da 60 medici con centinaia di migliaia di feedback, non è detto che, in generale, ci si possa mettere nelle mani di un LLM senza cautele stando a una ricerca, caricata sul repository ArXiv nel dicembre 2025 (First, do NOHARM: towards clinically safe large language models), che ha testato 31 importanti LLM riscontrando risposte potenzialmente molto dannose nel 22% dei casi. [...]

MEDICI E INTELLIGENZA ARTIFICIALEMEDICI E INTELLIGENZA ARTIFICIALE