L’annuncio di OpenAI sul lancio di ChatGPT Salute segna un passaggio rilevante nel rapporto tra intelligenza artificiale e sanità. Per la prima volta, una piattaforma di IA conversazionale introduce uno spazio dedicato esclusivamente a salute e benessere, con la possibilità di integrare cartelle cliniche elettroniche e applicazioni di wellness, promettendo risposte più contestualizzate e personalizzate.
Una svolta che ha immediatamente acceso il dibattito tra professionisti sanitari, istituzioni e organismi di rappresentanza, in Italia come in Europa.
Secondo OpenAI, la salute è già oggi uno degli ambiti più esplorati dagli utenti: ogni settimana oltre 230 milioni di persone nel mondo pongono domande sanitarie a ChatGPT. ChatGPT Salute nasce per strutturare questo utilizzo, trasformando l’IA da semplice motore informativo generalista a strumento di supporto più aderente alla storia personale dell’utente. Il servizio, al momento disponibile solo negli Stati Uniti e su base sperimentale, non è ancora accessibile in Italia né nell’Unione Europea.
Come funziona ChatGPT Salute e cosa promette
Indice dei contenuti
La nuova sezione consente di collegare, su base volontaria, dati sanitari personali come esami di laboratorio, parametri raccolti da dispositivi indossabili e informazioni provenienti da app di benessere. L’IA utilizza questi dati per aiutare l’utente a comprendere referti, preparare domande per una visita medica, orientarsi tra opzioni di prevenzione o stili di vita e seguire nel tempo l’evoluzione del proprio stato di salute.
OpenAI sottolinea però un punto chiave: ChatGPT Salute non è progettato per fare diagnosi né per prescrivere terapie. L’obiettivo dichiarato è migliorare l’alfabetizzazione sanitaria e rendere più consapevole il dialogo tra paziente e professionista. Non a caso, l’azienda insiste sul concetto di “supporto all’assistenza”, non di sostituzione.
Un elemento centrale riguarda la protezione dei dati. Le conversazioni sanitarie vengono archiviate in uno spazio separato, con meccanismi di isolamento rispetto al resto delle interazioni con ChatGPT. È una scelta che risponde alle forti preoccupazioni sulla gestione dei dati sensibili, tema particolarmente delicato in ambito europeo.
Un’IA sviluppata con il contributo dei medici
OpenAI afferma di aver coinvolto oltre 260 medici in 60 Paesi, appartenenti a numerose specialità, che hanno fornito centinaia di migliaia di feedback durante lo sviluppo. Questo lavoro ha portato alla creazione di HealthBench, un sistema di valutazione basato su criteri clinici reali: sicurezza delle risposte, chiarezza comunicativa, capacità di indirizzare correttamente l’utente verso il medico quando necessario.
È un approccio che riflette un cambio di paradigma rispetto alle prime applicazioni di IA in sanità, spesso criticate per la loro opacità e per il rischio di suggerimenti fuorvianti. Tuttavia, anche con questi correttivi, il nodo della responsabilità resta centrale.
Chat GPT Salute: la posizione di FNOMCeO
Roberto Monaco, Segretario della Federazione FNOMCeO, chiarisce che l’intelligenza artificiale può essere uno strumento prezioso, ma non può sostituire il medico. La diagnosi, sottolinea, non è un processo meccanico basato su sintomi isolati, ma un ragionamento complesso che integra dati clinici, anamnesi, esperienza e relazione umana.
Secondo Monaco, la relazione medico-paziente resta un elemento insostituibile della cura. L’ascolto, la valutazione del contesto e la capacità di interpretare segnali deboli o contraddittori sono aspetti che l’IA, per quanto evoluta, non possiede. Inoltre, il Segretario FNOMCeO richiama l’attenzione sulla qualità dei dati: senza basi scientificamente validate, anche il miglior algoritmo rischia di produrre risultati inaffidabili.
IA e sanità: il quadro europeo
Il dibattito italiano si inserisce in un contesto europeo particolarmente attento. Con l’AI Act, l’Unione Europea ha classificato molte applicazioni sanitarie dell’intelligenza artificiale come “ad alto rischio”, imponendo requisiti stringenti su trasparenza, sicurezza, tracciabilità e supervisione umana. Strumenti come ChatGPT Salute, se e quando arriveranno in Europa, dovranno confrontarsi con queste regole, soprattutto in materia di protezione dei dati e responsabilità.
Parallelamente, l’Europa sta investendo in progetti di IA sanitaria per il supporto alla diagnosi, alla ricerca clinica e alla gestione dei sistemi sanitari, ma sempre con l’idea che l’IA debba essere human-in-the-loop, cioè supervisionata da un professionista. In altre parole, innovazione sì, ma senza delegare decisioni cliniche a sistemi automatici.
Chat GPT Salute: opportunità e rischi di un’IA “personalizzata”
L’integrazione di dati clinici personali apre scenari promettenti. Un’IA capace di spiegare esami, ricordare follow-up, individuare pattern di rischio o supportare l’aderenza terapeutica potrebbe alleggerire il carico sui servizi sanitari e migliorare l’empowerment del paziente. Allo stesso tempo, aumenta il rischio di un uso improprio: autodiagnosi, interpretazioni errate, eccessiva fiducia nello strumento.
Il dibattito in corso, come sottolineano i medici italiani, non riguarda tanto la tecnologia in sé, quanto il suo inquadramento etico, normativo e professionale.
Chat GPT Salute: un equilibrio ancora da costruire
ChatGPT Salute rappresenta un laboratorio avanzato di ciò che l’IA può offrire alla sanità. Ma il messaggio che emerge dal confronto con la comunità medica è chiaro. L’intelligenza artificiale può migliorare informazione, prevenzione e comunicazione, ma non può sostituire il giudizio clinico né la responsabilità professionale.
Il futuro dell’IA in sanità, in Italia e in Europa, si giocherà proprio su questo equilibrio. Sfruttare la potenza degli algoritmi senza perdere la centralità dell’essere umano nella cura.
