Ogni settimana, 230 milioni di persone aprono ChatGPT e gli chiedono cose del tipo: Ho mal di testa da tre giorni, cosa può essere?
oppure Questi sintomi potrebbero essere diabete?
o ancora Questo neo mi sembra strano, secondo te è grave?
. E ChatGPT risponde. Perché è fatto per rispondere, anche quando sarebbe meglio che non lo facesse.
OpenAI ha osservato questo fenomeno di massa, un esercito di ipocondriaci e persone genuinamente preoccupate che usano un chatbot come sostituto del medico, e ha deciso di formalizzarlo. Così ha annunciato ChatGPT Salute, uno spazio dedicato dove si può parlare di salute e benessere senza che queste conversazioni si mescolino con le richieste su ricette di lasagne o codice Python, creando una sorta di compartimento stagno.
ChatGPT diventa medico (ma nei termini di servizio nega tutto)
Se si prova a parlare di salute fuori dalla sezione dedicata, ChatGPT cercherà di spingere l’utente gentilmente verso Salute. Una volta dentro la “stanza” separata, però, l’AI non è completamente isolata dal resto. Può attingere a informazioni delle conversazioni standard. Ad esempio, chi ha chiesto un aiuto a ChatGPT per preparare una maratona, quando parla di obiettivi fitness in Salute, il chatbot sa già che è un corridore. È una forma di continuità che dovrebbe rendere i consigli più contestualizzati.
Ma la vera novità è l’integrazione con app esterne come Apple Health, Function e MyFitnessPal. ChatGPT Salute potrà accedere a dati come passi giornalieri, frequenza cardiaca, calorie bruciate, ore di sonno. OpenAI promette solennemente che non userà queste conversazioni per addestrare i modelli. E tocca fidarsi, perché verificare è impossibile.
I nobili obiettivi e le fondamenta traballanti
Fidji Simo, CEO of Applications di OpenAI, ha scritto un post dove presenta ChatGPT Salute come una risposta ai problemi della sanità moderna: costi elevati, difficoltà di accesso, medici oberati di lavoro, mancanza di continuità nelle cure. Tutto vero. Il sistema sanitario ha problemi giganteschi, soprattutto negli Stati Uniti, dove una visita dal medico può costare quanto una settimana di affitto.
Ma proporre un chatbot come soluzione è come mettere un cerotto su una gamba rotta. Certo, forse ferma il sangue, ma il problema vero resta lì sotto. ChatGPT può dare informazioni generiche, può suggerire di consultare un medico, può anche dare l’illusione di essere ascoltato. Ma non può toccare. Non può fare esami. Non può interpretare sintomi con l’esperienza clinica che viene da anni di pratica medica.
Ecco il punto cruciale: i modelli linguistici come ChatGPT funzionano predicendo la risposta più probabile, non quella più corretta. Non hanno il concetto di verità. Non sanno cosa sia giusto o sbagliato in senso oggettivo. Sanno solo cosa suona plausibile in base ai dati su cui sono stati addestrati.
Se si chiede a ChatGPT Quali sono i sintomi dell’infarto
, darà una risposta che sembra accurata perché ha letto migliaia di articoli medici su Internet. Ma se si chiede qualcosa di più sfumato, tipo: Questo dolore al braccio sinistro che sento dopo aver dormito in posizione strana potrebbe essere un infarto?
, il modello inizia a barcamenarsi tra probabilità statistiche. E le probabilità statistiche non sono diagnosi.
Poi ci sono le allucinazioni. I modelli AI possono inventare informazioni con una sicurezza spaventosa. Possono dire che una medicina esiste quando non esiste, o che una combinazione di sintomi indica una malattia rara quando in realtà è un banale raffreddore. E siccome ChatGPT risponde con tono autorevole, è facile credergli.
La clausola legale che invalida tutto
La cosa strana di ChatGPT Salute è che nei termini di servizio OpenAI scrive nero su bianco che lo strumento non è destinato all’uso per la diagnosi o il trattamento di alcuna condizione di salute.
Quindi, OpenAI lancia un prodotto chiamato ChatGPT Salute, lo posiziona come strumento per parlare di benessere e salute, permette integrazioni con app mediche, ma poi nelle clausole legali dice chiaro e tondo di non usarlo per diagnosticare o curare nulla…
In pratica si è coperto le spalle, ma nel frattempo ha creato un’aspettativa completamente opposta. E quando le persone useranno ChatGPT Salute esattamente per quello che sembra promettere, aiuto con questioni mediche, chi sarà responsabile se qualcosa va storto?
Il futuro della medicina fai-da-te
ChatGPT Salute arriverà nelle prossime settimane. Milioni di persone lo useranno, perché è comodo, veloce, disponibile 24 ore su 24 e non fa aspettare tre mesi per un appuntamento. Risponde subito, con empatia simulata e informazioni che sembrano autorevoli.
Alcuni lo useranno per domande innocue, altri per cose più serie, e ChatGPT risponderà a tutti, con la stessa sicurezza apparente, la stessa incapacità di ammettere i propri limiti. Il problema non è che le persone chiedono consigli medici online. Lo fanno da quando esiste Google, e probabilmente continueranno a farlo.
Il problema è che un’azienda tech sta costruendo un prodotto specifico per questo scopo, lo chiama “Salute”, lo integra con dati sanitari personali, ma poi si lava le mani da ogni responsabilità dicendo che non è uno strumento medico. È una zona grigia pericolosa.