2 minute read

SOCCORSO

In breve, ChatGPT ha funzionato piuttosto bene come strumento diagnostico quando gli ho passato delle informazioni precise e il paziente rientrava tra i casi clinici comuni. Questo è probabilmente il motivo per cui ChatGPT ha “superato” i casi clinici all’esame di abilitazione all’esercizio della professione medica. Non perché sia “intelligente”, ma perché i casi classici dell’esame hanno una risposta deterministica che è già presente nel suo database. ChatGPT fornisce rapidamente le risposte in un formato di linguaggio naturale (questa è la parte veramente impressionante) ma sotto c’è un processo di recupero della conoscenza simile a quello di Google. Ma nel mondo reale la maggior parte dei casi di pazienti non rientra tra i classici casi clinici.

Il mio esperimento ha illustrato come gran parte di ogni incontro medico consista nel capire la corretta narrazione del paziente. Se qualcuno arriva al mio pronto soccorso dicendo che ha dolore al polso, ma non è dovuto a un incidente recente, potrebbe essere una reazione psicosomatica dopo che il nipote del paziente è caduto, o potrebbe essere dovuto a una malattia a trasmissione sessuale, o a qualcos’altro ancora. L’ars medica consiste nel trarre tutte le informazioni necessarie per costruire la giusta narrazione.

ChatGPT potrebbe comunque lavorare come assistente del medico, leggendo automaticamente gli appunti presi durante l’incontro con i pazienti e nel corso del trattamento e suggerendo delle difformità? È possibile. Ma il mio timore è che questo possa introdurre esiti ancora peggiori.

Se le note sul paziente non includono una domanda che non ho ancora posto, l’output di ChatGPT mi incoraggerà a continuare a non porre quella domanda. Come nel caso della mia giovane paziente che non sapeva di essere incinta. Se non mi fosse venuta subito in mente una possibile gravidanza ectopica, ChatGPT avrebbe continuato a confermare quell’omissione, restituendomi solo le cose che ritenevo ovvie – convalidando con entusiasmo i miei pregiudizi come lo yes-man più pericoloso del mondo.

Tutto ciò non suggerisce che l’intelligenza artificiale non abbia un posto potenzialmente utile in medicina: ce l’ha.

Come medico la mia conoscenza è limitata dal numero di pazienti che posso curare personalmente. Mi aspetto di vedere circa 10mila pazienti nella mia vita, ognuno dei quali ha una massa corporea, una pressione sanguigna, un’anamnesi familiare e così via – un’enorme varietà di caratteristiche di cui tengo traccia nella mia mente. Ogni essere umano ha innumerevoli variabili che sono rilevanti per la propria salute, ma come medico in carne e ossa che lavora in finestre di tempo definite, mi concentro sui diversi fattori che tendono a essere quelli “storicamente” più importanti.

Quindi, ad esempio, se esamino le analisi del sangue di un paziente e vedo livelli elevati di emoglobina glicata, diagnostico che probabilmente è ai primi stadi del diabete. Ma cosa succederebbe se potessi tenere traccia delle innumerevoli variabili relative alla salute della persona e confrontarla con altre persone simili per tutte le milioni di variabili, non solo in base all’emoglobina glicata? Forse allora potrei riconoscere che gli altri 100mila pazienti che assomigliavano a questo paziente che sto visitando hanno avuto un miglioramento della propria salute quando hanno iniziato a mangiare più broccoli.

Questo è lo spazio in cui l’utilità dell’intelligenza artificiale può migliorare, elaborando instancabilmente le innumerevoli caratteristiche di ogni paziente che ho trattato, e di ogni altro paziente trattato da ogni altro medico, fornendoci indicazioni importanti grazie all’ampiezza dello sguardo. In questo l’intelligenza artificiale può aiutare, ma prima dovrà essere alimentata da milioni di serie di dati sui pazienti portatori di tutte queste informazioni, di tutto ciò che i pazienti hanno fatto (per esempio prendere un determinato farmaco) e gli esiti.

Nel frattempo, è necessaria e urgente una visione molto più realistica da parte della Silicon Valley e del pubblico in generale di ciò che l’intelligenza artificiale sia in grado di fare ora – e dei suoi molti limiti, spesso pericolosi. Dobbiamo fare molta attenzione a riporre aspettative eccessive su programmi come ChatGPT perché, nel contesto della salute umana, possono essere letteralmente pericolosi per la vita. F

Questo articolo è la traduzione dell’articolo di Josh Tamayo-Sarver pubblicato su Inflect Health – Medium con il titolo “I’m an ER doctor: Here’s what I found when I asked ChatGPT to diagnose my patients”. Per gentile concessione dell’autore, che ringraziamo per la sua disponibilità.

This article is from: