da doctor33.it
Un chatbot avrebbe dimostrato una precisione superiore nelle diagnosi e più empatia rispetto a un medico di base.
L’algoritmo di intelligenza artificiale, denominato Articulate Medical Intelligence Explorer (AMIE), è basato su un grande modello linguistico (LLM) sviluppato da Google ed è addestrato per condurre e valutate conversazioni mediche. Nei test con attori addestrati ad avere patologie ha eguagliato o addirittura superato le performance dei medici umani.
Il chatbot ha dimostrato un’accuratezza superiore nella diagnosi di problemi respiratori, condizioni cardiovascolari e varie patologie rispetto a un medico generico. Inoltre, confrontato con i medici umani, l’algoritmo ha estratto una quantità simile di informazioni dai dialoghi, mostrando un livello più elevato di empatia. come riportato in uno studio preliminare di Tao Tu e colleghi di Google Research e Google DeepMind.
Il software si è basato su cartelle cliniche e anamnesi vocali reali trascritte da medici e pazienti. Per ulteriormente addestrare il modello, i ricercatori hanno incaricato il sistema LLM di interpretare il ruolo di una persona con una specifica malattia o di un medico. Inoltre, il loro algoritmo ha assunto il ruolo di un collega critico, valutando l’interazione del medico con il paziente e fornendo feedback per il miglioramento.
Passando alla fase di test, i ricercatori hanno arruolato 20 partecipanti in uno studio: non pazienti reali ma attori addestrati a simulare sintomi specifici.
Basandosi su un testo preconfezionato i partecipanti hanno simulato, in cieco – quindi senza sapere se stavano interagendo con il sistema AMIE o con un medico vero – un consulto medico con il sistema AI e con 20 medici veri simulando 149 scenari clinici.
Il sistema AMIE ha eguagliato o superato l’accuratezza delle diagnosi dei medici in tutte e sei le specialità mediche esaminate. Su 26 criteri di qualità della conversazione analizzati, il sistema ha superato i medici veri in 24 casi, tra cui cortesia, spiegazione dei sintomi, trattamento, onestà, completezza e coinvolgimento, AMIE ha superato i medici umani.
Uno dei motivi che potrebbe spiegare il fenomeno è che i medici di medicina generale potrebbero non essere abituati a interagire con i pazienti attraverso chat basate su testo, potenzialmente influenzando le loro prestazioni, ma hanno anche notato come i medici si stancano più rapidamente di un robot nel fornire risposte lunghe e strutturate, liquidando più velocemente i pazienti.
Pur riconoscendo che il chatbot è lontano dall’essere impiegato nell’assistenza clinica, gli autori hanno sostenuto che potrebbe alla fine svolgere un ruolo nella democratizzazione dell’assistenza sanitaria. Adam Rodman, professore di medicina presso la Harvard Medical School di Boston, ha sottolineato che nonostante la sua utilità, lo strumento non dovrebbe sostituire l’interazione con i medici, poiché la medicina riguarda molto più che raccogliere informazioni: ruota intorno alle relazioni umane.
I ricercatori stanno progettando ora studi più dettagliati e approfonditi per scoprire fin dove può spingersi il software, eventuali limiti e superare i requisiti etici e di privacy per coinvolgere pazienti reali e applicare il sistema nella pratica clinica quotidiana.