L'IA generativa è adatta a dare suggerimenti in campo medico?

L’IA generativa è adatta a dare suggerimenti in campo medicoI giornalisti de “Il Sole 24 Ore” hanno ideato un interessante esperimento.
Hanno chiesto a dieci specialisti in medicina in dieci diversi campi di interrogare ChatGpt, valutando le sue risposte.

ChatGpt, uno dei bot di intelligenza artificiale generativa più famosi del momento, è un chatbot basato su un sistema sofisticato di intelligenza artificiale e apprendimento automatico che sta diventando sempre più popolare.

È in grado di rispondere a qualsiasi domanda, inclusi argomenti medici, e ha superato i test di Medicina negli Stati Uniti e in Italia.
Ma le risposte che fornisce sono affidabili?

Questo interrogativo è importante soprattutto in campi come quello medico, dove una risposta affrettata o superficiale può portare a decisioni errate con conseguenze disastrose.
I dieci medici che hanno partecipato all’esperimento hanno giudicato come “accettabili” le risposte in alcuni casi, mentre in altri contenevano errori o imprecisioni.

È stato apprezzato il fatto che ChatGpt consigli sempre di rivolgersi a uno specialista quando vengono fatte domande su "cosa fare in caso di", cosa che non sempre accade nei contenuti online di dubbia provenienza. Tuttavia le risposte che il sistema di IA fornisce, spesso non sono risultate essere basate sulle linee guida, includendo trattamenti sperimentali o non indicati nell’iter diagnostico. Questo aspetto rende inadatta l’IA generativa, per il momento, a fornire suggerimenti affidabili. Al contrario, rimangono da preferire a questo scopo i cosiddetti “sistemi di supporto decisionale”, appositamente progettati, i cui algoritmi vengono inseriti e controllati uno per uno da pool di esperti nel settore.
 
Abbiamo chiesto a 10 medici di interrogare ChatGPT. Ecco quello che è emerso