L’utilizzo dell’Intelligenza Artificiale in medicina è ormai fatto noto e comunemente accettato. Sistemi come ChatGPT, Gemini, Gork e altri possono portare a termine lavori molto pesanti in poco tempo, aiutando i medici nella selezione dei pazienti, nella raccolta delle anamnesi e nel fornire diagnosi preliminari. Tuttavia, uno studio della Harvard Medical School e della Stanford University pubblicato su Nature Medicine dimostra anche i limiti di questa nuova tecnologia.
Un altro studio sul New England Journal of Medicine evidenzia come i sistemi di Intelligenza Artificiale mostrino «bias cognitivi simili a quelli umani e l'entità del bias può essere maggiore di quanto osservato nei medici praticanti».
I ricercatori di Harvard e Stanford hanno realizzato un test chiamato CRAFT-MD (Conversational Reasoning Assessment Framework for Testing in Medicine) e lo hanno utilizzato su quattro ...
(Continua)
leggi la 2° pagina
Le informazioni di medicina e salute non sostituiscono
l'intervento del medico curante
Questa pagina è stata letta
2508 volte