Intelligenza Artificiale deludente nel mondo reale

Prestazioni notevoli in fase di test ma difficoltà nelle applicazioni quotidiane

Telemedicina_6827.jpg

L’utilizzo dell’Intelligenza Artificiale in medicina è ormai fatto noto e comunemente accettato. Sistemi come ChatGPT, Gemini, Gork e altri possono portare a termine lavori molto pesanti in poco tempo, aiutando i medici nella selezione dei pazienti, nella raccolta delle anamnesi e nel fornire diagnosi preliminari. Tuttavia, uno studio della Harvard Medical School e della Stanford University pubblicato su Nature Medicine dimostra anche i limiti di questa nuova tecnologia.
Un altro studio sul New England Journal of Medicine evidenzia come i sistemi di Intelligenza Artificiale mostrino «bias cognitivi simili a quelli umani e l'entità del bias può essere maggiore di quanto osservato nei medici praticanti».
I ricercatori di Harvard e Stanford hanno realizzato un test chiamato CRAFT-MD (Conversational Reasoning Assessment Framework for Testing in Medicine) e lo hanno utilizzato su quattro ...  (Continua) leggi la 2° pagina articolo di salute altra pagina

NOTIZIE SPECIFICHE SU | intelligenza, artificiale, diagnosi,




Del 03/01/2025

Notizie correlate