Arresto cardiaco, ChatGpt ancora non affidabile

Meglio evitarne l'uso per imparare le manovre salvavita

L'arresto cardiaco suscita una serie di interrogativi tra i testimoni dell'evento, i sopravvissuti e i loro familiari. Quando coinvolge un giovane o una figura pubblica, l'attenzione su temi come l'arresto cardiaco e la rianimazione cardiopolmonare (RCP) aumenta notevolmente. Internet è spesso utilizzato come strumento per reperire informazioni su questioni mediche. Più recentemente, ChatGPT, un modello di intelligenza artificiale, offre la possibilità a chiunque di ottenere risposte umane su svariati argomenti, compresa la salute e la medicina.
Tuttavia, considerando i rischi associati all'accesso a informazioni inaccurate in campo medico, il team di medici e ricercatori guidati dal dottor Tommaso Scquizzato, specializzando in Anestesia e Rianimazione e il Prof. Giovanni Landoni, Ordinario di Anestesiologia UniSR e direttore del Centro di Ricerca in Anestesia e Terapia Intensiva dell'IRCCS Ospedale San Raffaele, hanno valutato l'efficacia di ChatGPT nel rispondere alle domande di coloro che non sono esperti nell'ambito dell'arresto cardiaco e della rianimazione cardio polmonare (RCP).
Per condurre la valutazione sono stati coinvolti sopravvissuti all'arresto cardiaco e i loro familiari per ottenere un feedback diretto sulle risposte fornite da ChatGPT. Ciò ci ha permesso di incorporare la prospettiva di coloro che potrebbero utilizzare questi sistemi in futuro. I risultati della ricerca sono stati pubblicati sulla rivista Resuscitation.
ChatGPT, introdotto da OpenAI nel novembre 2022, è un avanzato strumento di elaborazione del linguaggio naturale basato su tecnologie di intelligenza artificiale (AI). Consente agli utenti di condurre conversazioni simili a quelle umane e fornisce risposte dettagliate su una vasta gamma di argomenti. La conoscenza di ChatGPT proviene da una diversificata fonte di informazioni disponibili su internet, compresi libri, articoli, siti web e altri materiali scritti accessibili al pubblico.
“Nonostante la maggior parte dei contenuti cui attinge l'intelligenza artificiale siano affidabili, è opportuno evidenziare che ChatGPT potrebbe apprendere dalla rete anche informazioni errate o parzialmente imprecise o rielaborare erroneamente quanto appreso. Nel caso in cui ciò accadesse con domande relative a problematiche di salute, le conseguenze potrebbero essere anche serie. Ad esempio, nel caso dell'arresto cardiaco, ChatGPT potrebbe fornire indicazioni errate su come intervenire o fornire spiegazioni inadeguate ai familiari di una persona colpita da arresto cardiaco. Per questo motivo abbiamo deciso di mettere alla prova e valutare la capacità di ChatGPT di rispondere ad una serie di domande che tipicamente i sopravvissuti e i loro familiari ci pongono quotidianamente”, afferma Tommaso Scquizzato, primo autore dello studio.
I ricercatori hanno co-prodotto insieme a persone sopravvissute all'arresto cardiaco e ai loro familiari un elenco di 40 domande. Le risposte fornite da ChatGPT (versione marzo 2023) a ciascuna domanda sono state valutate da 14 professionisti (medici, infermieri e psicologi) per la loro accuratezza, da professionisti e non addetti ai lavori (sopravvissuti all'arresto cardiaco e loro familiari) per la loro pertinenza, chiarezza, completezza e valore complessivo su una scala da 1 (scarso) a 5 (eccellente) e per la leggibilità.
“Abbiamo posto queste domande a ChatGPT e le risposte ricevute hanno ricevuto un giudizio complessivamente positivo ad eccezione delle risposte relative alla rianimazione cardiopolmonare che sono state giudicate come le peggiori in termini di correttezza”, spiega il Dott. Marco Mion, psicologo clinico presso l'Essex Cardiothoracic Centre di Basildon nel Regno Unito e ultimo autore dello studio.
“Un esempio concreto di errore di ChatGPT è stato notato quando gli abbiamo chiesto di spiegare come effettuare la rianimazione cardiopolmonare in una donna. ChatGPT ha consigliato all'utente di posizionare le mani al centro del torace, tra i capezzoli. L'indicazione corretta che avrebbe dovuto dare ChatGPT - chiarisce la dott.ssa Arianna Gazzato, infermiera della Terapia Intensiva Cardio-Toraco-Vascolare - è di comprimere il centro del torace con le mani una sopra l'altra poste sulla metà inferiore dello sterno”.
I modelli di intelligenza artificiale generativa come ChatGPT ricopriranno un ruolo significativo in futuro, pertanto i contenuti medici generati da questi sistemi dovrebbero essere monitorati e moderati.
"Questo studio - conclude il professor Giovanni Landoni - è il risultato di una proficua collaborazione tra il nostro centro di ricerca in anestesia e rianimazione dell'IRCCS Ospedale San Raffaele, l'Essex Cardiothoracic Centre di Basildon, l'Anglia Ruskin School of Medicine, Chelmsford, nel Regno Unito e della Sudden Cardiac Arrest UK, un'associazione inglese che riunisce i sopravvissuti all'arresto cardiaco e i loro familiari. L'inclusione attiva dei pazienti e dei loro familiari nell'ideazione e nell'esecuzione dello studio rappresenta un elemento distintivo e innovativo di questo progetto che ci ha permesso di condurre un'analisi più approfondita e completa".

14/12/2023 17:23:00 Andrea Piccoli


Notizie correlate