Skrót informacji
Najnowsza wersja ChatuGPT potrafi interpretować wyniki medycznych badań obrazowych na tyle dobrze, że zdała egzamin na lekarza radiologa. Ma jednak nadal pewne widoczne wady ograniczające wiarygodność tak postawionych diagnoz – informuje pismo „Radiology”, na które powołuje się serwis Politykazdrowotna.com.
„Wykorzystanie dużych modeli językowych, takich jak ChatGPT, rośnie i będzie rosło” — powiedział główny autor, dr Rajesh Bhayana, radiolog z University Medical Imaging w Toronto (Kanada). „Nasze badania dają wgląd w możliwości ChatuGPT w kontekście radiologii, podkreślając niesamowity potencjał dużych modeli językowych, wraz z obecnymi ograniczeniami, które czynią go niewiarygodnym”.
Pytania nie zawierały obrazów i zostały tak pogrupowane, aby ocenić prostsze (przywoływanie wiedzy, podstawowe zrozumienie) i bardziej złożone czynności myślowe (zastosowanie, analiza, synteza). W przypadku tych bardziej złożonych oceniano z kolei opisywanie znalezionych cech obrazu, postepowanie kliniczne, klasyfikację oraz powiązania chorób.
Działanie ChatuGPT oceniono ogólnie oraz według rodzaju i tematu pytania.
Naukowcy odkryli, że ChatGPT oparty na GPT-3.5 odpowiedział poprawnie na 69 proc. pytań (104 ze 150), blisko pozytywnej oceny 70 proc. stosowanej przez Royal College w Kanadzie. Miał jednak trudności z pytaniami dotyczącymi: myślenia wyższego rzędu (60 proc; 53 z 89), kalkulacji i klasyfikacji (25 proc., 2 z 8) oraz stosowania pojęć (30 proc., 3 z 10). Jego słabe wyniki w pytaniach dotyczących myślenia wyższego rzędu nie były zaskakujące, biorąc pod uwagę brak wstępnego szkolenia w zakresie radiologii.
„Nasze badanie pokazuje imponującą poprawę wydajności ChatuGPT w radiologii w krótkim okresie, podkreślając rosnący potencjał dużych modeli językowych w tym kontekście” – powiedział dr Bhayana.
Koordynatorzy onkologiczni rozpoczęli swoją pracę
19 maja: Światowy Dzień Nieswoistych Zapaleń Jelit