Czy sztuczna inteligencja może lepiej odpowiadać na potrzeby pacjentów niż lekarz?

AS/Harvard Health Publishing
opublikowano: 02-04-2024, 10:56

Dziś lista zastosowań sztucznej inteligencji w medycynie obejmuje m.in. sporządzanie notatek lekarskich, sugerowanie diagnoz, pomoc w czytaniu zdjęć rentgenowskich i monitorowanie w czasie rzeczywistym danych zdrowotnych, takich jak tętno czy poziom tlenu. Badania wskazują, że w wielu kwestiach AI może skutecznie konkurować z medykami.

Ten artykuł czytasz w ramach płatnej subskrypcji. Twoja prenumerata jest aktywna
Prawie 80% odpowiedzi wygenerowanych przez ChatGPT uznano za lepsze od tych, których udzielili lekarze. W przypadku odpowiedzi o dobrej lub bardzo dobrej jakości: ChatGPT otrzymał takie oceny w przypadku 78% odpowiedzi, podczas gdy lekarze tylko w przypadku 22% odpowiedzi.
Prawie 80% odpowiedzi wygenerowanych przez ChatGPT uznano za lepsze od tych, których udzielili lekarze. W przypadku odpowiedzi o dobrej lub bardzo dobrej jakości: ChatGPT otrzymał takie oceny w przypadku 78% odpowiedzi, podczas gdy lekarze tylko w przypadku 22% odpowiedzi.

Coraz mniej wątpliwości budzi kwestia jakości udzielanych przez sztuczną inteligencję informacji. Jednak w jaki sposób nawet najbardziej zaawansowana maszyna mogłaby przewyższyć lekarza w okazywaniu pacjentowi współczucia i empatii? Aby odpowiedzieć na te pytania, badacze zebrali 195 pytań od anonimowych użytkowników internetowego portalu społecznościowego. Pytania te zadano lekarzom, którzy udzielili odpowiedzi, a później zostały też przesłane do ChatGPT.

Grupy złożone z trzech medyków oceniały oba zestawy odpowiedzi pod kątem ich jakości i empatii. Medycy mieli ocenić, która odpowiedź była lepsza w pięciostopniowej skali. Opcje oceny jakości były następujące: bardzo słaba, słaba, akceptowalna, dobra lub bardzo dobra. Możliwości oceny empatii były następujące: brak empatii, niewielka empatia, umiarkowanie empatyczna, empatyczna i bardzo empatyczna.

ChatGPT bardziej empatyczny niż lekarze?

Co wykazało badanie? Prawie 80 proc. odpowiedzi wygenerowanych przez ChatGPT uznano za lepsze od tych, których udzielili lekarze. W przypadku odpowiedzi o dobrej lub bardzo dobrej jakości ChatGPT otrzymał takie oceny w przypadku 78 proc. odpowiedzi, podczas gdy lekarze tylko w przypadku 22 proc. odpowiedzi. Odpowiedzi empatyczne lub bardzo empatyczne: ChatGPT uzyskał 45 proc., a lekarze 4,6 proc. Warto też zauważyć, że długość odpowiedzi była znacznie krótsza w przypadku lekarzy (średnio 52 słowa) niż w przypadku ChatGPT (średnio 211 słów).

Jednak eksperci podkreślają, że celem badania nie było udzielenie odpowiedzi na dwa kluczowe pytania: czy odpowiedzi AI dostarczają dokładnych informacji medycznych i poprawiają zdrowie pacjentów, unikając wyrządzania szkód oraz czy pacjenci zaakceptują pomysł, że na pytania, które zadają lekarzowi, może odpowiadać AI.

Poza tym oceniający zastosowali nieprzetestowane, subiektywne kryteria jakości i empatii. Co ważne, nie oceniali faktycznej trafności odpowiedzi. Aby zminimalizować stronniczość, oceniający nie powinni też wiedzieć, czy odpowiedź pochodzi od lekarza, czy od ChatGPT. Jednak komunikacja generowana przez sztuczną inteligencję nie zawsze brzmi dokładnie tak, jak głos człowieka, a odpowiedzi AI były znacznie dłuższe. Jest zatem prawdopodobne, że przynajmniej w przypadku niektórych odpowiedzi oceniający mogli się domyślić, czyje odpowiedzi oceniają.

Co ciekawe, ChatGPT zapytany czy potrafi odpowiedzieć na pytania medyczne lepiej niż lekarz, odpowiedział, że nie.

PRZECZYTAJ TAKŻE: Sztuczna inteligencja może przewidzieć problemy zdrowotne i przedwczesną śmierć

Źródło: Puls Medycyny

Najważniejsze dzisiaj
× Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies. Możesz określić warunki przechowywania lub dostępu do plików cookies w Twojej przeglądarce.