Kto ponosi odpowiedzialność za błędy sztucznej inteligencji w medycynie?
Jednym z wyzwań korzystania ze sztucznej inteligencji (AI) w medycynie jest brak regulacji prawnych. Może to spowodować szereg problemów - powiedziała PAP prof. Justyna Król-Całkowska, kierownik Katedry Prawa Międzynarodowego i Europejskiego Uczelni Łazarskiego w Warszawie, członek Rady Ekspertów przy Rzeczniku Praw Pacjenta.

Sztuczna inteligencja ma szerokie zastosowanie w medycynie. Może być efektywnym sposobem na przyspieszenie i usprawnienie procesu rozpoznania chorób oraz na podniesienie jakości opieki medycznej. Pojawia się jednak problem - "kwestie dotyczące sztucznej inteligencji w polskim prawie nie są w ogóle uregulowane" - powiedziała PAP prof. Justyna Król-Całkowska.
– To jest podstawowy problem, ponieważ my czerpiemy z "regulacji unijnych", natomiast nie mamy regulacji, które bezpośrednio odnosiłyby się do sztucznej inteligencji i do błędów, jakie wyniknęły podczas jej działania - zaznaczyła.
Zastosowania sztucznej inteligencji w medycynie
W medycynie, jak powiedziała ekspertka, ze sztuczną inteligencją mamy do czynienia wtedy, kiedy złożony algorytm, podobny do sieci neuronowych człowieka, jest w stanie podjąć indywidualną decyzję w oparciu o zmienne, które mu dostarczono. Znajduje ona zastosowanie przede wszystkim w diagnostyce - zwłaszcza w diagnostyce obrazowej.
– Program sztucznej inteligencji obrazuje np. zdjęcia RTG i w oparciu o dane, czyli to, czego się nauczył, stwierdza, czy obraz jest prawidłowy czy patologiczny - wytłumaczyła profesor. Ponadto AI stosowana jest także w radiologii, psychiatrii, dermatologii czy diagnostyce nowotworów.
Kto odpowiada za błędy sztucznej inteligencji
Zawód lekarza jest obarczony dużą odpowiedzialnością, ale co, jeśli to sztuczna inteligencja popełni błąd?
– Możemy przyjąć, że musimy obarczyć odpowiedzialnością osobę, która programuje tę sztuczną inteligencję i nie przewidziała, że w oparciu o zmienne, których będzie się jej dostarczać, będzie ona mogła podjąć złą decyzję - stwierdziła ekspertka. Z drugiej strony, odpowiedzialność operatora, który dokonał zaprogramowania, wydaje się jej nad wyraz szeroka. AI jest tworzona po to, aby podejmować autonomiczne decyzje, co w oczywisty sposób wiąże się pewnym z ryzykiem. Drugą koncepcją jest przypisywanie odpowiedzialności za błędy użytkownikowi AI, ale to z kolei ograniczy poziom zaufania i chęć korzystania ze sztucznej inteligencji w opiece zdrowotnej.
– Trudno jest dzisiaj powiedzieć, kto ostatecznie ponosi odpowiedzialność i która z tych koncepcji jest optymalna - stwierdziła prof. Król-Całkowska. Wiadomo natomiast, że prawo jest jednym z narzędzi, które zapewni, że odpowiedzialność istnieje. Dodatkowo może ograniczyć lęk, zarówno lekarzy jak i pacjentów, przed używaniem AI.
Nie tylko w Polsce brakuje regulacji prawnych dot. AI
Polska nie jest jedynym krajem, który nie ma indywidualnych regulacji prawnych w zakresie sztucznej inteligencji. Kraje członkowskie Unii Europejskiej mierzą się z tym samym problemem. Proponowane są rozwiązania, szczególnie w rozporządzeniu parlamentu europejskiego, "ale co z tego, że są one proponowane i niektóre są naprawdę całkiem dobre, skoro nie są implementowane do porządków prawnych poszczególnych państw" - zauważyła profesor.
Zaufanie do sztucznej inteligencji jest jeszcze ograniczone, "ponieważ z jednej strony bardzo dużo się mówi o AI, a z drugiej - kompletnie nie wiadomo, co i jak ją reguluje" - zaznaczyła ekspertka. Dodatkowo ludzie obawiają się braku udziału człowieka w leczeniu, gdyż to jego uważają za mniej omylnego. Zdaniem prof. Król-Całkowskiej jest to złudne przekonanie. Przeprowadzone badania pokazały, że przeciętny, młody radiolog myli się trzykrotnie częściej niż algorytm sztucznej inteligencji, który uczył się tylko przez dwa miesiące.
PRZECZYTAJ TAKŻE: Rak piersi: ChatGPT odpowiedział poprawnie na 88 proc. pytań dotyczących badań przesiewowych
Odwlekanie w czasie uregulowania odpowiedzialności w zakresie AI “jest ogromnym błędem”
– Regulacje prawne dadzą poczucie stabilności ludziom, którzy będą korzystać z AI - dodała.
– Po stronie pacjentów ten lęk nie powinien istnieć, ale lekarze czy personel medyczny powinien tę obawę mieć, ponieważ jeśli sztuczna inteligencja popełni błąd, a jednocześnie nie dojdzie do ostatecznego zweryfikowania przez człowieka - można mówić o niedołożeniu należytej staranności, a to jest podstawa odpowiedzialności w prawie medycznym - podsumowała.
Kiedy więc można spodziewać się zmian w prawie? Zdaniem prof. Justyny Król-Całkowskiej dopiero wtedy, kiedy błędy staną się zauważalne i problematyczne.
– Ludzie najczęściej reagują, gdy coś się wydarzy. Wprowadzają regulacje wtedy, kiedy już z czymś jest problem i - niestety - myślę, że tak będzie w przypadku sztucznej inteligencji - stwierdziła. Sposobem, aby nie doszło do tragedii, jest zaproponowanie jednoznacznych, krajowych regulacji, które będą dotyczyły odpowiedzialności za działania AI. – Bez tego może dojść do sytuacji, w której zareagujemy zbyt późno - zaznaczyła.
– My już wiemy, co może się może stać i odwlekanie w czasie wprowadzenia regulacji jest ogromnym błędem - ostrzegła ekspertka.
PRZECZYTAJ TAKŻE: Niedzielski: ustawa o jakości wróci bez klauzuli no-fault
Źródło: Puls Medycyny