Sztuczna inteligencja w ochronie zdrowia - ryzyka i wyzwania
Ochrona danych, kontrola jakości, interoperacyjność, odpowiedzialność za błędy medyczne i cyberataki - to jedne z wielu wyzwań związanych z zastosowaniem sztucznej inteligencji w ochronie zdrowia, wynika z raportu „Sztuczna inteligencja w zdrowiu. Bezpieczeństwo prawne i wykorzystanie w Polsce”.

Think Tank SGH dla ochrony zdrowia opublikował raport „Sztuczna inteligencja w zdrowiu. Bezpieczeństwo prawne i wykorzystanie w Polsce”, przygotowany głównie przez naukowców Szkoły Głównej Handlowej w Warszawie. Opisano w nim korzyści i zagrożenia związane z integracją sztucznej inteligencji do codziennej praktyki klinicznej i działalności organizacji z sektora zdrowia i opieki zdrowotnej. Jeden z rodziałów raportu został poświęcony wyzwaniom wynikającym z zastosowania sztucznej inteligencji w ochronie zdrowia.
Sztuczna inteligencja w ochronie zdrowia a odpowiedzialność za szkodę
Jak czytamy, w implementacji na szerszą skalę wyzwaniem jest z jednej strony kwestia odpowiedzialności za szkodę powstałą w związku z korzystaniem z rozwiązania technologicznego wykorzystującego AI.
“AI może mieć trudności w analizie danych, szczególnie gdy dane wykorzystane do uczenia algorytmów są niekompletne lub niejasne. Proces uczenia maszynowego (ML) jest krytyczny z punktu widzenia tworzenia sztucznej inteligencji. Może to prowadzić do błędnych wyników lub zbyt ogólnych wniosków” - piszą autorzy raportu.
Dodają, że ze względu na specyfikę AI (brak jednoznacznych, niezmienialnych reguł narzuconych przez programistę) nawet pełne, wysokiej jakości dane nie dają gwarancji całkowitego bezpieczeństwa wykorzystania AI.
“Dlatego ważna jest również kontrola jakości wyników uzyskanych w związku z zastosowaniem AI, ich walidacja. Przyczyną może tutaj być nie tyle „niepoprawne kodowanie” lecz dane wejściowe, dotyczące leczenia, które może być niezgodne ze sztuką“ - zaznaczają autorzy raportu.
Zaznaczają, że równocześnie należy zapewnić poszanowanie własności intelektualnej i zasad przejrzystości działania. Jak zauważają, “jest to niezmiernie trudne albowiem prawo nie zawsze nadąża za szybkim rozwojem technologii AI, co tworzy luki prawne i niepewność co do odpowiedzialności za błędne decyzje algorytmów”.
Nadmierne poleganie na AI
Istotnym ryzykiem jest również nadmierne poleganie na AI. Zwrócono uwagę, że diagnoza AI dotycząca zachorowania na poważne schorzenie przekazana (potencjalnemu) choremu może wywołać u niego stres i doprowadzić do pogorszenia stanu zdrowia i wręcz wyrazić się w zupełnie innej jednostce chorobowej niż ta, która była wskazana przez AI.
Istnieją również obawy dotyczące etyki związanej z wykorzystaniem AI w opiece zdrowotnej.
“Na przykład, algorytmy mogą wprowadzać uprzedzenia lub dyskryminację, jeśli nie są odpowiednio przeszkolone lub kalibrowane. Przykładem może być tutaj badanie z 2019 roku, w którym potwierdzono, że algorytm rzadziej kierował czarnoskórych pacjentów niż białych pacjentów o tak samo złym stanie zdrowia do programów mających na celu poprawę opieki dla pacjentów z złożonymi potrzebami medycznymi. Należy podkreślić, że szpitale i ubezpieczyciele używają tego lub podobnego algorytmu do zarządzania opieką zdrowotną każdego roku dla około 200 milionów ludzi w Stanach Zjednoczonych” - czytamy.
Jednocześnie podkreślono, że “podmioty stosujące rozwiązania oparte na AI powinny zapewnić ochronę danych, które wykorzystują, w szczególności jasno określić do kogo dane należą i zapewnić odpowiednie zgody na przetwarzanie”.
Warto mieć również na uwadze fakt, że w ochronie zdrowia jest wielu dysponentów danych i wymiana danych pomiędzy podmiotami, których systemy nie spełniają wymogów interoperacyjności, będzie utrudniona. Jak zaznaczono, przy projektowaniu interpretacyjnych rozwiązań należy brać pod uwagę kwestie cyberbezpieczeństwa w związku z rosnącym zagrożeniem cyberataków i ich skutków w ochronie zdrowia.
Źródło: www.sgh.waw.pl
PRZECZYTAJ TAKŻE: Jak zbudować stabilny ekosystem rozwoju AI w ochronie zdrowia w Polsce [RAPORT]
Źródło: Puls Medycyny