Prof. Reguła: sztuczna inteligencja musi mieć dobrego nauczyciela
Działanie sztucznej inteligencji (AI) opiera się na analizie danych, uczeniu się ich oraz podejmowaniu decyzji lub realizacji zadań na podstawie zgromadzonej wiedzy. - Aby rozwijać AI w medycynie, wyzwaniem bywa właśnie dostarczenie danych - ocenia prof. Jarosław Reguła.

8 kwietnia Naukowa Fundacja Polpharmy ogłosiła start XXIII edycji Konkursu Fundacji na Projekt Badawczy. Tematem tegorocznego konkursu jest „Zastosowanie sztucznej inteligencji (AI) w analizie i zarządzaniu danymi medycznymi”. Na czym polega zapewnienie dostępu do danych medycznych w celu rozwoju sztucznej inteligencji?
Sztuczna inteligencja to bardzo ogólny termin, w którym ważne są cele zastosowania rozwiązań czy algorytmów komputerowych i to, w jaki sposób się je wykorzystuje. Najczęściej, żeby mieć narzędzie, ogólnie nazywane sztuczną inteligencją, trzeba dostarczyć danych, które nauczą ją tego, co ma wykonywać. Do tego używa się tzw. machine learning, czyli uczenia maszynowego bądź sztucznych sieci neuronalnych, które przypominają nasz mózg. Ten proces uczenia można przedstawić na przykładzie rozpoznawania obrazów histopatologicznych. Najpierw trzeba przygotować zestaw wycinków i szkiełek histopatologicznych, scyfryzować je i dać rozpoznanie ustalone przez człowieka - specjalistę histopatologa. Następnie maszyna musi sama nauczyć się na podstawie pokazywanych obrazów, co jest dobre, a co złe i po obejrzeniu 100 tys. przykładów właściwych rozpoznań będzie ona w stanie sama je ustalać.
Czyli sztuczna inteligencja będzie bazowała na wiedzy, którą jej dostarczymy. To ogromna odpowiedzialność.
Tak, musimy sobie zdawać sprawę, że jeżeli w zestawie obrazów będą błędy, to AI je zapamięta i następnie sama będzie je popełniać. To dotyczy także obrazów radiologicznych, endoskopowych, również algorytmów rozpoznawania chorób, podpowiadania diagnoz. Sztuczna inteligencja będzie potrafiła robić to, czego ją nauczymy. Dlatego bardzo ważna jest jakość tego nauczania. Każdy może sobie zrobić sztuczną inteligencję, istotne, żeby miał narzędzia i mógł nauczyć swój komputer tego, czego od niego później będzie wymagać.
Kto odpowie za błędy sztucznej inteligencji wykorzystywanej w medycynie?
Odpowiedzialność za użycie sztucznej inteligencji spada na lekarza, na osobę zadającą pytanie. Nikt nie pociągnie sztucznej inteligencji do odpowiedzialności medycznej. AI w medycynie jest do wykorzystania w różnych procesach, stanowiąc wyraźną pomoc w diagnozowaniu, leczeniu, podpowiadaniu sposobów terapii, ale ze świadomością, że lekarz musi to weryfikować.
Możliwości sztucznej inteligencji są nieograniczone lub jeszcze tej granicy nie znamy.
Dlatego pomysłów na jej wykorzystanie w medycynie mogą być miliony. Ta edycja konkursu Naukowej Fundacji Polpharmy ma zachęcić naukowców, żeby znajdowali sposoby na wykorzystanie metodologii sztucznej inteligencji, a pomysły mogą być niesamowite.
Podam przykład badań przeprowadzonych w Izraelu, których wyniki publikowano już 2 czy 3 lata temu. Ponieważ wszystkie laboratoria diagnostyczne wykonujące badania krwi są tam połączone w jedną sieć, utworzono na ich podstawie olbrzymią bazę danych z identyfikacją pacjenta. Można więc było np. śledzić wyniki morfologii krwi u danej osoby z ostatnich 10 lat, niezależnie od tego, gdzie wykonała ona badanie. Pomyślano, że obserwacja jakiegoś wskaźnika (np. stężenia hemoglobiny czy morfologii krwi, krwinek czerwonych) na przestrzeni lat może pozwolić wykryć pewne nieprawidłowości.
Okazało się, że wychwycono pacjentów, u których dochodziło do spadku liczby krwinek czerwonych w granicach normy. Autorzy badania zasugerowali, że być może ten spadek oznacza jakieś utajone krwawienie i warto takich pacjentów przebadać np. w kierunku raka jelita grubego. Wykorzystując sztuczną inteligencję, zanalizowano miliony oznaczeń z całego kraju i wykryto osoby, u których rzeczywiście występowały początki krwawienia. Był to więc rodzaj testu przesiewowego w kierunku raka jelita grubego.
U nas w Narodowym Instytucie Onkologii wykorzystywano sztuczną inteligencję, opartą na bazie danych NFZ, do wyszukiwania np. osób z rozpoznaniem danego nowotworu. Biorąc pod uwagę kilka aspektów, np. rodzaj operacji, sposób leczenia czy jakieś inne cechy charakterystyczne dla danego nowotworu, można było wychwycić osoby z danym rozpoznaniem, nawet jeśli nie było ono wprost zapisane w bazach NFZ.
Czy ograniczeniem w rozwoju sztucznej inteligencji w Polsce może być brak baz danych medycznych lub dostępu do nich?
To jest kłopot. Właściciele baz danych panicznie się boją przekroczenia przepisów dotyczących ochrony danych osobowych. W Polsce nie ma dobrych regulacji w tym względzie i Narodowemu Funduszowi Zdrowia najłatwiej jest powiedzieć, że z powodu przepisów RODO nie może udostępnić żadnych danych. Tymczasem np. w krajach skandynawskich naukowcy mogą otrzymać dostęp do medycznych baz danych i mają możliwość ich łączenia.
Można by było np. wykorzystując numer PESEL uzyskać od ZUS-u dane z połączonych baz instytucji centralnych. Dane przekazywane naukowcom byłyby już pozbawione numerów PESEL, czyli tak naprawdę nie mieliby oni dostępu do danych osobowych. Chodzi tylko o możliwość wykorzystania identyfikatora, jakim jest PESEL, do łączenia różnych baz danych. W Polsce nie ma instytucji, którą moglibyśmy poprosić, żeby połączyła bazę danych ZUS, NFZ, bazę danych o zgonach, wypadkach samochodowych itd., bo PESEL jest chroniony i nikt danych z tym identyfikatorem nie udostępnia. Na to potrzebne są odrębne regulacje, więc musimy jakimiś okrężnymi sposobami próbować docierać do baz danych, oczywiście bez informacji o danych osobowych.
A jakie jest w Polsce zaufanie do sztucznej inteligencji wykorzystywanej w medycynie? Czy możemy dać dowody skuteczności jej zastosowania?
Myślę, że na razie jesteśmy na dość wczesnym etapie. Sztuczna inteligencja jest zwykle wykorzystywana w konkretnym celu, do którego realizacji została przyuczona. Musimy mieć świadomość, że ta inteligencja nie myśli jak człowiek, tylko wykonuje zadanie, którego została wyuczona. Nawet te istniejące i dostępne AI mają swoje ograniczenia, bo być może zbyt słabo zostały nauczone, za mało poznały przypadków klinicznych pacjentów czy obrazów medycznych. Te bazy, które dobrze pracują, wymagają kilkuset tysięcy przypadków do analizy z dobrym rozpoznaniem przez człowieka. To jest trudne.
Wiadomo, że na świecie pracują firmy komercyjne i niekomercyjne, które zdobywają te dane. To muszą być dane dobrej jakości. Ale nie jesteśmy jeszcze na takim etapie, żeby mieć 100-procentowe zaufanie do tego, co powie nam sztuczna inteligencja. Możemy z niej korzystać z pewnym ograniczeniem, ze świadomością, że może popełniać błędy. Tak samo jest z tekstami Chata GPT. Wiemy doskonale, że są one bardzo dobrej jakości, ale zdarzają się błędy i jeżeli ktoś nie ma dostatecznej wiedzy, żeby je zauważyć, to mogą być kłopoty. Trzeba na razie ostrożnie używać AI, ale nie dokonamy postępów, jeśli nie będzie badań.
ZOBACZ TAKŻE: Czy sztuczna inteligencja może lepiej odpowiadać na potrzeby pacjentów niż lekarz?
Źródło: Puls Medycyny