Jak zbudować stabilny ekosystem rozwoju AI w ochronie zdrowia w Polsce [RAPORT]

MJM/sgh.waw.pl
opublikowano: 09-07-2024, 10:45

Sektor ochrony zdrowia już dziś wykorzystuje rozwiązania AI do niektórych procesów. Prawdziwy rozwój potencjału sztucznej inteligencji w branży zdrowia i ochrony zdrowia jeszcze przed nami. Najważniejszym warunkiem jest tworzenie stabilnego i bezpiecznego środowiska rozwoju technologii, opartego na zaufaniu wszystkich interesariuszy - zauważają autorzy raportu „Sztuczna inteligencja w zdrowiu. Bezpieczeństwo prawne i wykorzystanie w Polsce” i przedstawiają rekomendowane zmiany, które warunkują budowę stabilnego ekosystemu rozwoju AI w branży ochrony zdrowia w Polsce.

Ten artykuł czytasz w ramach płatnej subskrypcji. Twoja prenumerata jest aktywna
Sektor ochrony zdrowia już dziś wykorzystuje rozwiązania AI do niektórych procesów, zarówno tych administracyjnych jak i takich o charakterze stricte klinicznym.
Sektor ochrony zdrowia już dziś wykorzystuje rozwiązania AI do niektórych procesów, zarówno tych administracyjnych jak i takich o charakterze stricte klinicznym.
Adobe Stock

4 lipca 2024 r. Think Tank SGH dla ochrony zdrowia opublikował raport „Sztuczna inteligencja w zdrowiu. Bezpieczeństwo prawne i wykorzystanie w Polsce”, przygotowany głównie przez naukowców Szkoły Głównej Handlowej w Warszawie. Opisano w nim korzyści i zagrożenia związane z integracją sztucznej inteligencji do codziennej praktyki klinicznej i działalności organizacji z sektora zdrowia i opieki zdrowotnej.

“Niemal wszystkie branże przeszły w ostatnich latach rewolucję wynikającą z zastosowania sztucznej inteligencji. Narzędzia oparte na tej technologii pozwalają na znaczne przyspieszenie procesu analizowania danych i wnioskowania na ich podstawie. Dodatkowo mechanizmy przetwarzania języka naturalnego zbliżają interakcję z systemami AI do kontaktów z drugim człowiekiem, sprawiając, że są one intuicyjne i łatwe w obsłudze” - czytamy w raporcie.

Jak zbudować stabilny ekosystem rozwoju AI w ochrony zdrowia w Polsce?

Jak wskazano, sektor ochrony zdrowia już dziś wykorzystuje rozwiązania AI do niektórych procesów, zarówno tych administracyjnych jak i takich o charakterze stricte klinicznym.

“Prawdziwy rozwój potencjału sztucznej inteligencji w branży zdrowia i ochrony zdrowia jeszcze przed nami. Najważniejszym warunkiem jest tworzenie stabilnego i bezpiecznego środowiska rozwoju technologii, opartego na zaufaniu wszystkich interesariuszy” - piszą autorzy raportu i przedstawiają rekomendowane zmiany, które warunkują budowę stabilnego ekosystemu rozwoju AI w branży ochrony zdrowia w Polsce.

1. Zaufanie pacjentów

  • Wdrożenie przepisów dotyczących ochrony danych w związku z wtórnym wykorzystaniem danych dotyczących zdrowia na potrzeby rozwoju systemów AI.
  • Wskazanie jednostki odpowiedzialnej za dochodzenie odpowiedzialności z przypadku szkód wyrządzonych przez systemu AI.
  • Szkolenia personelu medycznego w zakresie bezpiecznego i efektywnego korzystania z technologii AI w procesie diagnostyczno-terapeutycznym.

2. Rozwój technologiczny

  • Systemowe wsparcie w procesie dostarczania danych do trenowania modeli na poziomie krajowym, które warunkuje przewagę konkurencyjną firm rozwijających technologię w Polsce – z dochowaniem przepisów ochrony danych i zgód na wtórne wykorzystanie danych dotyczących zdrowia.
  • Zapewnienie odpowiedniego poziomu cyberbezpieczeństwa we wszystkich jednostkach dostarczających i przetwarzających dane do systemów AI

3. Otoczenie prawne

  • Dookreślenie definicji systemów AI wysokiego ryzyka w celu ujednolicenia sposobu kwalifikacji systemów w zakresie obowiązków dostawców lub użytkowników.
  • Ustalenie katalogu działań systemów AI mieszczących się w ramach zasad współżycia społecznego i dobrych obyczajów.
  • Przyjęcie na gruncie polskiego prawa jednolitego i przejrzystego modelu odpowiedzialności cywilnej za szkody wyrządzone przez systemy AI.
  • Określenie zasad odpowiedzialności za skutki wynikające z wewnętrznego funkcjonowania systemów AI, a także odpowiedzialności za skutki działania wywołanego przez niezależne czynniki zewnętrzne.

4. Ocena technologii medycznych i wyrobów medycznych opartych na AI

  • Zaprojektowanie specjalistycznego procesu HTA dla AI, odnoszącego się do wszystkich elementów działania systemu (od procesu uczenia do rozwiązywania problemów) za pomocą systematycznej, bezstronnej, przejrzystej i obiektywnie rzetelnej metodologii.
  • Przyjęcie konsensusu w przedmiocie oceny i ewaluacji wyrobów medycznych opartych o AI.

5. Zrównoważony rozwój

  • Przestrzeganie standardów etycznych we wdrażaniu AI.
  • Opracowanie strategii dotyczącej zrównoważonej ochrony zdrowia opartej na AI.

Źródło: www.sgh.waw.pl

PRZECZYTAJ TAKŻE: Zastosowanie sztucznej inteligencji w ochronie zdrowia. Nowe wytyczne WHO

Powstała koalicja na rzecz cyberbezpieczeństwa w ochronie zdrowia

Źródło: Puls Medycyny

Najważniejsze dzisiaj
× Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies. Możesz określić warunki przechowywania lub dostępu do plików cookies w Twojej przeglądarce.