Odkrycia i technologie

Gdzie sięgają granice sztucznej inteligencji

Konrad Wojciechowski

Sztuczna inteligencja jest coraz bardziej obecna w medycynie. Lekarze wyrażają gotowość korzystania z nowych technologii w celach diagnostycznych i naukowych. Czy istniejące przepisy też są na to gotowe?

2 sierpnia 2026 r. to ważna data dla wszystkich podmiotów, które mają w zwyczaju i praktyce korzystać z systemów sztucznej inteligencji (AI). Tego dnia przepisy odnośnie do jej stosowania – w postaci unijnego Rozporządzenia o sztucznej inteligencji (AI Act) – wejdą w życie w pełnym wymiarze. Dyrektywy zawarte w tym dokumencie nie ominą branży medycznej, której postęp w leczeniu pacjentów jest mocno zależny od stosowania nowych technologii. Jakie wyzwania w związku z AI Act czekają podmioty medyczne?

Pacjent musi się zgodzić

Fundamentalną kwestią jest korzystanie z algorytmów sztucznej inteligencji w procesie leczenia. Lekarze mogą się nią posługiwać, ale nie bez wiedzy i zgody pacjenta. Zgodnie z art. 31 Ustawy o zawodach lekarza i lekarza dentysty na medykach ciąży obowiązek udzielania informacji o stanie zdrowia pacjenta. Osoba objęta leczeniem powinna mieć wiedzę na temat m.in. rozpoznania choroby, diagnostyki, wyników badań i rokowania. Jeżeli leczenie ma być wspierane zastosowaniem sztucznej inteligencji, lekarz ma obowiązek poinformować o tym pacjenta.

Aby środowisko nie miało co do tego wątpliwości, Naczelna Rada Lekarska znowelizowała zapisy Kodeksu Etyki Lekarskiej (KEL). W art. 12 KEL jest mowa o tym, że lekarz w postępowaniu diagnostycznym, leczniczym bądź zapobiegawczym może korzystać z narzędzi AI, ale pod kilkoma warunkami: ma obowiązek o tym fakcie poinformować pacjenta i uzyskać od niego świadomą zgodę. Stosowane algorytmy powinny mieć odpowiednią certyfikację (jaką: nie doprecyzowano) – to kolejny wymóg. No i ostatni z warunków: ostateczną decyzję diagnostyczną bądź terapeutyczną zawsze podejmuje lekarz.

– Pacjent musi rozumieć, na co wyraża zgodę – komentuje mec. Hanna Rubaszewska z międzynarodowej kancelarii prawnej BSJP (Brockhuis Schnell Jurczak Prusak). – Rodzi się pytanie, jak dalece lekarz powinien informować pacjenta o algorytmach sztucznej inteligencji w procesie diagnostycznym lub terapeutycznym. I tutaj warto się odwołać do obowiązującej w Polsce „Białej Księgi AI w praktyce klinicznej”. Należy powiadomić pacjenta o ryzykach, konsekwencjach i zagrożeniach na tyle obszernie, na ile rola AI jest istotna w diagnozowaniu i leczeniu – dodaje.

Dopiero po uzyskaniu świadomej zgody lub wyrażonej odmowie lekarz stawia diagnozę bądź podejmuje leczenie z pomocą narzędzi AI albo od korzystania z takich środków odstępuje i posiłkuje się wyłącznie swoją wiedzą i praktyką lekarską.

Pełna wersja artykułu omawia następujące zagadnienia:

Kto i kiedy odpowiada

Gdyby podczas diagnozowania pacjenta metodami AI doszło do błędu w sztuce lekarskiej, odpowiedzialność spada głównie na lekarza oraz na szpital bądź placówkę [...]

Troska o dane wrażliwe

A wyzwań związanych ze sztuczną inteligencją jest dużo więcej. Pojawiają się wątpliwości, czy algorytmy mogą korzystać z danych pacjenta w celu wytrenowania swoich modeli [...]

Ciemna strona AI

System ochrony zdrowia nie jest jeszcze w pełni gotowy na cyfrową rewolucję. – Według danych rządowego Centrum e-Zdrowie mamy niecałe 5% placówek [...]

Do góry