O AI jest głośno, ale o odpowiedzialności za jej potencjalne błędy wciąż cicho
Regulacje dotyczące sztucznej inteligencji w medycynie pilnie potrzebne
Sztuczna inteligencja ma szerokie zastosowanie w medycynie. Może przyspieszyć proces rozpoznawania chorób oraz przyczynić się do podniesienia jakości opieki medycznej. Pojawia się jednak problem, bo kwestie dotyczące sztucznej inteligencji w polskim prawie nie są w ogóle uregulowane.
- To jest podstawowy problem, ponieważ my czerpiemy z regulacji unijnych, natomiast nie mamy regulacji, które bezpośrednio odnosiłyby się do sztucznej inteligencji i do błędów, jakie wyniknęły podczas jej działania – powiedziała PAP prof. Justyna Król-Całkowska, kierownik Katedry Prawa Międzynarodowego i Europejskiego Uczelni Łazarskiego w Warszawie, członek Rady Ekspertów przy Rzeczniku Praw Pacjenta.
Sztuczna inteligencja pomocna lekarzom
Jak powiedziała ekspertka, w medycynie ze sztuczną inteligencją mamy do czynienia wtedy, kiedy złożony algorytm, podobny do sieci neuronowych człowieka, jest w stanie podjąć indywidualną decyzję w oparciu o zmienne, które mu dostarczono. Znajduje ona zastosowanie przede wszystkim w diagnostyce, zwłaszcza w diagnostyce obrazowej. - Program sztucznej inteligencji obrazuje np. zdjęcia RTG i w oparciu o dane, czyli to, czego się nauczył, stwierdza, czy obraz jest prawidłowy czy patologiczny - tłumaczy profesor Król-Całkowska. Ponadto AI stosowana jest także w radiologii, psychiatrii, dermatologii czy diagnostyce nowotworów.
Kto odpowie za błąd AI?
Co, jeśli to sztuczna inteligencja popełni błąd? Można przyjąć, że odpowiedzialnością obarczona jest osoba, która programuje sztuczną inteligencję. Wydaje się jednak, że taka odpowiedzialność jest nad wyraz szeroka. Drugą koncepcją jest przypisywanie odpowiedzialności za błędy użytkownikowi AI. To z kolei ograniczy poziom zaufania i chęć korzystania ze sztucznej inteligencji w opiece zdrowotnej.
- Trudno jest dzisiaj powiedzieć, kto ostatecznie ponosi odpowiedzialność i która z tych koncepcji jest optymalna - stwierdziła Król-Całkowska w rozmowie z PAP. Wiadomo natomiast, że prawo jest jednym z narzędzi, które zapewni, że odpowiedzialność istnieje. Dodatkowo może ograniczyć lęk, zarówno lekarzy jak i pacjentów, przed używaniem AI.
Problem w całej Europie
Polska nie jest jedynym krajem, który nie ma indywidualnych regulacji prawnych w zakresie sztucznej inteligencji. Kraje członkowskie Unii Europejskiej mierzą się z tym samym problemem. Proponowane są rozwiązania, szczególnie w rozporządzeniu parlamentu europejskiego. - Co z tego, że są one proponowane i niektóre są naprawdę całkiem dobre, skoro nie są implementowane do porządków prawnych poszczególnych państw - zauważyła profesor.
Zaufanie do sztucznej inteligencji jest ograniczone, ponieważ z jednej strony bardzo dużo się mówi o AI, a z drugiej – nic nie wiadomo o regulacjach.
Dodatkowo ludzie obawiają się braku udziału człowieka w leczeniu, gdyż to jego uważają za mniej omylnego. Zdaniem Król-Całkowskiej jest to złudne przekonanie. Przeprowadzone badania pokazały, że przeciętny, młody radiolog myli się trzykrotnie częściej, niż algorytm sztucznej inteligencji, który uczył się tylko przez dwa miesiące. - Regulacje prawne dadzą poczucie stabilności ludziom, którzy będą korzystać z AI – oceniła.
- Po stronie pacjentów ten lęk nie powinien istnieć, ale lekarze czy personel medyczny powinien tę obawę mieć, ponieważ jeśli sztuczna inteligencja popełni błąd, a jednocześnie nie dojdzie do ostatecznego zweryfikowania przez człowieka - można mówić o niedołożeniu należytej staranności, a to jest podstawa odpowiedzialności w prawie medycznym – dodała.
Zmiany coraz bliżej
Kiedy więc można spodziewać się zmian w prawie? Zdaniem prof. Justyny Król-Całkowskiej dopiero wtedy, kiedy błędy staną się zauważalne i problematyczne. - Ludzie najczęściej reagują, gdy coś się wydarzy. Wprowadzają regulacje wtedy, kiedy już z czymś jest problem i - niestety - myślę, że tak będzie w przypadku sztucznej inteligencji - stwierdziła. Sposobem, aby nie doszło do tragedii, jest zaproponowanie jednoznacznych, krajowych regulacji, które będą dotyczyły odpowiedzialności za działania AI. - Bez tego może dojść do sytuacji, w której zareagujemy zbyt późno - zaznaczyła.
- My już wiemy, co może się może stać i odwlekanie w czasie wprowadzenia regulacji jest ogromnym błędem - ostrzegła ekspertka.