Algorytmy AI pomagają lekarzom analizować zdjęcia rentgenowskie, wspierają diagnostykę chorób nowotworowych, a nawet uczestniczą w procesie podejmowania decyzji klinicznych. W wielu przypadkach AI już teraz działa po cichu w tle. Podpowiada, sugeruje, porównuje wyniki i wskazuje możliwe rozpoznania.
Z jednej strony to ogromny krok naprzód: dzięki sztucznej inteligencji diagnozy mogą być szybsze, dokładniejsze i bardziej dostępne. Ale z drugiej pojawia się pytanie, które jeszcze niedawno wydawało się czysto teoretyczne: co, jeśli AI się pomyli?
Czy za błędną diagnozę odpowiada lekarz, który zaufał systemowi? Szpital, który wdrożył narzędzie? A może producent oprogramowania, którego algorytm nie przewidział pewnej sytuacji klinicznej?
Nowy obszar odpowiedzialności. Prawo nie nadąża za technologią
Rewolucja sztucznej inteligencji w medycynie dzieje się szybciej, niż zdążają zareagować ustawodawcy. W ciągu kilku lat AI przeszła drogę od obiecującej nowinki technologicznej do realnego uczestnika procesu diagnostycznego i terapeutycznego. Problem w tym, że prawo medyczne wciąż nie wie, jak traktować błąd popełniony przez algorytm.
Na razie w Stanach Zjednoczonych czy Europie nie odnotowano przypadków, w których to właśnie AI stałaby się głównym przedmiotem pozwu o błąd w sztuce lekarskiej. Jednak eksperci ostrzegają, że to tylko kwestia czasu.
Zakładając, że doszłoby do takiego sporu, nie trudno sobie wyobrazić, iż prawdopodobnie zbyt duże zaufanie do AI (bez krytycznej oceny czy potwierdzenia jej wskazań) może być uznane za brak należytej staranności.
Z punktu widzenia prawa cywilnego i karnego powstaje więc pytanie, które sądy dopiero zaczną rozstrzygać. Mianowicie – gdzie kończy się odpowiedzialność człowieka, a zaczyna odpowiedzialność maszyny? I czy w ogóle można mówić o „winie” algorytmu, który działa zgodnie z zaprogramowanymi wzorcami, ale w nieprzewidziany sposób?
W praktyce oznacza to, że każda decyzja o wdrożeniu AI w szpitalu lub gabinecie lekarskim powinna być nie tylko technologicznie przemyślana, lecz także prawnie i etycznie zabezpieczona. Brak regulacji nie zwalnia bowiem z odpowiedzialności.
Czy AI zmieni standard staranności lekarza?
W klasycznym ujęciu prawa medycznego lekarz odpowiada za swoje działania według tzw. standardu należytej staranności czyli tego, jak postąpiłby „rozsądny lekarz” w podobnych okolicznościach. Jednak pojawienie się sztucznej inteligencji zaczyna ten standard stopniowo przekształcać.
Jeszcze niedawno to doświadczenie i intuicja człowieka stanowiły punkt odniesienia. Dziś do tego zestawu dochodzi nowy element czyli algorytm. Co więcej potrafi on analizować miliony danych, wychwytywać subtelne wzorce i sugerować rozpoznania szybciej, niż zrobiłby to człowiek. I choć ostateczna decyzja wciąż należy do lekarza, to rosnąca rola AI sprawia, że zmienia się definicja tego, co uznaje się za „rozsądne” postępowanie.
Zmiana będzie postępować stopniowo, w wybranych dziedzinach, tam, gdzie sztuczna inteligencja okaże się naprawdę skuteczna np. w radiologii, kardiologii czy dermatologii.
W praktyce można więc oczekiwać, że w najbliższych latach standard staranności lekarskiej stanie się pojęciem dynamicznym czyli zależnym od tego, jak szybko technologia przenika do codziennej praktyki i jak bardzo środowisko medyczne ją zaakceptuje.
Kto ponosi winę: lekarz, szpital, producent?
W tradycyjnej medycynie sprawa była prosta: jeśli pacjent doznał szkody w wyniku błędu diagnostycznego czy terapeutycznego, odpowiedzialność spadała na lekarza lub placówkę medyczną. W erze sztucznej inteligencji ten schemat przestaje być oczywisty.
W praktyce odpowiedzialność za błąd „AI w medycynie” okazuje się rozproszona i zależy od wielu czynników: rodzaju technologii, sposobu jej użycia, nadzoru człowieka oraz stopnia autonomii systemu.
Lekarz – ostatnie ogniwo decyzji
Na razie to lekarze wciąż ponoszą największe ryzyko prawne. Choć AI może wspierać proces diagnostyczny, ostateczna decyzja kliniczna należy do człowieka. To on podpisuje dokumentację, rozmawia z pacjentem i odpowiada za skutki leczenia.
Dlatego sądy, przynajmniej dziś, traktują AI jako narzędzie, nie jako podmiot. Jeśli więc lekarz polega na błędnej rekomendacji systemu bez jej weryfikacji, może zostać uznany za niedbałego, podobnie jak w przypadku błędu w interpretacji wyniku badania wykonanego przez laboratorium.
Szpital i system ochrony zdrowia – odpowiedzialność za wdrożenie
Szpitale i ośrodki medyczne ponoszą z kolei odpowiedzialność za sposób, w jaki wdrażają i nadzorują AI. W ich gestii leży weryfikacja wiarygodności dostawcy technologii, odpowiednie przeszkolenie personelu oraz zapewnienie, że algorytmy są stosowane zgodnie z zatwierdzonym zakresem działania.
Brak nadzoru, błędne wdrożenie lub użycie niezwalidowanego systemu może zostać potraktowane jako zaniedbanie instytucji. W skrajnych przypadkach, jeśli szpital nie poinformuje pacjenta o wykorzystaniu AI, narusza również obowiązek uzyskania świadomej zgody.
Producent i twórca algorytmu – produkt pod lupą
Wreszcie producenci oprogramowania i urządzeń medycznych z elementami AI. Ich odpowiedzialność może być rozpatrywana jako odpowiedzialności za produkt.
Wspólna odpowiedzialność – model przyszłości
Coraz częściej pojawia się też koncepcja dzielonej odpowiedzialności. Zgodnie z nią każdy z uczestników łańcucha – lekarz, szpital, producent – ponosi część winy proporcjonalnie do swojego wpływu na wynik.
W efekcie, dopóki przepisy nie zostaną ujednolicone, największy ciężar ryzyka pozostaje po stronie lekarzy i placówek, które stoją na pierwszej linii kontaktu z pacjentem.
Świadoma zgoda pacjenta i transparentność
Jednym z najbardziej delikatnych aspektów korzystania ze sztucznej inteligencji w medycynie jest kwestia informowania pacjenta o jej roli w procesie diagnozy i leczenia. Tradycyjna zasada świadomej zgody zakłada, że pacjent powinien rozumieć, na co się zgadza oraz jakie są możliwe korzyści, ryzyka oraz alternatywy proponowanego postępowania. Ale czy w tym katalogu powinno znaleźć się również… użycie algorytmu?
Prawnicy i bioetycy są zgodni co do jednego: prawo nie nadąża za rzeczywistością kliniczną. Obecnie w większości krajów nie istnieje formalny obowiązek ujawniania pacjentowi, że w diagnozie lub terapii uczestniczy AI. Jeśli jednak system sztucznej inteligencji wpływa na przebieg zabiegu, rekomendację terapii lub ocenę wyników, wtedy brak informacji może zostać potraktowany jako naruszenie prawa pacjenta do świadomej zgody.
AI jako „czarny skrzynka” medycyny
Problem polega na tym, że wiele narzędzi AI to tzw. systemy o ograniczonej przejrzystości tzn. lekarz często nie wie dokładnie, jak algorytm doszedł do swojego wniosku. Dla pacjenta może to być niepokojące: jak zaufać diagnozie, jeśli nikt – nawet lekarz – nie potrafi jej w pełni wyjaśnić? Dlatego coraz częściej mówi się o potrzebie „proporcjonalnej transparentności”: im większy wpływ AI na decyzję kliniczną, tym wyższy poziom ujawnienia i rozmowy z pacjentem.
Zgoda to nie tylko podpis
Eksperci podkreślają, że świadoma zgoda to proces, a nie jednorazowy dokument. Lekarze powinni rozmawiać z pacjentami o roli AI w sposób zrozumiały i udokumentowany. Szczególnie gdy sztuczna inteligencja pomaga w podejmowaniu kluczowych decyzji. W praktyce może to oznaczać krótkie wyjaśnienie, że „w procesie diagnostycznym wykorzystano oprogramowanie wspomagające analizę wyników”, oraz odnotowanie tego w dokumentacji medycznej.
Dobrą praktyką jest też zapewnienie pacjentowi możliwości wyboru np. czy zgadza się, by wizyta była rejestrowana i analizowana przez chociażby systemy automatycznego zapisu rozmów i tworzenia dokumentacji. Jeśli pacjent się nie zgodzi, placówka powinna mieć przygotowaną alternatywę.
Zaufanie zaczyna się od przejrzystości
Z punktu widzenia zarówno prawa, jak i etyki, transparentność staje się nowym filarem zaufania w relacji lekarz–pacjent. Informowanie o użyciu AI nie tylko chroni przed ryzykiem prawnym, ale też buduje wiarygodność.
Zaufanie do AI nie zwalnia z odpowiedzialności
Sztuczna inteligencja zmienia oblicze współczesnej medycyny – ułatwia diagnozowanie, przyspiesza proces leczenia, a często zwiększa precyzję decyzji klinicznych. Jednak wraz z korzyściami pojawia się nowy rodzaj ryzyka: ryzyko błędu algorytmu, za który wciąż odpowiada człowiek.
Jednocześnie powoli pojawia się presja, by AI stała się częścią standardu należytej staranności. Lekarze, którzy całkowicie ignorują nowe technologie, mogą w przyszłości być postrzegani jako działający wbrew współczesnym standardom. Z drugiej strony ślepe zaufanie algorytmom grozi błędem wynikającym z braku krytycznego myślenia.
Dlatego najrozsądniejsze podejście to „świadome zaufanie” czyli korzystanie z możliwości AI przy jednoczesnym zachowaniu klinicznej czujności, dokumentowaniu decyzji i otwartej komunikacji z pacjentem.
Przyszłość odpowiedzialności za błędy sztucznej inteligencji w medycynie będzie kształtowana przez sądy, ustawodawców i środowisko lekarskie. Ale już dziś wiadomo jedno: zaufanie do technologii nie może oznaczać utraty kontroli. To właśnie ludzki osąd, etyka i transparentność pozostaną fundamentem bezpiecznej, nowoczesnej medycyny. Nawet w erze, gdy diagnozy stawia się wspólnie z maszynami.


