AI obniża umiejętności lekarzy, zamiast ich wspierać. Polskie badanie pokazuje negatywny wpływ na weryfikację zdrowia pacjenta

Przełomowe badanie przeprowadzone w Polsce dostarcza dowodów, że sztuczna inteligencja, zamiast wyłącznie wspierać, może osłabiać kluczowe kompetencje lekarzy.

tech
Krystian Łukasik14 sierpnia 2025
Źrodło fot. National Cancer Institute | Unsplash
i

Sztuczna inteligencja w medycynie od dawna przedstawiana jest jako rewolucja, która ma wesprzeć lekarzy, poprawić diagnostykę i ostatecznie ratować życie. Jednak przełomowe badanie przeprowadzone w Polsce, rzuca na ten optymistyczny obraz zupełnie nowe, niepokojące światło. Wynika z niego, że rutynowe korzystanie z AI w kolonoskopii może prowadzić do erozji kluczowych umiejętności u doświadczonych specjalistów. Tym samym, paradoksalnie, technologia stworzona do pomocy, w pewnych warunkach zaczyna szkodzić, co stawia fundamentalne pytania o przyszłość integracji AI w opiece zdrowotnej.

Polski eksperyment w centrum uwagi świata

Podczas gdy polskie media informują głównie o kolejnych placówkach wdrażających „innowacyjne” systemy AI do kolonoskopii, światowe giganty medialne, takie jak Financial Times, Politico i Time Magazine, skupiły swoją uwagę na badaniu, które komplikuje tę jednostronną narrację. Praca polskiego zespołu pod kierownictwem Krzysztofa Budzynia i dr. n. med. Marcina Romańczyka, opublikowana w prestiżowym czasopiśmie The Lancet Gastroenterology & Hepatology, jako pierwsza w warunkach klinicznych dostarczyła dowodów na zjawisko tzw. „deskilling”, czyli degradacji umiejętności.

Użytkownik jednego z portali społecznościowych, Michał Podlewski, trafnie zauważył tę dysproporcję:

Słuchajcie, czytam właśnie w Financial Times artykuł z dzisiaj o wykorzystaniu AI w kolonoskopii. Opisano tam badanie przeprowadzone w Polsce, którego wyniki opublikowano w The Lancet Gastroenterology & Hepatology. (...) Sprawdziłem, czy ktoś w polskich mediach o tym napisał - na pierwszy rzut oka nic. Jak to możliwe?

Badanie przeprowadzono w czterech polskich ośrodkach endoskopowych z udziałem 19 bardzo doświadczonych lekarzy, z których każdy wykonał w swojej karierze ponad 2000 kolonoskopii. Analizowano ich skuteczność w wykrywaniu gruczolaków (polipów przedrakowych), co jest kluczowym wskaźnikiem jakości badania, znanym jako ADR (Adenoma Detection Rate).

Wyniki okazały się alarmujące. Po wdrożeniu systemów AI do codziennej praktyki, skuteczność tych samych lekarzy, gdy wykonywali badanie bez wsparcia technologii, znacząco spadła. Ich wskaźnik ADR obniżył się z 28,4% do 22,4%, co oznacza względny spadek umiejętności o 20%.

Co jeszcze bardziej zaskakujące, nawet gdy lekarze korzystali z pomocy AI, ich wynik (ADR na poziomie 25,3%) był wciąż niższy niż ich pierwotna skuteczność sprzed wdrożenia technologii (28,4%). Sugeruje to, że system nie tylko osłabił ich samodzielne zdolności, ale również mógł obniżyć efektywność współpracy ze sztuczną inteligencją.

Psychologia pułapki AI: Dlaczego technologia ogłupia?

Jak sugerują wnioski z badania oraz analizy ekspertów, zaobserwowany spadek umiejętności nie jest prostym zaniedbaniem, lecz może wynikać ze złożonych mechanizmów psychologicznych, które uaktywniają się podczas interakcji człowieka z maszyną. W raporcie i komentarzach ekspertów wskazano na dwa fundamentalne zjawiska:

  1. Odciążenie poznawcze (cognitive offloading): Zidentyfikowano to jako naturalną tendencję do „delegowania” wysiłku umysłowego na zewnętrzne narzędzia. Wyjaśniono, że lekarz, mając świadomość ciągłego monitoringu przez AI, może podświadomie osłabić własną czujność, co z czasem prowadzi do stopniowego zaniku wypracowanych schematów diagnostycznych.
  2. Błąd automatyzacji (automation bias): Drugi zidentyfikowany mechanizm to skłonność do nadmiernego zaufania sugestiom systemu, nawet wbrew własnej wiedzy. Jak wskazano, może to prowadzić do przyjmowania bardziej pasywnej postawy i mniejszego zaangażowania w proces oceny.

Jak zauważyli komentatorzy, w tym jeden z endoskopistów na Reddicie, problem może być głębszy niż samo rozpoznawanie polipów na ekranie. AI widzi tylko to, co pokaże kamera, a to człowiek musi aktywnie manewrować endoskopem. Istnieje ryzyko, na które zwracają uwagę eksperci, że lekarz, polegając na „oku” AI, staje się mniej skrupulatny w samej eksploracji, przez co nawet najlepszy algorytm nie znajdzie zmian, które nigdy nie pojawiły się w polu widzenia.

Zjawisko to wpisuje się w szerszy kontekst obaw o negatywny wpływ AI, co poruszano także w innych badaniach. Przykładowo, w eksperymencie MIT dotyczącym pisania esejów, naukowcy doszli do wniosku, że użytkownicy chatbotów angażowali się w zadanie jedynie powierzchownie, co prowadziło do zaniku umiejętności kreatywnego myślenia i osłabienia krytycznego osądu.

Dwa oblicza sztucznej inteligencji

Odkrycia z Polski nie stoją w całkowitej sprzeczności z dotychczasową wiedzą. Jednak, liczne badania dowodziły, że systemy CADe (Computer-Aided Detection) zwiększają wykrywalność polipów. Jak więc pogodzić te doniesienia?

Współautor polskiego badania, prof. Yuichi Mori, wysunął hipotezę, że wyniki poprzednich, optymistycznych badań mogły być częściowo mylące. Zakłada on, że w tamtych eksperymentach wydajność grupy kontrolnej (pracującej bez AI) mogła być już sztucznie zaniżona przez efekt „deskillingu”, wywołany jednoczesną pracą z technologią. Polskie badanie, dzięki swojemu projektowi „przed i po”, jako pierwsze mogło uchwycić ten ukryty, negatywny wpływ.

Tymczasem rozwój AI pędzi naprzód, a najnowsze modele, takie jak GPT-5, pokazują zupełnie inne, niezwykle obiecujące oblicze. Czołowi naukowcy opisują je w superlatywach, widząc w nich partnerów do badań naukowych.

Dr Derya Unutmaz, światowej sławy immunolog, opisał swoje doświadczenie z GPT-5 jako przełom. Nazwał to swoim „Momentem Ruchu 37”, nawiązując do legendarnego, niekonwencjonalnego ruchu wykonanego przez AI w grze Go.

Dla mnie było to równoznaczne z legendarnym Ruchem 37 AlphaGo. Pokazało to, że AI stała się czołowym ekspertem i prawdziwym współpracownikiem naukowym, zdolnym do głębokiego wglądu

Derya Unutmaz, MD.

Wtóruje mu dr Gabe Wilson, który przetestował model na skomplikowanych przypadkach medycznych:

GPT-5 Pro dostarczył niewiarygodnie wnikliwą ocenę i niezwykle szczegółowy plan diagnostyczny, włączając w to pułapki i ograniczenia wcześniejszych badań obrazowych. Nigdy wcześniej czegoś takiego nie było. To jakby 50 najlepszych specjalistów na świecie siedziało razem przy jednym stole

Gabe Wilson, MD.

Dr Unutmaz w swoich wypowiedziach idzie o krok dalej:

W tym momencie zaniechanie korzystania z tych modeli AI w diagnozowaniu i leczeniu, gdy mogłyby one wyraźnie poprawić wyniki pacjentów, może wkrótce zostać uznane za formę błędu w sztuce lekarskiej

Derya Unutmaz, MD.

Wnioski: Potrzeba mądrej i krytycznej debaty

Polskie badanie nad „deskillingiem” jest osiągnięciem naukowym na światową skalę i powinno stać się zapalnikiem do rozpoczęcia w Polsce dojrzałej, publicznej debaty. Jego niemal całkowita nieobecność w krajowych mediach, zdominowanych przez jednostronny, marketingowy przekaz, jest sygnałem ostrzegawczym.

Jak podsumowuje wspominany raport analityczny, problem nie leży w samej technologii, ale w sposobie jej wdrażania i interakcji z człowiekiem. Wyniki badania nie są interpretowane jako wezwanie do porzucenia AI, ale do jej mądrej integracji. W raporcie zarekomendowano opracowanie nowych metod szkolenia lekarzy, które z jednej strony będą kładły nacisk na mistrzowskie opanowanie podstaw, a z drugiej uczyły efektywnej współpracy z maszyną. Zwrócono także uwagę na potrzebę projektowania przez twórców technologii takich systemów, które wspierają i wzmacniają ludzkie procesy poznawcze, a nie dążą do ich zastąpienia.

Historia polskiego badania to wezwanie do przejścia od bezkrytycznej fascynacji nowością do świadomej analizy jej złożonych konsekwencji. Tylko w ten sposób, jak podkreślają eksperci, rewolucja AI w medycynie będzie mogła naprawdę służyć temu, co najważniejsze – dobru pacjenta.

Krystian Łukasik

Krystian Łukasik

Zawodowo skupia się na pisaniu wiadomości ze świata elektroniki oraz tłumaczeń opisów i instrukcji produktów specjalistycznych. Pasja do nowoczesnych technologii komputerowych oraz gamingu pozwala mu być ciągle na bieżąco z ewoluującymi trendami w tych dziedzinach. Jego zamiłowanie do języka angielskiego stało się fundamentem decyzji o podjęciu i ukończeniu studiów z filologii angielskiej.

PlayStation i inne usługi Sony ostatecznie wychodzą z rosyjskiego rynku. Firma właśnie zamknęła ostatni swój podmiot w Rosji

PlayStation i inne usługi Sony ostatecznie wychodzą z rosyjskiego rynku. Firma właśnie zamknęła ostatni swój podmiot w Rosji

GPT-5 od OpenAI nie wypadło dobrze na tle konkurencji. Porównanie czterech modeli sztucznej inteligencji

GPT-5 od OpenAI nie wypadło dobrze na tle konkurencji. Porównanie czterech modeli sztucznej inteligencji

Gracz otrzymał w prezencie komputer uznany za zniszczony. W środku znajdowała się w pełni sprawna karta RTX 4090

Gracz otrzymał w prezencie komputer uznany za zniszczony. W środku znajdowała się w pełni sprawna karta RTX 4090

The Last of Us w prawdziwym życiu: gracz PC wraca do domu po miesiącu - widzi, że jego sprzęt został zaatakowany przez grzyba

The Last of Us w prawdziwym życiu: gracz PC wraca do domu po miesiącu - widzi, że jego sprzęt został zaatakowany przez grzyba

Walka o rynek AI przybiera na sile. Elon Musk grozi Apple pozwem antymonopolowym

Walka o rynek AI przybiera na sile. Elon Musk grozi Apple pozwem antymonopolowym