futurebeat.pl NEWSROOM AI obniża umiejętności lekarzy, zamiast ich wspierać. Polskie badanie pokazuje negatywny wpływ na weryfikację zdrowia pacjenta AI obniża umiejętności lekarzy, zamiast ich wspierać. Polskie badanie pokazuje negatywny wpływ na weryfikację zdrowia pacjenta Przełomowe badanie przeprowadzone w Polsce dostarcza dowodów, że sztuczna inteligencja, zamiast wyłącznie wspierać, może osłabiać kluczowe kompetencje lekarzy. techKrystian Łukasik14 sierpnia 2025 Źrodło fot. National Cancer Institute | Unsplashi Spis treści: Polski eksperyment w centrum uwagi świataPsychologia pułapki AI: Dlaczego technologia ogłupia?Dwa oblicza sztucznej inteligencjiWnioski: Potrzeba mądrej i krytycznej debaty Sztuczna inteligencja w medycynie od dawna przedstawiana jest jako rewolucja, która ma wesprzeć lekarzy, poprawić diagnostykę i ostatecznie ratować życie. Jednak przełomowe badanie przeprowadzone w Polsce, rzuca na ten optymistyczny obraz zupełnie nowe, niepokojące światło. Wynika z niego, że rutynowe korzystanie z AI w kolonoskopii może prowadzić do erozji kluczowych umiejętności u doświadczonych specjalistów. Tym samym, paradoksalnie, technologia stworzona do pomocy, w pewnych warunkach zaczyna szkodzić, co stawia fundamentalne pytania o przyszłość integracji AI w opiece zdrowotnej. Polski eksperyment w centrum uwagi świataPodczas gdy polskie media informują głównie o kolejnych placówkach wdrażających „innowacyjne” systemy AI do kolonoskopii, światowe giganty medialne, takie jak Financial Times, Politico i Time Magazine, skupiły swoją uwagę na badaniu, które komplikuje tę jednostronną narrację. Praca polskiego zespołu pod kierownictwem Krzysztofa Budzynia i dr. n. med. Marcina Romańczyka, opublikowana w prestiżowym czasopiśmie The Lancet Gastroenterology & Hepatology, jako pierwsza w warunkach klinicznych dostarczyła dowodów na zjawisko tzw. „deskilling”, czyli degradacji umiejętności. Powiązane:Nowe AI potrafi analizować RTG, ale lekarze na razie mogą spać spokojnie Użytkownik jednego z portali społecznościowych, Michał Podlewski, trafnie zauważył tę dysproporcję: Słuchajcie, czytam właśnie w Financial Times artykuł z dzisiaj o wykorzystaniu AI w kolonoskopii. Opisano tam badanie przeprowadzone w Polsce, którego wyniki opublikowano w The Lancet Gastroenterology & Hepatology. (...) Sprawdziłem, czy ktoś w polskich mediach o tym napisał - na pierwszy rzut oka nic. Jak to możliwe? Badanie przeprowadzono w czterech polskich ośrodkach endoskopowych z udziałem 19 bardzo doświadczonych lekarzy, z których każdy wykonał w swojej karierze ponad 2000 kolonoskopii. Analizowano ich skuteczność w wykrywaniu gruczolaków (polipów przedrakowych), co jest kluczowym wskaźnikiem jakości badania, znanym jako ADR (Adenoma Detection Rate). Wyniki okazały się alarmujące. Po wdrożeniu systemów AI do codziennej praktyki, skuteczność tych samych lekarzy, gdy wykonywali badanie bez wsparcia technologii, znacząco spadła. Ich wskaźnik ADR obniżył się z 28,4% do 22,4%, co oznacza względny spadek umiejętności o 20%. Co jeszcze bardziej zaskakujące, nawet gdy lekarze korzystali z pomocy AI, ich wynik (ADR na poziomie 25,3%) był wciąż niższy niż ich pierwotna skuteczność sprzed wdrożenia technologii (28,4%). Sugeruje to, że system nie tylko osłabił ich samodzielne zdolności, ale również mógł obniżyć efektywność współpracy ze sztuczną inteligencją. Psychologia pułapki AI: Dlaczego technologia ogłupia?Jak sugerują wnioski z badania oraz analizy ekspertów, zaobserwowany spadek umiejętności nie jest prostym zaniedbaniem, lecz może wynikać ze złożonych mechanizmów psychologicznych, które uaktywniają się podczas interakcji człowieka z maszyną. W raporcie i komentarzach ekspertów wskazano na dwa fundamentalne zjawiska: Odciążenie poznawcze (cognitive offloading): Zidentyfikowano to jako naturalną tendencję do „delegowania” wysiłku umysłowego na zewnętrzne narzędzia. Wyjaśniono, że lekarz, mając świadomość ciągłego monitoringu przez AI, może podświadomie osłabić własną czujność, co z czasem prowadzi do stopniowego zaniku wypracowanych schematów diagnostycznych.Błąd automatyzacji (automation bias): Drugi zidentyfikowany mechanizm to skłonność do nadmiernego zaufania sugestiom systemu, nawet wbrew własnej wiedzy. Jak wskazano, może to prowadzić do przyjmowania bardziej pasywnej postawy i mniejszego zaangażowania w proces oceny.Jak zauważyli komentatorzy, w tym jeden z endoskopistów na Reddicie, problem może być głębszy niż samo rozpoznawanie polipów na ekranie. AI widzi tylko to, co pokaże kamera, a to człowiek musi aktywnie manewrować endoskopem. Istnieje ryzyko, na które zwracają uwagę eksperci, że lekarz, polegając na „oku” AI, staje się mniej skrupulatny w samej eksploracji, przez co nawet najlepszy algorytm nie znajdzie zmian, które nigdy nie pojawiły się w polu widzenia. Zjawisko to wpisuje się w szerszy kontekst obaw o negatywny wpływ AI, co poruszano także w innych badaniach. Przykładowo, w eksperymencie MIT dotyczącym pisania esejów, naukowcy doszli do wniosku, że użytkownicy chatbotów angażowali się w zadanie jedynie powierzchownie, co prowadziło do zaniku umiejętności kreatywnego myślenia i osłabienia krytycznego osądu. Dwa oblicza sztucznej inteligencjiOdkrycia z Polski nie stoją w całkowitej sprzeczności z dotychczasową wiedzą. Jednak, liczne badania dowodziły, że systemy CADe (Computer-Aided Detection) zwiększają wykrywalność polipów. Jak więc pogodzić te doniesienia? Współautor polskiego badania, prof. Yuichi Mori, wysunął hipotezę, że wyniki poprzednich, optymistycznych badań mogły być częściowo mylące. Zakłada on, że w tamtych eksperymentach wydajność grupy kontrolnej (pracującej bez AI) mogła być już sztucznie zaniżona przez efekt „deskillingu”, wywołany jednoczesną pracą z technologią. Polskie badanie, dzięki swojemu projektowi „przed i po”, jako pierwsze mogło uchwycić ten ukryty, negatywny wpływ. Tymczasem rozwój AI pędzi naprzód, a najnowsze modele, takie jak GPT-5, pokazują zupełnie inne, niezwykle obiecujące oblicze. Czołowi naukowcy opisują je w superlatywach, widząc w nich partnerów do badań naukowych. Dr Derya Unutmaz, światowej sławy immunolog, opisał swoje doświadczenie z GPT-5 jako przełom. Nazwał to swoim „Momentem Ruchu 37”, nawiązując do legendarnego, niekonwencjonalnego ruchu wykonanego przez AI w grze Go. Dla mnie było to równoznaczne z legendarnym Ruchem 37 AlphaGo. Pokazało to, że AI stała się czołowym ekspertem i prawdziwym współpracownikiem naukowym, zdolnym do głębokiego wglądu – Derya Unutmaz, MD. Wtóruje mu dr Gabe Wilson, który przetestował model na skomplikowanych przypadkach medycznych: GPT-5 Pro dostarczył niewiarygodnie wnikliwą ocenę i niezwykle szczegółowy plan diagnostyczny, włączając w to pułapki i ograniczenia wcześniejszych badań obrazowych. Nigdy wcześniej czegoś takiego nie było. To jakby 50 najlepszych specjalistów na świecie siedziało razem przy jednym stole – Gabe Wilson, MD. Dr Unutmaz w swoich wypowiedziach idzie o krok dalej: W tym momencie zaniechanie korzystania z tych modeli AI w diagnozowaniu i leczeniu, gdy mogłyby one wyraźnie poprawić wyniki pacjentów, może wkrótce zostać uznane za formę błędu w sztuce lekarskiej – Derya Unutmaz, MD. Wnioski: Potrzeba mądrej i krytycznej debatyPolskie badanie nad „deskillingiem” jest osiągnięciem naukowym na światową skalę i powinno stać się zapalnikiem do rozpoczęcia w Polsce dojrzałej, publicznej debaty. Jego niemal całkowita nieobecność w krajowych mediach, zdominowanych przez jednostronny, marketingowy przekaz, jest sygnałem ostrzegawczym. Jak podsumowuje wspominany raport analityczny, problem nie leży w samej technologii, ale w sposobie jej wdrażania i interakcji z człowiekiem. Wyniki badania nie są interpretowane jako wezwanie do porzucenia AI, ale do jej mądrej integracji. W raporcie zarekomendowano opracowanie nowych metod szkolenia lekarzy, które z jednej strony będą kładły nacisk na mistrzowskie opanowanie podstaw, a z drugiej uczyły efektywnej współpracy z maszyną. Zwrócono także uwagę na potrzebę projektowania przez twórców technologii takich systemów, które wspierają i wzmacniają ludzkie procesy poznawcze, a nie dążą do ich zastąpienia. Historia polskiego badania to wezwanie do przejścia od bezkrytycznej fascynacji nowością do świadomej analizy jej złożonych konsekwencji. Tylko w ten sposób, jak podkreślają eksperci, rewolucja AI w medycynie będzie mogła naprawdę służyć temu, co najważniejsze – dobru pacjenta. Czytaj więcej:Jadalna elektronika to całkiem apetyczny pomysł naukowców na lepszy sprzęt POWIĄZANE TEMATY: tech medycyna AI / sztuczna inteligencja Krystian Łukasik Krystian Łukasik Zawodowo skupia się na pisaniu wiadomości ze świata elektroniki oraz tłumaczeń opisów i instrukcji produktów specjalistycznych. Pasja do nowoczesnych technologii komputerowych oraz gamingu pozwala mu być ciągle na bieżąco z ewoluującymi trendami w tych dziedzinach. Jego zamiłowanie do języka angielskiego stało się fundamentem decyzji o podjęciu i ukończeniu studiów z filologii angielskiej. PlayStation i inne usługi Sony ostatecznie wychodzą z rosyjskiego rynku. Firma właśnie zamknęła ostatni swój podmiot w Rosji PlayStation i inne usługi Sony ostatecznie wychodzą z rosyjskiego rynku. Firma właśnie zamknęła ostatni swój podmiot w Rosji GPT-5 od OpenAI nie wypadło dobrze na tle konkurencji. Porównanie czterech modeli sztucznej inteligencji GPT-5 od OpenAI nie wypadło dobrze na tle konkurencji. Porównanie czterech modeli sztucznej inteligencji Gracz otrzymał w prezencie komputer uznany za zniszczony. W środku znajdowała się w pełni sprawna karta RTX 4090 Gracz otrzymał w prezencie komputer uznany za zniszczony. W środku znajdowała się w pełni sprawna karta RTX 4090 The Last of Us w prawdziwym życiu: gracz PC wraca do domu po miesiącu - widzi, że jego sprzęt został zaatakowany przez grzyba The Last of Us w prawdziwym życiu: gracz PC wraca do domu po miesiącu - widzi, że jego sprzęt został zaatakowany przez grzyba Walka o rynek AI przybiera na sile. Elon Musk grozi Apple pozwem antymonopolowym Walka o rynek AI przybiera na sile. Elon Musk grozi Apple pozwem antymonopolowym