futurebeat.pl NEWSROOM ChatGPT nigdy nie zastąpi naukowców ChatGPT nigdy nie zastąpi naukowców ChatGPT budzi skrajne emocje. Spore poruszenie wywołał zwłaszcza w kontekście prac uczniów i studentów, które sztuczna inteligencja napisała za nich. Leniwi są jednak także naukowcy, którym ChatGPT ma ułatwić życie. Dla dobra nauki – oby jak najszybciej! naukaKonrad Sarzyński14 marca 2023 10 Źrodło fot. Midjourneyi SPIS TREŚCI:ChatGPT to niezły bajerant i o to właśnie chodziChatGPT nigdy nie zastąpi naukowców, ale sprawi że będziemy w stanie ich zrozumiećCzy korzystanie z AI jest etyczne?Sztuczna inteligencja a cenzura, propaganda i jedyna słuszna racjaCzy jest się czego bać? Sztuczna inteligencja to temat ostatnich miesięcy. Tworzy grafikę (jak choćby Midjurney, Lensa i kolejne wersje cyfrowych artystów), muzykę (Riffusion), a wreszcie teksty czy nawet programy komputerowe. Do tych ostatnich czynności zaprzęgnięto ChatGPT, o którym napisano już niemal wszystko. I tak jak w przypadku innych sztucznych inteligencji, także i tu po pierwszym zachwycie pojawiły się pytania dość dużego kalibru – o prawa autorskie, o plagiat, o propagandę (czy też cenzurę) i wreszcie o etyczność jego wykorzystywania. ChatGPT to niezły bajerant i o to właśnie chodziCzym tak właściwie jest sztuczna inteligencja generująca tekst? Czy to samoświadomy, niezwykle inteligentny cyfrowy byt wykorzystujący całą dostępną ludzkości wiedzę? Na szczęście nie. Powiązane:Pracownicy błagali Google, by nie wypuszczać chatbota AI Bard ChatGPT i inne podobnie działające AI to w zasadzie… pozerzy. Nie rozumieją dokładnego znaczenia produkowanych treści i nie potrafią świadomie dojść do przełomowych wniosków. ChatGPT przypomina trochę człowieka, który siedzi i obserwuje, jak inni grają w piłkę. Następnie sam wychodzi na boisko i stara się naśladować to, co podpatrzył, strzelając przy tym piękną bramkę. Często – samobójczą. Trochę jak dziecko, powtarzające słowa, których znaczenia nie rozumie, nie jest w stanie ustrzec się błędów. Przekonał się o tym Phil Davis, któremu ChatGPT skłamał prosto w ekran, a potem gęsto się tłumaczył. Oburzanie się na takie zachowanie AI wynika jednak z niezrozumienia, z czym tak naprawdę mamy do czynienia. Dobrze i prosto tłumaczy to profesor Politechniki Warszawskiej, dr hab. inż. Piotr Gawrysiak w rozmowie z Markiem Mataczem: On robi dokładnie to, do czego został stworzony, czyli produkuje tekst. Kłopoty mogą się pojawić tam, gdzie trzeba rozumieć, o czym ten tekst traktuje. Program ten nie prowadzi żadnego wnioskowania, nie buduje sobie modeli rzeczywistości, nie próbuje zrozumieć świata. Jedyne co robi, to tworzy sekwencje słów, tak aby były podobne do innych tekstów, które już zna, np. do wpisów w Internecie. ChatGPT nigdy nie zastąpi naukowców, ale sprawi że będziemy w stanie ich zrozumiećPróba naśladowania znanych już treści dość sprawnie ukrywa fakt, że tak właściwie ChatGPT nie ma pojęcia o czym mówi. Gdy jednak dodamy do tego trening jedynie na danych do 2021 roku i brak stałego „doszkalania”, raczej nie ma wątpliwości – w takiej formie ChatGPT nigdy nie zastąpi naukowców. Będzie w stanie przygotować całkiem przekonujące wystąpienie czy nawet artykuł, ale nie zawsze, nie w każdej dyscyplinie i z dużym ryzykiem popełnienia poważnego błędu merytorycznego. Sztuczna inteligencja pisząca tekst może za to być świetnym asystentem. Oddajmy zresztą głos samemu botowi: ChatGPT jest w stanie pomóc w pisaniu różnych sekcji artykułu, takich jak wprowadzenie, teoria, materiały i metody, wyniki i wnioski, a nawet w tworzeniu bibliografii. Po co tak właściwie potrzebny jest naukowcom wygadany i tworzący zgrabne zdania bot? Może ułatwić komunikację z innymi. Nie chodzi tu tylko o szeroko rozumianą nienaukową publikę, ale także innych naukowców z danej dyscypliny. Tworząc zawiłe, trudne do zrozumienia i często po prostu nieporadne językowo teksty, naukowcy nie ułatwiają zrozumienia tego, czym się zajmują. To z kolei może przełożyć się na mniej cytowani i wolniejszy rozwój projektów badawczych. Zmniejsza też szanse na zainteresowanie badaniami mediów, a czasem bez tego trudno o dodatkowe fundusze czy zwrócenie uwagi polityków na ważne kwestie. Bariera językowa to pieśń przeszłościBoty w rodzaju ChatGPT mogą też dodatkowo ułatwić pracę ludziom, których językiem ojczystym nie jest angielski. Znajomość języka to jedno, ale umiejętność tworzenia zrozumiałych i łatwych w odbiorze treści to zupełnie inna, dużo trudniejsza kwestia. W ostatnich latach spopularyzowały się różnego rodzaju produkty redagujące tekst pod kątem gramatycznym i stylistycznym (np. Grammarly czy Redaktor pakietu Microsoft Office). Tłumaczenie także idzie coraz lepiej i Google Translate ma sporą konkurencję np. w postaci DeepL. To wszystko jednak są narzędzia, które poprawią coś, co już zostało napisane. ChatGPT pozwala pracować w odwrotnej kolejności – stworzyć ramy tekstu, które następnie możemy uzupełnić o dodatkowe informacje (np. dane, daty, odwołania). Czy korzystanie z AI jest etyczne?Todd A Carpenter przeprowadził wywiad z ChatGPT, który został opublikowany na jednym z najbardziej opiniotwórczych blogów świata naukowego, The Scholarly Kitchen. W rozmowie wprost zapytał o kwestie etyczne i dostał dość dyplomatyczną odpowiedź: Nie ma żadnych istotnych problemów etycznych związanych z wykorzystaniem AI w badaniach lub pisaniu, o ile AI jest wykorzystywana w sposób właściwy i etyczny. Na przykład, AI można wykorzystać do analizy dużych ilości danych lub generowania tekstu, co może być przydatne do identyfikacji trendów lub wzorców, które mogą nie być oczywiste dla człowieka. Ważne jest jednak, aby badacze byli transparentni co do roli AI w ich pracy oraz aby zapewnić, że wykorzystanie AI jest zgodne ze standardami i oczekiwaniami społeczności badawczej. Na przykład, jeśli program AI jest wykorzystywany do generowania tekstu, autorzy powinni wyraźnie zaznaczyć to w artykule i zapewnić odpowiedni kredyt dla programu AI. ChatGPT może być przedstawiany jako ogromne zagrożenie dla nauki, jednak takie zachowanie to raczej próby przeniesienia odpowiedzialności z oszustów na narzędzie, którym się posługują. Nieetycznie działający naukowcy byli zawsze i już teraz mają całkiem pokaźny arsenał do fałszowania badań. Często wybierają też te najprostsze, jak modyfikacja wykresów w programach graficznych czy generowanie danych w arkuszach kalkulacyjnych. Przykłady możecie zobaczyć np. tutaj. Sztuczna inteligencja a cenzura, propaganda i jedyna słuszna racjaJedną ze sporych obaw, jakie pojawiają się w przypadku automatycznych procesów jest niejawność ich przebiegu. Wkładamy coś do pudełka i wyjmujemy gotowy efekt. A co, jeśli w środku siedzi wredny ludzik, naginający wszystko dla własnych, zapewne niecnych, celów? Obawy dotyczą dwóch sytuacji: uprzedzeń zaszczepionych na etapie treningu przez twórców oraz sprowadzenia bota na złą drogę przez użytkowników. Drugi scenariusz wymaga, by bot na bieżąco uczył się na podstawie wprowadzanych treści. Jeżeli nie ma przygotowanych zabezpieczeń, wówczas odpowiednio duża i intensywna dawka rozmów na temat np. polityki może doprowadzić do wykształcenia wzorca odpowiedzi faworyzującego konkretną partię czy poglądy. Niebezpieczniejszy wydaje się jednak pierwszy scenariusz, w którym to sami twórcy zaszywają w bocie swoje uprzedzenia lub poglądy. Może do tego dość nieświadomie, gdy zespół jest dość hermetyczny i niezróżnicowany i po prostu nie dostrzega pewnych stereotypów i uprzedzeń. Mogą to być też działania celowe i świadome, wykonywane na zlecenie rządu czy służb, tak aby subtelnie i zgrabnie odciągać uwagę użytkownika od pewnych treści albo modyfikować wszystkie wypowiedzi zgodnie z linią politycznej propagandy. Jeżeli jednak bot nie działa autonomicznie i ktoś ten tekst czyta i redaguje przed publikacją, ryzyko jest raczej zbliżone do tego w przypadku tekstów pisanych ludzką ręką, gdzie autorzy też bywają tendencyjni. Czy jest się czego bać?Nie. Wizja przejmującej władzę nad światem sztucznej inteligencji jest niezwykle pociągająca, ale to (jeszcze) nie ten moment. Mamy za to do czynienia z rewolucją w sposobie myślenia o tworzeniu nauki i definiowaniu kto tak właściwie jest autorem. Gdy jednak przyjrzymy się temu bliżej, zmiany są dużo mniej znaczące, niż może się wydawać. Strach przed tym, że naukowiec nie będzie samodzielnie wprowadzał treści do edytora tekstu zdaje się być trochę oderwany od automatyzacji wszystkich pozostałych, znacznie ważniejszych procesów w prowadzeniu badań. Większość naukowców nie prowadzi sama obliczeń na kartce, a stosuje zaawansowane pakiety statystyczne, które przeprowadzają często całe skomplikowane procesy automatycznie, oferując gotowe wyniki. Grupują obserwacje, rysują wykresy i mapy, zaznaczają odstające obserwacje i wyznaczają trendy. Algorytmy w bazach indeksujących i u wydawców podsuwają artykuły z podobnymi badaniami, na bazie których może zostać zaprojektowane kolejne. A w niektórych przypadkach sugerują też naukowców, którzy daną pracę mogą zrecenzować. Cały proces już teraz silnie opiera się na automatycznych procesach i to w obszarach, które są znacznie bardziej istotne dla wyników badań. Zastosowanie sztucznej inteligencji wydaje się naturalnym kolejnym krokiem. Krokiem, który powinniśmy wykonać bez większych obaw. OD AUTORA Obroniłem doktorat na polskiej uczelni i pracuję w zagranicznym wydawnictwie naukowym. Publikacje naukowe widzę więc zarówno z perspektywy czytelnika, jak i autora i redaktora. Jakość językowa jest w nich różna i często widać, że największym trudem w przeprowadzeniu badań było ubranie w słowa tego, co zostało zrobione. Czy to tekst po angielsku, w którym autor nie wie, jak atrakcyjnie przedstawić swoje badania, czy to typowo „sarmacki” styl budowania zdań w polskiej literaturze naukowej, wielokrotnie złożonych, zawierających wewnętrzne dygresje i nagłe zwroty akcji, w których autor tak bardzo chce udowodnić, że potrafi pisać (ba, tworzyć!) skomplikowane struktury, tak jednak zagmatwane, że zanim dojdzie do końca zapomina, co tak właściwie chciał przekazać (jak ja teraz)... W takich przypadkach wsparcie sztucznej inteligencji może być zbawienne. O nauce trzeba mówić prosto i zrozumiale. Wynikami powinniśmy się chwalić, a nie ukrywać je za niezrozumiałym językiem, żeby nie powiedzieć wręcz – bełkotem. Dlatego też, szanowny ChatGPT, liczę na ciebie! Czytaj więcej:Po CPU i GPU przychodzi czas na NPU - czym jest i co potrafi? POWIĄZANE TEMATY: nauka AI / sztuczna inteligencja chatboty / ChatGPT Konrad Sarzyński Konrad Sarzyński Od dziecka lubił pisać i zawsze marzył o własnej książce. Nie spodziewał się tylko, że będzie to naukowa monografia. Ma doktorat z rozwoju miast, czym chętnie chwali się znajomym przy każdej możliwej okazji. Z GOL-em przygodę zaczął pod koniec 2020 roku w dziale Tech. Mocno związał się z newsroomem technologicznym, a przez krótki moment nawet go prowadził. Obecnie jest redaktorem w Futurebeat.pl odpowiedzialnym za publicystykę i testy sprzętu. Czasem też zrecenzuje jakąś grę o budowaniu, w końcu ma z tego doktorat. Gra od zawsze, lubi też dużo mówić. W 2019 roku postanowił połączyć obie te pasje i zaczął streamować na Twitchu. Wokół kanału powstała niewielka, ale niezwykła społeczność, co uważa za jedno ze swoich największych osiągnięć. Ma też kota i żonę. Co znaczy invalid handle na Bluesky? Odpowiadamy Co znaczy invalid handle na Bluesky? Odpowiadamy Wyciekła specyfikacja RTX 5070 Ti; karta pobierze więcej prądu niż 4070 Ti Wyciekła specyfikacja RTX 5070 Ti; karta pobierze więcej prądu niż 4070 Ti Chcą zmiażdżyć konkurencję ceną; nowe laptopy z procesorami Snapdragon będą tanie i ze wsparciem dla AI Chcą zmiażdżyć konkurencję ceną; nowe laptopy z procesorami Snapdragon będą tanie i ze wsparciem dla AI Ustawienia Stalker 2: Zdecydowanie powinieneś zmienić te 9 ustawień grafiki, sterowania, HDR i inne Ustawienia Stalker 2: Zdecydowanie powinieneś zmienić te 9 ustawień grafiki, sterowania, HDR i inne Do dziś korzystam z konsoli, która sprzedawała się tak dobrze, że niemal pobiła wynik PlayStation 2. Nintendo DS właśnie kończy 20 lat Do dziś korzystam z konsoli, która sprzedawała się tak dobrze, że niemal pobiła wynik PlayStation 2. Nintendo DS właśnie kończy 20 lat