Pracownicy Samsunga ujawnili tajne dane firmy używając ChatGPT

Inżynierowie Samsung Semiconductor przekonali się, jak niebezpieczne może być korzystanie z takich narzędzi, jak ChatGPT. Przy jego pomocy kilkukrotnie ujawnili tajne dane swego pracodawcy, w tym kod źródłowy zastrzeżonego programu.

tech
Marek Pluta4 kwietnia 2023
7
Źrodło fot. Alexandra Koch/Pixabay
i

ChatGPT to jedna z najszybciej rozwijających się aplikacji historii, potrafi błyskawicznie tworzyć gry, ale również sprawdza się jako szef firmy. Niestety ma też swą ciemną stronę, a jest nią kwestia bezprawnego zbierania danych użytkowników, w tym poufnych informacji. Z tego powodu Włochy podjęły niedawno decyzję o zablokowaniu chatbota.

O tym jak bardzo niebezpiecznym narzędziem może być ChatGPT przekonali się pracownicy Samsung Semiconductor, którzy jak donosi portal Economist, nieświadomie ujawnili za jego pośrednictwem poufne dane. Samsung zezwolił inżynierom jednego z działów korzystanie z chatbota w celach służbowych, co okazało się niezbyt dobrym pomysłem. Doprowadziło to bowiem do trzech wycieków informacji. Teoretycznie liczba przypadków nie była duża, ale miały miejsce podczas zaledwie 20 dni korzystania z narzędzia, więc sprawa stała się poważna.

ChatGPT źródłem wycieków informacji

W pierwszym przypadku ChatGPT wykorzystano do poprawienia kodu źródłowego zastrzeżonego oprogramowania. Drugie zdarzenie miało miejsce, gdy inny pracownik wprowadził do chatbota wzorce testowe chcąc w ten sposób zidentyfikować wadliwe procesory i zażądał optymalizacji. Tymczasem sekwencje testów mające na celu znalezienie defektów są poufne. Za trzecim razem inny z pracowników wykorzystał aplikację Naver Clova do transkrypcji nagrania ze spotkania w dokument, a następnie przesłał do ChatGPT celem przygotowania prezentacji.

Pracownicy Samsunga ujawnili tajne dane firmy używając ChatGPT - ilustracja #1
ChatGPT może sprawiać problemy w nieodpowiedzialnych rękach. Źródło: Unsplash | Babak Habibi

Samsung bardzo poważnie potraktował całą sprawę, wprowadzając zmiany w polityce korzystania z chatbota, a także informując pracowników o zagrożeniach jakie może nieść ze sobą używanie tego narzędzia. Równocześnie firma planuje stworzyć własną usługę podobną w działaniu do ChatGPT, przeznaczoną do użytku wewnętrznego.

Powyższy przykład pokazuje jak niebezpieczne może być korzystanie z takich narzędzi. Użytkownicy wprowadzają bowiem do nich masę danych, często wrażliwych, nie zdając sobie nawet sprawy z tego komu je udostępniają i w jaki sposób zostaną następnie wykorzystane.

Marek Pluta

Marek Pluta

Od lat związany z serwisami internetowymi zajmującymi się tematyką gier oraz nowoczesnych technologii. Przez wiele lat współpracował m.in. z portalami Onet i Wirtualna Polska, a także innymi serwisami oraz czasopismami, gdzie zajmował się m.in. pisaniem newsów i recenzowaniem popularnych gier, jak również testowaniem najnowszych akcesoriów komputerowych. Wolne chwile lubi spędzać na rowerze, zaś podczas złej pogody rozrywkę zapewnia mu dobra książka z gatunku sci-fi. Do jego ulubionych gatunków należą strzelanki oraz produkcje MMO.

Bill Gates twierdzi, że w ciągu 18 miesięcy, AI będzie potrafiła uczyć ludzi pisać i czytać

Bill Gates twierdzi, że w ciągu 18 miesięcy, AI będzie potrafiła uczyć ludzi pisać i czytać

Sony Xperia 1 VI i 10 VI mają dostać nowe, większe moduły aparatu; nie zmienią się jednak ich czujniki

Sony Xperia 1 VI i 10 VI mają dostać nowe, większe moduły aparatu; nie zmienią się jednak ich czujniki

Toyota dba o bezpieczeństwo pracowników w nietypowy sposób, firma produkuje sztuczne palce

Toyota dba o bezpieczeństwo pracowników w nietypowy sposób, firma produkuje sztuczne palce

Jak sprawdzić model laptopa?

Jak sprawdzić model laptopa?

GeForce RTX 5090 - data premiery. Kiedy spodziewać się nowej serii kart Nvidii?

GeForce RTX 5090 - data premiery. Kiedy spodziewać się nowej serii kart Nvidii?