Istnieją cyberprzestępcy sprzedający niefiltrowane modele sztucznej inteligencji. Zaskakujące jest to, że wydają się być oparte na Grok i Mixtral

Sztuczna inteligencja może być wykorzystywana przez przestępców. Ze względu na zabezpieczenia dużych modeli, sięgają oni po alternatywy.

tech
Agnieszka Adamus26 czerwca 2025
1
Źrodło fot. Unsplash | Nahel Abdul Hadi
i

Sztuczna inteligencja stopniowo rozpowszechnia się w naszym życiu. Nie powinno więc dziwić, że korzystają z niej właściwie wszyscy – w tym również przestępcy. Duże modele językowe, ze względów bezpieczeństwa, posiadają jednak ograniczeni. Dlatego też w odmętach Internetu pojawiają się bardziej podejrzane alternatywy. Co ciekawe, wydają się być oparte na Grok i Mixtral (via Xataka).

Cała historia rozpoczęła się jeszcze w 2023 roku, kiedy to w sieci pojawił się WormGPT oparty na modelu GPT-J o otwartym kodzie źródłowym. Narzędzie to nie posiadało żadnych ograniczeń, więc pozwalało przestępcom na wykorzystanie je do właściwie każdego celu. Oczywiście dostęp do AI był płatny. Pierwotna wersja została zamknięta pod koniec tego samego roku, po tym jak dziennikarzom udało się ustalić tożsamość twórcy. Tutaj jednak historia się nie kończy. Na Telegramie pojawiły się bowiem

  1. Pod koniec 2024 roku ukazał się xzin0vich-WormGPT, czyli pierwsza zmodyfikowana wersja modelu. Tym razem jednak bazowała ona na Mixtral.
  2. Na początku 2025 roku pojawił się natomiast kolejny konkurent – keanu-WormGPT. Ten model ma uzyskiwać bezpośredni dostęp do API Grok i modyfikują komendy w taki sposób, by otrzymywać odpowiedzi na wszystkie zapytania.

Oczywiście to nie wszystko. Na przestrzeni lat pojawiło się bowiem wiele różnych modeli pozbawionych ograniczeń bezpieczeństwa. Wśród nich znajdziemy między innymi FraudGPT, DarkBERT i EvilGPT. Pozwalają w prosty sposób napisać skrypty do kradzieży danych czy też w łatwy sposób generować treść do maili wyłudzających dane. Można więc założyć, że w przyszłości będzie powstawać więcej takich narzędzi.

Czasem również klasyczne modele językowe można oszukiwać przy pomocy odpowiednich komend. Warto tutaj przypomnieć chociażby sytuację, w której ChatGPT wcielając się w babcię podawał klucze aktywacyjne Windows.

POWIĄZANE TEMATY: tech AI / sztuczna inteligencja

Agnieszka Adamus

Agnieszka Adamus

Z GRYOnline.pl związana od 2017 roku. Zaczynała od poradników, a teraz tworzy głównie dla newsroomu, encyklopedii i promocji. Samozwańcza specjalistka od darmówek. Uwielbia strategie, symulatory, RPG-i i horrory. Ma też słabość do tytułów sieciowych. Spędziła nieprzyzwoicie dużo godzin w Dead by Daylight i Rainbow Six: Siege. Oprócz tego lubi oglądać filmy grozy (im gorsze, tym lepiej) i słuchać muzyki. Największą pasją darzy jednak pociągi. Na papierze fizyk medyczny. W rzeczywistości jednak humanista, który od dzieciństwa uwielbia gry.

Chciał tylko wymienić wentylator w PC. Skończyło się rozbitym panelem przez jeden drobny błąd

Chciał tylko wymienić wentylator w PC. Skończyło się rozbitym panelem przez jeden drobny błąd

Fan PlayStation chce tylko naprawić port HDMI swojej konsoli PS5 u sprzedawcy - konsola wraca jeszcze bardziej zepsuta i brudna

Fan PlayStation chce tylko naprawić port HDMI swojej konsoli PS5 u sprzedawcy - konsola wraca jeszcze bardziej zepsuta i brudna

Składać czy rozkładać? 5 powodów, dla których mamy wyraźnego faworyta w pojedynku między Samsungiem Galaxy Flip 7 a Fold 7

Składać czy rozkładać? 5 powodów, dla których mamy wyraźnego faworyta w pojedynku między Samsungiem Galaxy Flip 7 a Fold 7

gamescom 2025 - co powinieneś wiedzieć

gamescom 2025 - co powinieneś wiedzieć

Gracz PlayStation ma już dość swojej porysowanej PS2 i po prostu używa pasty do polerowania samochodów - wynik zaskoczył nawet jego samego

Gracz PlayStation ma już dość swojej porysowanej PS2 i po prostu używa pasty do polerowania samochodów - wynik zaskoczył nawet jego samego