Hakerzy manipulują dużymi modelami językowymi - rośnie ryzyko nadużyć technologii AI
2025-07-23 09:30
![Hakerzy manipulują dużymi modelami językowymi - rośnie ryzyko nadużyć technologii AI [© wygenerowane przez AI] Hakerzy manipulują dużymi modelami językowymi - rośnie ryzyko nadużyć technologii AI](https://s3.egospodarka.pl/grafika2/AI/Hakerzy-manipuluja-duzymi-modelami-jezykowymi-rosnie-ryzyko-naduzyc-technologii-AI-267895-200x133crop.png)
Hakerzy manipulują dużymi modelami językowymi - rośnie ryzyko nadużyć technologii AI © wygenerowane przez AI
Przeczytaj także: AI zmanipulowane przez złośliwe oprogramowanie. Czy to nowa era cyberataków?
Z tego artykułu dowiesz się:
- Jak cyberprzestępcy wykorzystują duże modele językowe (LLM) w zautomatyzowanych atakach.
- Czym są „nieocenzurowane” i jailbroken modele AI oraz dlaczego stanowią zagrożenie.
- Jakie techniki, takie jak prompt injection, pozwalają hakerom obejść zabezpieczenia modeli językowych.
- Dlaczego LLM-y, mimo wbudowanych mechanizmów ochronnych, stają się łatwym celem nadużyć.
LLM-y zyskują popularność w wielu branżach dzięki zdolności do generowania przekonujących treści, rozwiązywania problemów, pisania kodu i wykonywania różnorodnych zadań. Według platformy Hugging Face, która gromadzi modele AI, dostępnych jest obecnie ponad 1,8 miliona różnych modeli. Większość z nich wyposażona jest w mechanizmy zabezpieczające (tzw. mechanizmy ochronne i reguły zgodności), które mają zapobiegać ich wykorzystaniu w celach przestępczych.
Nieocenzurowane modele LLM - rosnące zagrożenie
Zespół Cisco Talos wykrył wiele nieocenzurowanych modeli językowych, które pozwalają cyberprzestępcom tworzyć bardzo wiarygodne wiadomości phishingowe i inne formy fałszywej komunikacji - bez rażących błędów czy podejrzanych sformułowań. Dzięki temu ofiary łatwiej dają się nabrać i mogą nieświadomie przekazać dane osobowe lub firmowe. Przykładem takich modeli są m.in. Ollama i WhiteRabbitNeo - ten drugi promuje się jako narzędzie do działań zarówno obronnych, jak i ofensywnych w obszarze cyberbezpieczeństwa.
Raport Cisco podkreśla również, że istnieją techniki umożliwiające usunięcie wbudowanych ograniczeń modeli - poprzez modyfikację zestawów danych treningowych i dostrajanie modeli bazowych, co prowadzi do ich „odcenzurowania” i większej podatności na nadużycia.
Złośliwe modele LLM - narzędzia tworzone przez przestępców
Niektórzy cyberprzestępcy poszli o krok dalej, tworząc własne modele LLM, które aktywnie promują w darknecie. Tego typu modele potrafią samodzielnie generować złośliwe oprogramowanie - w tym ransomware, trojany zdalnego dostępu (RAT), narzędzia do niszczenia danych, shellcode czy różnego rodzaju skrypty.
Ponadto służą one do tworzenia treści takich jak wiadomości phishingowe, fałszywe strony internetowe, pliki konfiguracyjne, a także do weryfikacji skradzionych danych kart płatniczych, skanowania stron i kodu w poszukiwaniu luk oraz opracowywania nowych strategii przestępczych. Wśród znanych złośliwych aplikacji znajdują się GhostGPT, WormGPT, DarkGPT, DarkestGPT i FraudGPT. Talos ustaliło, że ten ostatni jest częścią szerszej kampanii oszustw.
Legalne modele LLM - kuszący cel dla nadużyć
Przestępcy coraz częściej decydują się też na wykorzystywanie legalnych, powszechnie dostępnych modeli. Te - choć wyposażone w zabezpieczenia - oferują dużą moc obliczeniową, jeśli tylko uda się obejść wbudowane mechanizmy ochrony. Głównymi przeszkodami są tu wytyczne treningowe oraz zabezpieczenia uniemożliwiające generowanie nieetycznych, nielegalnych lub szkodliwych treści.
Aby je obejść, cyberprzestępcy sięgają po techniki takie jak prompt injection, czyli wprowadzanie specjalnych zapytań, które mają „złamać” zabezpieczenia modelu i skłonić go do wygenerowania niepożądanych odpowiedzi.
Wraz z rozwojem AI, cyberprzestępcy będą nadal wykorzystywać duże modele językowe, aby usprawnić swoje procesy, tworzyć narzędzia i skrypty, które mogą być wykorzystane do atakowania użytkowników, oraz generować treści, które łatwiej ominą zabezpieczenia. Ta nowa technologia niekoniecznie wyposaża cyberprzestępców w zupełnie nową broń cybernetyczną, ale działa jak multiplikator, wzmacniając i udoskonalając znane techniki ataku – podsumowuje Jaeson Schultz z Cisco Talos.

oprac. : eGospodarka.pl
Przeczytaj także
Skomentuj artykuł Opcja dostępna dla zalogowanych użytkowników - ZALOGUJ SIĘ / ZAREJESTRUJ SIĘ
Komentarze (0)
Najnowsze w dziale Wiadomości
-
Gdzie na wakacje? TOP 20 najatrakcyjniejszych turystycznych regionów Europy
-
Polacy unikają reklam w telewizji. Ponad 77% sięga po telefon podczas przerw
-
Nowa farma wiatrowa Eurowind Energy w woj. wielkopolskim. Gmina Jastrowie zyska 2,2 mln zł rocznie z podatków
-
Coface: wojna celna i napięcia geopolityczne hamują wzrost gospodarczy