eGospodarka.pl
eGospodarka.pl poleca

eGospodarka.plWiadomościTechnologieInternetHakerzy manipulują dużymi modelami językowymi - rośnie ryzyko nadużyć technologii AI

Hakerzy manipulują dużymi modelami językowymi - rośnie ryzyko nadużyć technologii AI

2025-07-23 09:30

Hakerzy manipulują dużymi modelami językowymi - rośnie ryzyko nadużyć technologii AI

Hakerzy manipulują dużymi modelami językowymi - rośnie ryzyko nadużyć technologii AI © wygenerowane przez AI

Zespół Cisco Talos, zajmujący się badaniami nad cyberbezpieczeństwem, ostrzega przed niepokojącym trendem: cyberprzestępcy coraz chętniej sięgają po duże modele językowe (LLM - Large Language Models), by automatyzować i udoskonalać swoje ataki. Jak wynika z najnowszego raportu Cisco Talos, nie tylko korzystają oni z ogólnodostępnych usług AI, ale również ze zmodyfikowanych modele, w tym tzw. wersji "odblokowanych" (ang. jailbroken). Dzięki tym narzędziom cyberprzestępcy mogą tworzyć wiarygodne kampanie phishingowe i generować zaawansowany złośliwy kod.

Przeczytaj także: AI zmanipulowane przez złośliwe oprogramowanie. Czy to nowa era cyberataków?

Z tego artykułu dowiesz się:


  • Jak cyberprzestępcy wykorzystują duże modele językowe (LLM) w zautomatyzowanych atakach.
  • Czym są „nieocenzurowane” i jailbroken modele AI oraz dlaczego stanowią zagrożenie.
  • Jakie techniki, takie jak prompt injection, pozwalają hakerom obejść zabezpieczenia modeli językowych.
  • Dlaczego LLM-y, mimo wbudowanych mechanizmów ochronnych, stają się łatwym celem nadużyć.

LLM-y zyskują popularność w wielu branżach dzięki zdolności do generowania przekonujących treści, rozwiązywania problemów, pisania kodu i wykonywania różnorodnych zadań. Według platformy Hugging Face, która gromadzi modele AI, dostępnych jest obecnie ponad 1,8 miliona różnych modeli. Większość z nich wyposażona jest w mechanizmy zabezpieczające (tzw. mechanizmy ochronne i reguły zgodności), które mają zapobiegać ich wykorzystaniu w celach przestępczych.

Nieocenzurowane modele LLM - rosnące zagrożenie


Zespół Cisco Talos wykrył wiele nieocenzurowanych modeli językowych, które pozwalają cyberprzestępcom tworzyć bardzo wiarygodne wiadomości phishingowe i inne formy fałszywej komunikacji - bez rażących błędów czy podejrzanych sformułowań. Dzięki temu ofiary łatwiej dają się nabrać i mogą nieświadomie przekazać dane osobowe lub firmowe. Przykładem takich modeli są m.in. Ollama i WhiteRabbitNeo - ten drugi promuje się jako narzędzie do działań zarówno obronnych, jak i ofensywnych w obszarze cyberbezpieczeństwa.

Raport Cisco podkreśla również, że istnieją techniki umożliwiające usunięcie wbudowanych ograniczeń modeli - poprzez modyfikację zestawów danych treningowych i dostrajanie modeli bazowych, co prowadzi do ich „odcenzurowania” i większej podatności na nadużycia.

Złośliwe modele LLM - narzędzia tworzone przez przestępców


Niektórzy cyberprzestępcy poszli o krok dalej, tworząc własne modele LLM, które aktywnie promują w darknecie. Tego typu modele potrafią samodzielnie generować złośliwe oprogramowanie - w tym ransomware, trojany zdalnego dostępu (RAT), narzędzia do niszczenia danych, shellcode czy różnego rodzaju skrypty.

Ponadto służą one do tworzenia treści takich jak wiadomości phishingowe, fałszywe strony internetowe, pliki konfiguracyjne, a także do weryfikacji skradzionych danych kart płatniczych, skanowania stron i kodu w poszukiwaniu luk oraz opracowywania nowych strategii przestępczych. Wśród znanych złośliwych aplikacji znajdują się GhostGPT, WormGPT, DarkGPT, DarkestGPT i FraudGPT. Talos ustaliło, że ten ostatni jest częścią szerszej kampanii oszustw.

Legalne modele LLM - kuszący cel dla nadużyć


Przestępcy coraz częściej decydują się też na wykorzystywanie legalnych, powszechnie dostępnych modeli. Te - choć wyposażone w zabezpieczenia - oferują dużą moc obliczeniową, jeśli tylko uda się obejść wbudowane mechanizmy ochrony. Głównymi przeszkodami są tu wytyczne treningowe oraz zabezpieczenia uniemożliwiające generowanie nieetycznych, nielegalnych lub szkodliwych treści.

Aby je obejść, cyberprzestępcy sięgają po techniki takie jak prompt injection, czyli wprowadzanie specjalnych zapytań, które mają „złamać” zabezpieczenia modelu i skłonić go do wygenerowania niepożądanych odpowiedzi.
Wraz z rozwojem AI, cyberprzestępcy będą nadal wykorzystywać duże modele językowe, aby usprawnić swoje procesy, tworzyć narzędzia i skrypty, które mogą być wykorzystane do atakowania użytkowników, oraz generować treści, które łatwiej ominą zabezpieczenia. Ta nowa technologia niekoniecznie wyposaża cyberprzestępców w zupełnie nową broń cybernetyczną, ale działa jak multiplikator, wzmacniając i udoskonalając znane techniki ataku – podsumowuje Jaeson Schultz z Cisco Talos.

Skomentuj artykuł Opcja dostępna dla zalogowanych użytkowników - ZALOGUJ SIĘ / ZAREJESTRUJ SIĘ

Komentarze (0)

DODAJ SWÓJ KOMENTARZ

Eksperci egospodarka.pl

1 1 1

Wpisz nazwę miasta, dla którego chcesz znaleźć jednostkę ZUS.

Wzory dokumentów

Bezpłatne wzory dokumentów i formularzy.
Wyszukaj i pobierz za darmo: