Złośliwe modele AI - jak sztuczna inteligencja zmienia cyberataki?
2025-12-05 00:30
Sztuczna inteligencja zmienia cyberataki © pexels
Cyberprzestępcy już nie tylko korzystają ze sztucznej inteligencji, ale wręcz budują własne fabryki złośliwego AI. Jak ostrzegają eksperci Palo Alto Networks, w podziemiu działają całe ekosystemy przypominające legalne startupy technologiczne. Prywatne modele AI generują phishing, malware i analizują luki w zabezpieczeniach szybciej, niż firmy są w stanie zareagować. To początek nowej ery zagrożeń dla biznesu.
Przeczytaj także: Trendy w cyberbezpieczeństwie 2026: AI, deepfake i ransomware
Z tego tekstu dowiesz się m.in.:
- Jak cyberprzestępcy wykorzystują własne modele AI do prowadzenia ataków?
- Dlaczego złośliwe LLM-y są groźniejsze od komercyjnych modeli AI?
- Jak spadek kosztów trenowania modeli wpływa na skalę cyberzagrożeń?
- Dlaczego firmy muszą wdrażać systemy bezpieczeństwa oparte na AI?
To zjawisko, które jeszcze rok temu wydawało się czysto teoretyczne, dziś jest jednym z najszybciej rozwijających się obszarów podziemnej gospodarki technologicznej. Badacze Palo Alto Networks odkryli, że przestępcy tworzą całe środowiska przypominające… legalne startupy AI, z własnymi „marketplace’ami”, usługami abonamentowymi i modelami aktualizowanymi tak samo, jak produkty znanych firm technologicznych.
Różnica polega na tym, że te modele nie mają żadnych barier – można nimi generować złośliwy kod, budować kampanie phishingowe dopasowane do konkretnego odbiorcy czy analizować luki w zabezpieczeniach firm.
Szczególnie zaskakuje skala profesjonalizacji tego ekosystemu. Niektóre modele oferują nawet „wersje językowe” dopasowane do regionów. Przykładowo przestępcy wykorzystują AI do przygotowywania treści, które wyglądają jak naturalne komunikaty banków, firm kurierskich czy instytucji publicznych – i to nie w jednym, ale w kilkunastu językach naraz.
W praktyce oznacza to, że cyberataki stają się bardziej wiarygodne niż kiedykolwiek wcześniej – podkreśla Wojciech Gołębiowski, wiceprezes i dyrektor zarządzający Palo Alto Networks w Europie Środkowo-Wschodniej.
Skala globalnego rozwoju AI dodatkowo sprzyja temu zjawisku. Według raportu Stanford University w samym 2023 roku wydano 149 foundation models – ponad dwukrotnie więcej niż rok wcześniej, z czego aż 66% w formie open source. To oznacza, że coraz więcej zaawansowanych modeli – w tym takich, które mogą zostać wykorzystane do nadużyć – jest publicznie dostępnych i łatwych do modyfikacji.
Jednocześnie koszt uzyskania wydajności na poziomie GPT-3.5 spadł 280-krotnie między listopadem 2022 a październikiem 2024. W praktyce obniża to próg wejścia dla wszystkich – także dla grup przestępczych, które mogą trenować lub dostosowywać własne modele znacznie taniej niż jeszcze dwa lata temu.
Złośliwe LLM-y działają inaczej niż znane, komercyjne modele. Są trenowane na danych pozyskiwanych z forów przestępczych, wycieków baz danych, kodów malware’u i instrukcji służących do obchodzenia zabezpieczeń. W praktyce oznacza to, że model „uczy się” tego, co w legalnych systemach AI jest celowo blokowane – sposobów na pisanie niebezpiecznego kodu, tworzenie socjotechnicznych scenariuszy czy identyfikowanie podatnych punktów w infrastrukturze.
Co więcej, modele te działają w zamkniętych środowiskach uruchamianych na prywatnych serwerach, dzięki czemu trudno je monitorować i jeszcze trudniej blokować ich aktywność.
Mechanizm działania złośliwych LLM-ów polega również na ciągłej adaptacji. Jeśli wygenerowany przez model atak zostanie zablokowany, przestępcy mogą natychmiast poprosić AI o przygotowanie nowej wersji – zmienionego phishingu, innej formy malware’u czy kodu, który wygląda jak niewinna biblioteka open source. Model analizuje, co zostało odrzucone, i automatycznie modyfikuje swoje działania, aż do osiągnięcia skutecznej wersji ataku.
To podejście niemal identyczne jak w procesie trenowania legalnych modeli AI – z tą różnicą, że tutaj pętlę uczenia zamknięto wokół działań przestępczych, co daje grupom cyberprzestępczym przewagę szybkości i skali, jakiej wcześniej nie miały.
Z perspektywy biznesu nowe zagrożenie polega na tym, że modele przestępców działają w prywatnych środowiskach, niewidocznych z zewnątrz. Nie podlegają moderacji, nie mają limitów bezpieczeństwa i nie zostawiają typowych śladów, które można byłoby wykryć tradycyjnymi narzędziami. To sprawia, że ataki są trudniejsze do wychwycenia, a ich wykrycie wymaga systemów, które również wykorzystują sztuczną inteligencję.
Przestępcze modele AI nie tylko obniżają próg wejścia dla nowych cyberprzestępców, ale umożliwiają doświadczonym grupom działanie z niespotykaną dotąd szybkością i skalą. Wiele ataków, które kiedyś wymagały ręcznej pracy, dziś można wygenerować jednym poleceniem.
Firmy muszą przestawić sposób myślenia o zagrożeniach. Pojawia się nowa generacja ataków – automatyczna, adaptacyjna i zdolna do nauki. To wymaga zastosowania narzędzi opartych na AI, bo tylko one są w stanie działać z podobną szybkością – dodaje Wojciech Gołębiowski.
Przeczytaj także:
Sztuczna inteligencja napędza cyberataki - nowe zagrożenia dla firm
Sztuczna inteligencja napędza cyberataki - nowe zagrożenia dla firm
oprac. : Aleksandra Baranowska-Skimina / eGospodarka.pl
Więcej na ten temat:
sztuczna inteligencja, AI, deepfake, phishing, ataki phishingowe, cyberataki, cyberzagrożenia, cyberbezpieczeństwo
Przeczytaj także
Skomentuj artykuł Opcja dostępna dla zalogowanych użytkowników - ZALOGUJ SIĘ / ZAREJESTRUJ SIĘ
Komentarze (0)





Fakturzystka, fakturzysta