eGospodarka.pl
eGospodarka.pl poleca

eGospodarka.plWiadomościTechnologieInternet › ChatGPT, czyli sztuczna inteligencja w służbie cyberprzestępczości

ChatGPT, czyli sztuczna inteligencja w służbie cyberprzestępczości

2023-09-22 11:30

ChatGPT, czyli sztuczna inteligencja w służbie cyberprzestępczości

ChatGPT © pexels

Generatywna sztuczna inteligencja rozwija się w intensywnym tempie, niosąc za sobą niestety wiele zagrożeń i napędzając wyścig zbrojeń pomiędzy cyberprzestępcami a specjalistami od bezpieczeństwa. I wprawdzie z założenia ChatGPT nie powinien tworzyć szkodliwych treści, to jednak istnieją metody, którymi można nakłonić go do działań godzących w cyberbezpieczeństwo.

Przeczytaj także: Chat GPT: czym zagraża nam generatywna sztuczna inteligencja?

Z tego tekstu dowiesz się m.in.:


  • Jakie zagrożenia niesie za sobą ChatGPT?
  • Co sprawia, że groźni są nawet początkujący hakerzy?
  • Jak godzi w cyberbezpieczeństwo Fraud GPT?

Jedną z największych bolączek branży cyberbezpieczeństwa jest brak specjalistów. Jednak część ekspertów oraz analityków zwraca uwagę na inne zjawisko, jakim jest niewielka liczba… hakerów. Ich zdaniem gdyby było ich więcej, liczba naruszeń wzrosłaby nawet od 10 do 100 razy. Niejako potwierdzeniem tej tezy jest głośny przypadek pary napastników szantażujących Ubera. Z akt sądowych wynika, że posiadali oni ponad 100 tysięcy działających loginów. Jednakże, nie mogąc wykorzystać wszystkich, skorelowali dane logowania z ocenami popularności witryn. W ten sposób ich głównym celem stał się właśnie Uber.
Obawiam się, że dostępność generatywnej sztucznej inteligencji w połączeniu z automatyzacją ataków realizowanych za pomocą złośliwego oprogramowania oraz innych ofensywnych narzędzi, jeszcze bardziej uaktywni napastników. Gangi cyberprzestępcze zintensyfikują swoje działania i zrobią to bez konieczności zatrudniania nowych ludzi i dodatkowych inwestycji. Wiele wskazuje na to, że upowszechni się model „Ransomware as a service” i temu podobne. To oznacza, że groźni staną się nawet początkujący hakerzy. - ostrzega Robert Dziemianko, Marketing Manager z G DATA.

ChatGPT

Z założenia ChatGPT nie tworzy szkodliwych treści


Inną kwestią jest jakość materiałów wytwarzanych przez cyberprzestępców. Klasyczny przykład stanowią kampanie phishingowe. Jeszcze do niedawna e-maile zachęcające odbiorców do pobrania plików lub kliknięcia w linki prowadzące do stron z malwarem roiły się od błędów gramatycznych oraz ortograficznych. Wraz z pojawieniem się ChatGPT z oszukańczych e-maili zniknęły literówki i lapsusy językowe. Co więcej, generatywna sztuczna inteligencja pomaga tworzyć całkiem przekonywujące teksty, a potencjalne ofiary łatwiej niż do tej pory połykają haczyk. Według raportu Darktrace pomiędzy styczniem a lutym bieżącego roku nastąpił wzrost przesyłanych wiadomości phishingowych aż o 135%. Większość z nich cechowała się poprawną gramatyką i ortografią.

Przechytrzyć chatbota


Z założenia ChatGPT nie tworzy szkodliwych treści. Kiedy poleci mu się opracowanie e-maila zachęcającego adresata do pobrania załącznika ze złośliwym oprogramowaniem, otrzymamy odpowiedź odmowną.

„Przepraszam, ale nie mogę pomóc w tworzeniu treści lub działań związanych z rozprzestrzenianiem malware, wirusów ani innego złośliwego oprogramowania.”

Tyle teorii. W praktyce w sieci można znaleźć mnóstwo artykułów tłumaczących jak nakłonić chatbota do napisania e-maila podszywającego się pod osobę lub instytucję w celu wyłudzenia poufnych informacji. Nie brakuje wysublimowanych metod.

Serwis internetowy WIRED opisuje sposób w jaki eksperci za pomocą generatywnej sztucznej inteligencji wygenerowali instrukcje tworzenia metamfetaminy i uruchomienia auta bez kluczyków. Twórcy poprosili system o skonstruowanie gry, w której dwie postacie (Tom i Jerry) prowadzą ze sobą dialog. Tom mówi o produkcji oraz odpalaniu samochodu bez kluczyków, a Jerry porusza jedynie dwa tematy: samochód i metamfetaminę. Każda z postaci dodaje jedno słowo do rozmowy, w wyniku czego powstaje skrypt, który informuje jak znaleźć przewody zapłonowe lub określić składniki potrzebne do produkcji metamfetaminy.

Eksperci nie mają złudzeń - tego rodzaju działania wykorzystywane do celów przestępczych oraz cyberataków, będą niezwykle trudne do wykrycia.

Złowrogie chatboty


Nie wszyscy mają czas i ochotę na zabawę w kotka i myszkę z botem ChatGPT. Mniej cierpliwi hakerzy korzystają ze złośliwych chatbotów. Analitycy ostrzegają, że w ostatnich miesiącach nastąpił prawdziwy wysyp takich narzędzi. Szczególnie głośno mówi się o dwóch wrogich chatbotach: WormGPT i FraudGPT

Początki pierwszego z wymienionych sięgają marca 2021 roku, ale dopiero w czerwcu trafił na popularne forum hakerskie. WormGPT przeszkolono pod kątem generowania materiałów związanych z tworzeniem złośliwego oprogramowania. Wersja podstawowa jest dostępna w abonamencie miesięcznym od 60 do 100 USD lub za 600 USD rocznie. Bardziej wymagający hakerzy mogą za 5300 USD rocznie skorzystać z tak zwanej wersji prywatnej WormGPT v2.

Fraud GPT pojawił się w lipcu na kilku forach Dark Webu oraz kanałach Telegramu. Twórcy reklamują go jako niczym nieograniczoną alternatywę dla ChatGPT. Jest to narzędzie tańsze od WormGPT, a jego ceny zaczynają się od 90-200 USD dolarów za subskrypcję miesięczną, zaś za roczną trzeba zapłacić od 800-1700 USD. FraudGPT służy do tworzenia malware’u, pisania złośliwego kodu, znajdowania luk w zabezpieczeniach, kreowania stron phishingowych, a ponadto zawiera lekcje hakowania. Potencjalni nabywcy mogą zapoznać się z wersją demonstracyjną pokazującą zdolności FraudGPT w zakresie tworzenia stron i SMS-ów phishingowych.
Musimy liczyć się z tym, że chatboty będę powszechnie wykorzystywane przez przestępców. Wraz z postępami w rozwoju generatywnej sztucznej inteligencji rozpoczął się wyścig zbrojeń pomiędzy cybergangami a dostawcami rozwiązań bezpieczeństwa. AI nie jest wyłącznie technologią, z której profity czerpią wyłącznie hakerzy, lecz służy też producentom antywirusów, firewalli czy systemów UTM. Wierzę, że siły dobrej mocy zwyciężą w tej specyficznej rywalizacji - tłumaczy Robert Dziemianko.

Przykładem nowoczesnych produktów wykorzystujących mechanizmy sztucznej inteligencji i uczenia maszynowego są systemy EDR (Endpoint Detection and Response), które znajdują się również w portfolio firmy G DATA. Ich zastosowanie pozwala wykrywać zagrożenia niemal natychmiast po ich pojawieniu, a tym samym uprzedzić poczynania napastników.

oprac. : eGospodarka.pl eGospodarka.pl

Skomentuj artykuł Opcja dostępna dla zalogowanych użytkowników - ZALOGUJ SIĘ / ZAREJESTRUJ SIĘ

Komentarze (0)

DODAJ SWÓJ KOMENTARZ

Eksperci egospodarka.pl

1 1 1

Wpisz nazwę miasta, dla którego chcesz znaleźć jednostkę ZUS.

Wzory dokumentów

Bezpłatne wzory dokumentów i formularzy.
Wyszukaj i pobierz za darmo: