Dlaczego AI bywa niebezpieczna?
2025-05-11 00:12

Dlaczego AI bywa niebezpieczna? © fot. mat. prasowe
Przeczytaj także: Oszustwo nie tylko "na wnuczka", czyli na co powinni uważać babcia i dziadek
W Polsce rośnie m.in. zjawisko tzw. medycznego deepfake’u, które może być wyjątkowo groźne dla pacjentów. Ofiarą takiej kampanii był prof. Jerzy Szaflik, okulista, którego wizerunek wykorzystano w mediach społecznościowych w fałszywych reklamach promujących preparat rzekomo przywracający wzrok. - Wszedłem na FB i zobaczyłem siebie wygłaszającego skandaliczną informację, że pewien preparat z wyciągu roślinnego (imbir i cytryna) w ciągu kilkunastu dni przywraca wzrok. Opowiadam tam „jak szybko i bez wychodzenia z domu odzyskać wzrok”. Podano także, że nad tym preparatem pracowałem kilkadziesiąt lat i wyleczyłem w zeszłym roku ponad 40 tys. osób, a „wiele z nich odzyskało wyraźne widzenie już w 15 dni”. Coś strasznego! – wyjaśnił w rozmowie z PAP prof. Szaflik.Granica między prawdą a fikcją w cyfrowym świecie właśnie się zatarła. AI nie tylko zmienia sposób, w jaki tworzymy treści czy zarządzamy firmami – teraz również oszukuje, podszywa się i atakuje. A najnowszym stadium tego zjawiska są tzw. „cyfrowe sobowtóry” – nie tylko wyglądające i brzmiące jak człowiek, ale także reagujące i analizujące jak człowiek.
fot. mat. prasowe
Dlaczego AI bywa niebezpieczna?
Cyberprzestępcy wykorzystują AI do tworzenia złośliwego oprogramowania, optymalizacji kampanii phishingowych, automatyzacji ataków DDoS, a także do czyszczenia i klasyfikowania skradzionych danych, by zwiększyć ich wartość i skuteczność ataków.
Inną głośną sprawą były oszustwa „na Brada Pitta”, za którymi stała najprawdopodobniej grupa Nigeryjczyków. Wykorzystując zmodyfikowane przez sztuczną inteligencję zdjęcia amerykańskiego aktora, wabili kobiety przekonując je, że rozmawiają z amerykańskim aktorem, a następnie prosili o finansowe wsparcie… leczenia onkologicznego. Łącznie poszkodowanych było ponad 30 osób, a rekordzistka przelała oszustom ponad 800 tys. Euro. Co więcej, oszuści ze swoją akcją mieli dotrzeć również do Polski!
- Szybkie przyjęcie sztucznej inteligencji przez cyberprzestępców już zmieniło krajobraz zagrożeń - zauważa Lotem Finkelstein, dyrektor Check Point Research. Ekspert ostrzega, że cyberprzestępcy coraz chętniej sięgają po generatywne modele językowe i narzędzia oparte na AI, które potrafią tworzyć głosy, teksty i obrazy niemal nie do odróżnienia od autentycznych. Przykład? Atak wymierzony we włoskiego ministra obrony, którego głos został odtworzony przy pomocy AI i użyty w celu dezinformacji. Ofiary nie były w stanie zidentyfikować oszustwa, bo ten brzmiał zbyt przekonująco.
Wątpliwe etycznie są także próby wykorzystywania deepfake'ów przez polityków. W ubiegłym roku firma Check Point wpisała Polskę na listę krajów, które stosowały sztuczną inteligencję w kampaniach wyborczych — sfałszowano m.in. spot z udziałem byłego premiera Mateusza Morawieckiego, a także wygenerowano klip, w którym główny negatywny bohater do złudzenia przypominał Donalda Tuska.
AI i rosyjscy hakerzy
Raport Check Pointa przedstawił również przypadki zatrucia danych treningowych, w wyniku których chatboty AI zaczynają powtarzać propagandę i fałszywe narracje. W jednym z analizowanych przypadków aż 33% odpowiedzi chatbotów opartych na zmanipulowanych danych pochodziło z rosyjskich źródeł dezinformacyjnych. To pokazuje, że nie chodzi już tylko o ataki techniczne – ale o kontrolę nad „prawdą”.
Co więcej, cyberprzestępcy wykorzystują AI do tworzenia złośliwego oprogramowania, optymalizacji kampanii phishingowych, automatyzacji ataków DDoS, a także do czyszczenia i klasyfikowania skradzionych danych, by zwiększyć ich wartość i skuteczność ataków. W ciemnych zakamarkach internetu pojawiły się nawet własne modele językowe do celów przestępczych, takie jak FraudGPT czy WormGPT, które obchodzą standardowe zabezpieczenia komercyjnych narzędzi.
W odpowiedzi na te zagrożenia Check Point apeluje, by organizacje natychmiast wdrażały strategie cyberbezpieczeństwa zorientowane na AI. Oznacza to konieczność rozpoznawania i analizowania treści generowanych przez sztuczną inteligencję, w tym phishingu i deepfake’ów, wdrożenie bardziej złożonych metod weryfikacji tożsamości oraz rozwijanie narzędzi analitycznych uwzględniających kontekst i sposób działania algorytmów AI.
Jak podkreślają autorzy raportu, fundament internetu – czyli zaufanie do cyfrowej tożsamości – właśnie się kruszy. Jeśli nie zareagujemy teraz, wkrótce każdy będzie mógł paść ofiarą perfekcyjnie spreparowanej iluzji.
![Cyberataki na przeglądarki internetowe stały się zmorą 2024 roku [© Freepik] Cyberataki na przeglądarki internetowe stały się zmorą 2024 roku](https://s3.egospodarka.pl/grafika2/cyberataki/Cyberataki-na-przegladarki-internetowe-staly-sie-zmora-2024-roku-264030-150x100crop.jpg)
oprac. : eGospodarka.pl
Przeczytaj także
Skomentuj artykuł Opcja dostępna dla zalogowanych użytkowników - ZALOGUJ SIĘ / ZAREJESTRUJ SIĘ
Komentarze (0)