eGospodarka.pl
eGospodarka.pl poleca

eGospodarka.plWiadomościTechnologieInternetDlaczego AI bywa niebezpieczna?

Dlaczego AI bywa niebezpieczna?

2025-05-11 00:12

Dlaczego AI bywa niebezpieczna?

Dlaczego AI bywa niebezpieczna? © fot. mat. prasowe

Sztuczna inteligencja może być groźną bronią w rękach cyberprzestępców - ostrzegają eksperci Check Point Software - tworząc treści, twarze, a nawet głosy tak realistyczne, że nawet eksperci nie są w stanie ich odróżnić.

Przeczytaj także: Oszustwo nie tylko "na wnuczka", czyli na co powinni uważać babcia i dziadek

W Polsce rośnie m.in. zjawisko tzw. medycznego deepfake’u, które może być wyjątkowo groźne dla pacjentów. Ofiarą takiej kampanii był prof. Jerzy Szaflik, okulista, którego wizerunek wykorzystano w mediach społecznościowych w fałszywych reklamach promujących preparat rzekomo przywracający wzrok. - Wszedłem na FB i zobaczyłem siebie wygłaszającego skandaliczną informację, że pewien preparat z wyciągu roślinnego (imbir i cytryna) w ciągu kilkunastu dni przywraca wzrok. Opowiadam tam „jak szybko i bez wychodzenia z domu odzyskać wzrok”. Podano także, że nad tym preparatem pracowałem kilkadziesiąt lat i wyleczyłem w zeszłym roku ponad 40 tys. osób, a „wiele z nich odzyskało wyraźne widzenie już w 15 dni”. Coś strasznego! – wyjaśnił w rozmowie z PAP prof. Szaflik.

Granica między prawdą a fikcją w cyfrowym świecie właśnie się zatarła. AI nie tylko zmienia sposób, w jaki tworzymy treści czy zarządzamy firmami – teraz również oszukuje, podszywa się i atakuje. A najnowszym stadium tego zjawiska są tzw. „cyfrowe sobowtóry” – nie tylko wyglądające i brzmiące jak człowiek, ale także reagujące i analizujące jak człowiek.

fot. mat. prasowe

Dlaczego AI bywa niebezpieczna?

Cyberprzestępcy wykorzystują AI do tworzenia złośliwego oprogramowania, optymalizacji kampanii phishingowych, automatyzacji ataków DDoS, a także do czyszczenia i klasyfikowania skradzionych danych, by zwiększyć ich wartość i skuteczność ataków.


Inną głośną sprawą były oszustwa „na Brada Pitta”, za którymi stała najprawdopodobniej grupa Nigeryjczyków. Wykorzystując zmodyfikowane przez sztuczną inteligencję zdjęcia amerykańskiego aktora, wabili kobiety przekonując je, że rozmawiają z amerykańskim aktorem, a następnie prosili o finansowe wsparcie… leczenia onkologicznego. Łącznie poszkodowanych było ponad 30 osób, a rekordzistka przelała oszustom ponad 800 tys. Euro. Co więcej, oszuści ze swoją akcją mieli dotrzeć również do Polski!

- Szybkie przyjęcie sztucznej inteligencji przez cyberprzestępców już zmieniło krajobraz zagrożeń - zauważa Lotem Finkelstein, dyrektor Check Point Research. Ekspert ostrzega, że cyberprzestępcy coraz chętniej sięgają po generatywne modele językowe i narzędzia oparte na AI, które potrafią tworzyć głosy, teksty i obrazy niemal nie do odróżnienia od autentycznych. Przykład? Atak wymierzony we włoskiego ministra obrony, którego głos został odtworzony przy pomocy AI i użyty w celu dezinformacji. Ofiary nie były w stanie zidentyfikować oszustwa, bo ten brzmiał zbyt przekonująco.

Wątpliwe etycznie są także próby wykorzystywania deepfake'ów przez polityków. W ubiegłym roku firma Check Point wpisała Polskę na listę krajów, które stosowały sztuczną inteligencję w kampaniach wyborczych — sfałszowano m.in. spot z udziałem byłego premiera Mateusza Morawieckiego, a także wygenerowano klip, w którym główny negatywny bohater do złudzenia przypominał Donalda Tuska.

AI i rosyjscy hakerzy


Raport Check Pointa przedstawił również przypadki zatrucia danych treningowych, w wyniku których chatboty AI zaczynają powtarzać propagandę i fałszywe narracje. W jednym z analizowanych przypadków aż 33% odpowiedzi chatbotów opartych na zmanipulowanych danych pochodziło z rosyjskich źródeł dezinformacyjnych. To pokazuje, że nie chodzi już tylko o ataki techniczne – ale o kontrolę nad „prawdą”.

Co więcej, cyberprzestępcy wykorzystują AI do tworzenia złośliwego oprogramowania, optymalizacji kampanii phishingowych, automatyzacji ataków DDoS, a także do czyszczenia i klasyfikowania skradzionych danych, by zwiększyć ich wartość i skuteczność ataków. W ciemnych zakamarkach internetu pojawiły się nawet własne modele językowe do celów przestępczych, takie jak FraudGPT czy WormGPT, które obchodzą standardowe zabezpieczenia komercyjnych narzędzi.

W odpowiedzi na te zagrożenia Check Point apeluje, by organizacje natychmiast wdrażały strategie cyberbezpieczeństwa zorientowane na AI. Oznacza to konieczność rozpoznawania i analizowania treści generowanych przez sztuczną inteligencję, w tym phishingu i deepfake’ów, wdrożenie bardziej złożonych metod weryfikacji tożsamości oraz rozwijanie narzędzi analitycznych uwzględniających kontekst i sposób działania algorytmów AI.

Jak podkreślają autorzy raportu, fundament internetu – czyli zaufanie do cyfrowej tożsamości – właśnie się kruszy. Jeśli nie zareagujemy teraz, wkrótce każdy będzie mógł paść ofiarą perfekcyjnie spreparowanej iluzji.

Skomentuj artykuł Opcja dostępna dla zalogowanych użytkowników - ZALOGUJ SIĘ / ZAREJESTRUJ SIĘ

Komentarze (0)

DODAJ SWÓJ KOMENTARZ

Eksperci egospodarka.pl

1 1 1

Wpisz nazwę miasta, dla którego chcesz znaleźć jednostkę ZUS.

Wzory dokumentów

Bezpłatne wzory dokumentów i formularzy.
Wyszukaj i pobierz za darmo: