Cyberprzestępcy manipulują sztuczną inteligencją
2019-07-23 13:34
Sztuczna inteligencja © fot. mat. prasowe
Przeczytaj także: Wizerunek TVP i programu i9:30 wykorzystany przez cyberprzestępców
Szeptany cyberatak
Cyberprzestępcom dość łatwo jest dziś promować lub zmniejszać popularność produktów oraz organizacji, a często również podpowiadać użytkownikom określone treści. Do manipulacji danymi, z których korzystają systemy sztucznej inteligencji, służą wykorzystujące marionetkowe konta ataki typu Sybil. Oszuści mogą sprawić np., aby wyniki wyszukiwania firmy w przeglądarce automatycznie sugerowały słowo „oszustwo” albo też manipulować przy rankingach i systemami rekomendacji.
Algorytmy AI są dziś w stanie wywierać wpływ na upodobania, przekonania i zachowania użytkowników, dopasowując wyświetlane treści do ich tożsamości czy preferencji. Teoretycznie mogłoby to nawet prowadzić do tworzenia swoistej pętli, w której system dopasowuje podawane informacje, dopóki nie zaobserwuje wyrażania pożądanych przez atakującego opinii i prezentowania konkretnych zachowań.
Ukryte polecenia
Naukowcy z Horst Görtz Institute for IT Security w Bochum (Niemcy) przeprowadzili w 2018 r. skuteczne psychoakustyczne ataki na systemy rozpoznawania mowy, podczas których ukrywali komendy głosowe w śpiewie ptaków. Jak pokazał ten eksperyment, promowane treści wideo z ukrytymi w ten sposób poleceniami mogłyby instruować inteligentne urządzenia domowe na całym świecie, jak asystenty Siri czy Alexa, nakłaniając je do zmiany ustawień (np. odblokowania drzwi wejściowych). Można też „poprosić” je o wyszukiwanie w Internecie obciążających treści, jak narkotyki lub pornografia dziecięca, aby później szantażować użytkownika.
Fałszywe newsy, nagrania, filmy...
Szczególnie groźne może być wykorzystywanie bazujących na sztucznej inteligencji metod cybermanipulacji. Systemy AI są już na tyle zaawansowane, że można dzięki nim tworzyć bardzo realistyczne nagrania audio i wideo. Algorytmy potrafią udawać głos danej osoby czy generować sfałszowane filmy. To potężne narzędzia, które mogą służyć m.in. do wpływania na opinię publiczną za pomocą tzw. fake newsów. Odróżnienie ich od prawdziwych informacji będzie coraz trudniejsze, a może nawet niemożliwe – również ze względu na prawdopodobne rozwijanie technik zapobiegających szybkiemu wykrywaniu fałszywych treści.
fot. mat. prasowe
Sztuczna inteligencja
– Dominuje wizja, że sztuczna inteligencja obróci się przeciwko nam. Tymczasem jest odwrotnie i to człowiek staje się zagrożeniem dla systemów AI. Ataki typu Sybil są niezwykle trudne do wykrycia, a powstały już nawet osobne firmy, które zajmują się tego typu działaniami. Niestety, obecnie możliwości tworzenia fałszywej treści są znacznie bardziej zaawansowane niż jej wykrywania – ostrzega Andy Patel, badacz z Centrum Doskonalenia Sztucznej Inteligencji F-Secure.
Ataki na modele inteligentnego uczenia maszynowego są trudne do odparcia, ponieważ istnieje wiele sposobów manipulowania danymi, z których korzystają. Zabezpieczenie systemów AI może przy tym powodować problemy natury etycznej, np. naruszanie prywatności użytkowników przez nasilony monitoring działań w sieci. Jednak na początku ataku zawsze stoi człowiek, dlatego eksperci mogą uczyć się myśleć jak przestępca i podejmować odpowiednie kroki w celu ochrony przed zagrożeniami.
oprac. : eGospodarka.pl
Przeczytaj także
-
Jak rozpoznać deepfake?
-
Deepfake - nowy poziom cyberzagrożeń
-
Sztuczna inteligencja i uczenie maszynowe w rękach cyberprzestępczości
-
AI i deepfake wykorzystywane do szantaży seksualnych
-
Cyberprzestępcy podszywają się pod ChatGPT
-
Cyberataki kosztują firmy średnio 5,34 miliona dolarów rocznie
-
5 oszustw z wykorzystaniem sztucznej inteligencji
-
Poważne ataki na cyberbezpieczeństwo. Jak się chronić?
-
Marka Microsoft najczęściej wykorzystywana przez hakerów
Skomentuj artykuł Opcja dostępna dla zalogowanych użytkowników - ZALOGUJ SIĘ / ZAREJESTRUJ SIĘ
Komentarze (0)