eGospodarka.pl
eGospodarka.pl poleca

eGospodarka.plWiadomościTechnologieInternet › Chat GPT: czym zagraża nam generatywna sztuczna inteligencja?

Chat GPT: czym zagraża nam generatywna sztuczna inteligencja?

2023-06-19 09:01

Chat GPT: czym zagraża nam generatywna sztuczna inteligencja?

Czym zagraża nam Chat GPT? © pixabay.com

AI, choć jest technologią stosunkowo młodą, to jednak dość już szeroko stosowaną i coraz popularniejszą, czego przykładem może być chociażby chatGPT. O zaletach sztucznej inteligencji mówi się równie dużo, co o jej wadach i zagrożeniach, które niesie za sobą. Wśród tych ostatnich wymienia się zagrożenia ze strony cyberprzestępców, którzy nader chętnie sięgają w swojej działalności po najnowsze rozwiązania technologiczne.

Przeczytaj także: Sztuczna inteligencja uderza w urządzenia mobilne. Co robić?

Z tego tekstu dowiesz się m.in.:


  • Czym zagraża nam ChatGPT?
  • Jak niebezpieczną bronią jest w rękach cyberprzestępców?
  • Jakie zagrożenia niesie za sobą rozprzestrzenianiem ataków BEC?

Generatywne modele AI mają na celu ułatwienie komunikacji i dostarczenie użytkownikom pomocnych odpowiedzi. Jednak staną się niebezpiecznym narzędziem w rękach hakerów, niosącym ryzyko włamań i naruszeń danych. Jest to jednak broń obosieczna i mogą z niej skorzystać również dostawcy systemów ochrony IT, bądź pracownicy Centrów Operacji Bezpieczeństwa. - tłumaczy Robert Dziemianko, marketing manager w G DATA Software Sp. z o.o.

Jeszcze więcej spamu?


Skrzynki pocztowe internautów od lat zasypują e-maile pochodzące od nigeryjskich książąt, handlarzy narkotyków i cudownych medykamentów, bądź promotorów inwestycji, których nie można przegapić. Wprawdzie producenci systemów bezpieczeństwa IT udoskonalają filtry antyspamowe, ale to tylko inspiruje napastników do opracowywania nowych, skuteczniejszych metod przełamywania zabezpieczeń.

fot. pixabay.com

Czym zagraża nam Chat GPT?

Generatywne modele AI mają na celu ułatwienie komunikacji i dostarczenie użytkownikom pomocnych odpowiedzi. Jednak staną się niebezpiecznym narzędziem w rękach hakerów, niosącym ryzyko włamań i naruszeń danych.


W ciągu ostatnich dwóch lat jakość wysyłanych przez cyberprzestępców e-mail wyraźnie się poprawiła. Coraz trudniej znaleźć w nich błędy ortograficzne i gramatyczne czy archaiczne zwroty. Ponadto oszuści sięgają po tematy nawiązujące do bieżących wydarzeń polityczno-społecznych (pandemia, wojna na Ukrainie, rachunki za energię elektryczną). Niestety, ChatGPT i jego kuzyni pozwolą napastnikom tworzyć jeszcze bardziej wiarygodne wiadomości, a co za tym idzie „łowić” dużo więcej ofiar niż do tej pory.

Niewykluczone, że spamerzy przestaną uderzać na oślep, bowiem generatywna sztuczna inteligencja pozwoli im kierować e-maile do wyselekcjonowanych osób. Natomiast wiadomości staną się bardziej przekonujące, bowiem będą bazować na ogólnodostępnych informacjach, takich jak posty w mediach społecznościowych. Poza tym zniknie bariera językowa i geograficzna, bowiem chatbot bez trudu wygeneruje informacje w dowolnym języku.

Eksperci z G DATA zwracają uwagę na zagrożenie związane z rozprzestrzenianiem cyberataków BEC (Business E-mail Compromise). To specyficzny rodzaj spamu, charakteryzujący się tym, iż napastnicy wybierają potencjalną ofiarę. Oszuści najczęściej wysyłają wiadomość w imieniu prezesa firmy, dyrektora finansowego czy innego menedżera wysokiego szczebla do pracownika, zawierającą polecenie przelania środków finansowych na podany numer konta. Jak wynika z danych FBI w 2021 straty amerykańskich przedsiębiorstw, które dały się nabrać na ten przekręt wyniosły 2,4 mld USD i były 51 razy wyższe aniżeli szkody wywołane przez ransomware.

Jednak, aby atak BEC się powiódł napastnicy muszą uzyskać dostęp do systemów komputerowych firmy w celu uzyskania informacji o procedurach, komunikacji, a także danych osobowych personelu. W tym przypadku również mogą liczyć na „wsparcie” ze strony sztucznej inteligencji, która pomoże zautomatyzować ataki, skanować powierzchnie ataków Hakerzy po przejęciu wewnętrznej korespondencji e-mail i niepublicznych raportów, mogą wykorzystać sztuczną inteligencję do generowania przekonujących wiadomość. Na przykład, „Andrzej, fajnie było zjeść obiad z Tobą i Twoją żoną, powinniśmy to powtórzyć. Tymczasem, potrzebuję, żebyś przesłał 10 tysięcy złotych. Pieniądze są niezbędne do rozpoczęcia prac nad projektem, o którym ostatnio dyskutowaliśmy”.

Innym poważnym zagrożeniem jest wykorzystanie chatbotów do naśladowania głosów ludzkich. Jest to wyjątkowo niebezpieczne zjawisko, co pokazał chociażby eksperyment przeprowadzony przez Joan Stern - dziennikarkę The Wall Street Journal. Otóż specjalistyczne oprogramowanie sklonowało jej głos na podstawie 90 minutowego nagrania. Sztuczny głos Joan Stern był tak dobry, że oszukał system biometryczny banku.

Sztuczna inteligencja po dobrej stronie mocy


Sztuczna inteligencja może być sprzymierzeńcem nie tylko hakerów, ale też specjalistów ds. cyberbezpieczeństwa. Już od pewnego czasu dostawcy rozwiązań chroniących sieci wykorzystują w swoich rozwiązaniach uczenie maszynowe czy sztuczną inteligencję. Dobry przykład stanowią systemy EDR (Endpoint Detection and Response) analizujące oraz identyfikujące nietypowe zdarzenia zachodzące w sieci. Producenci nie stoją w miejscu i rozwijają techniki mające powstrzymać zapędy hakerów.

Jedną z największych zalet sztucznej inteligencji jest automatyzacja codziennych zadań, dzięki czemu specjaliści mogą skupić się na bardziej kreatywnej lub czasochłonnej pracy. Sztuczną inteligencję można być bardzo przydatna przy tworzeniu lub zwiększaniu wydajności skryptów używanych przez inżynierów ds. bezpieczeństwa cybernetycznego lub administratorów systemów. Technologia pozwala też proaktywnie znajdować luki w zabezpieczeniach sieci, a także automatyzuje takie zadania jak ustawianie alertów dla określonych słów kluczowych i wykrywanie poufnych informacji online. Łowcy zagrożeń będąc coraz szerzej wykorzystywać sztuczną inteligencję do nietypowych wzorców i podsumowywania dużych ilości danych, łącząc kropki w wielu źródłach informacji i ukrytych wzorcach.
Nie możemy zaprogramować narzędzi generatywnej sztucznej inteligencji tak, aby działały jak człowiek. Natomiast sprawdzają się wsparcie, zwłaszcza w procesach analizowania danych i tworzenia danych wyjściowych w oparciu o informacje, które wprowadzamy. Chociaż sztuczna inteligencja dokonała w krótkim czasie wielkich postępów, nadal generuje fałszywe alarmy, a człowiek musi je zidentyfikować - podsumowuje Robert Dziemianko.

Skomentuj artykuł Opcja dostępna dla zalogowanych użytkowników - ZALOGUJ SIĘ / ZAREJESTRUJ SIĘ

Komentarze (0)

DODAJ SWÓJ KOMENTARZ

Eksperci egospodarka.pl

1 1 1

Wpisz nazwę miasta, dla którego chcesz znaleźć jednostkę ZUS.

Wzory dokumentów

Bezpłatne wzory dokumentów i formularzy.
Wyszukaj i pobierz za darmo: