Rosyjska dezinformacja obecna nawet w narzędziach AI
2025-03-18 00:30
Rosyjska dezinformacja obecna nawet w narzędziach AI © Freepik
Przeczytaj także: Największe zagrożenia w internecie według Polaków: phishing, kradzież tożsamości i dezinformacja
Sieć Pravda została uruchomiona tuż po rozpoczęciu rosyjskiej inwazji na Ukrainę w 2022 roku. Od tego czasu dynamicznie się rozwija, korzystając z około 150 domen do rozpowszechniania treści w dziesiątkach języków. Według raportu American Sunlight Project, sieć publikuje średnio 20 273 artykuły co 48 godzin, co przekłada się na około 3,6 miliona publikacji rocznie.Analiza przeprowadzona przez NewsGuard ujawniła, że sieć Pravda rozpowszechniała ponad 200 fałszywych informacji. Przykładami takich fake-newsów są doniesienia o tajnych laboratoriach biologicznych Stanów Zjednoczonych na terytorium Ukrainy, czy wykorzystaniu przez Wołodymira Załeńskiego pomocy finansowej dla Ukrainy na zakup posiadłości w Niemczech, którą miał w przeszłości odwiedzać… Adolf Hitler.
Fałszywe przekazy wpływają na sposób, w jaki systemy sztucznej inteligencji przetwarzają i prezentują informacje. Modele AI, takie jak Chat GPT, Copilot czy Gemini, uczą się na podstawie ogromnych zbiorów danych z internetu, są zatem narażone na wpływ dezinformacji, co może prowadzić do poważnych zaburzeń w przekazywaniu rzetelnych informacji.
Wojciech Głażewski, dyrektor firmy Check Point Software Technologies w Polsce, podkreśla, że dezinformacja rozprzestrzeniana przez sieć Pravda ma potencjał destabilizacji procesów demokratycznych.
Jeśli narzędzia generatywnej sztucznej inteligencji będą powielać narracje dezinformacyjne, mogą wpływać na opinię publiczną i decyzje wyborcze bez świadomości użytkowników. W związku z tym istnieje pilna potrzeba wprowadzenia skutecznych mechanizmów filtrowania, które umożliwią wykrywanie i wykluczanie źródeł dezinformacji z danych treningowych modeli AI – uważa ekspert Check Pointa.
fot. Freepik
Rosyjska dezinformacja obecna nawet w narzędziach AI
Niedawna analiza przeprowadzona przez NewsGuard wykazała, że aż 33% przekazywanych treści przez popularne systemy AI jest wynikiem propagandy rosyjskiej, co rodzi poważne konsekwencje dla bezpieczeństwa informacji i stabilności procesów demokratycznych.
Sprawa dezinformacji nie dotyczy jedynie technologii, ale ma także wymiar społeczny i polityczny. Z danych opublikowanych przez EUvsDisinfo Lab oraz Światowe Forum Ekonomiczne (WEF) wynika, że Polska jest jednym z krajów najbardziej narażonych na kampanie dezinformacyjne, a szczególnie na wpływy rosyjskiej propagandy, zwłaszcza w okresie przed wyborami prezydenckimi 2025. W ciągu ostatnich 10 lat Polska doświadczyła 1,443 przypadków kampanii dezinformacyjnych, a według raportu Financial Times, liczba przypadków fałszywych informacji i deepfake’ów w Polsce wzrosła o 100% w 2024 roku. W ramach walki z dezinformacją istotne jest podnoszenie świadomości społecznej, przekazywanie wiedzy na temat mechanizmów działania dezinformacji, jej celów oraz sposobów radzenia sobie z manipulacją informacyjną. Proces ten wymaga nie tylko technologicznych innowacji, ale także szeroko zakrojonej współpracy między krajami, organizacjami międzynarodowymi oraz sektorem technologicznym. Transparentna wymiana informacji oraz wspólne wysiłki w monitorowaniu kampanii dezinformacyjnych są kluczowe, aby przeciwdziałać zagrożeniom wynikającym z manipulacji danymi.
Technologia deepfake sterowała wyborami w Polsce?
oprac. : eGospodarka.pl
Przeczytaj także
Skomentuj artykuł Opcja dostępna dla zalogowanych użytkowników - ZALOGUJ SIĘ / ZAREJESTRUJ SIĘ
Komentarze (0)
Najnowsze w dziale Wiadomości
-
Kiedy sukces przestaje smakować. Wypalenie przedsiębiorcy w czasach wzrostu firmy. Jak je rozpoznać i czym grozi?
-
Badania internetu Gemius/PBI II 2026
-
Ceny ropy rosną, firmy liczą koszty. Czy konflikt na Bliskim Wschodzie uderzy w rynek pracy w Polsce?
-
Świadome zarządzanie ryzykiem ratuje życie i biznes. Czego mogą nauczyć nas Wall Street i ośmiotysięczniki?





Ceny mieszkań stabilne a zdolność kredytowa rośnie. O ile nie masz dzieci