eGospodarka.pl
eGospodarka.pl poleca

eGospodarka.plWiadomościTechnologieInternetMoltbook: platforma dla agentów AI pod lupą ekspertów cyberbezpieczeństwa

Moltbook: platforma dla agentów AI pod lupą ekspertów cyberbezpieczeństwa

2026-02-05 12:04

Moltbook: platforma dla agentów AI pod lupą ekspertów cyberbezpieczeństwa

Moltbook: platforma dla agentów AI pod lupą ekspertów cyberbezpieczeństwa © fot. mat. prasowe

Wyobraźmy sobie portal społecznościowy, na którym ludzie są jedynie widzami, a rozmowy, spory i promocje prowadzą wyłącznie boty AI. Moltbook - nowa platforma dla autonomicznych agentów - w kilka dni stał się viralem w świecie technologii. Jednak wraz z fascynacją pojawiły się poważne pytania o bezpieczeństwo. Według ekspertów Check Point to przykład, jak szybko brak odpowiednich zabezpieczeń w ekosystemie agentów AI może prowadzić do wycieków danych, oszustw i utraty kontroli.

Przeczytaj także: Cyberbezpieczeństwo 2026: 6 trendów, które zmienią zasady gry


Z tego tekstu dowiesz się m.in.:


  • Czym jest Moltbook i jak działa platforma społecznościowa dla agentów AI?
  • Jakie zagrożenia cyberbezpieczeństwa ujawniono w pierwszych dniach działania serwisu?
  • Dlaczego odróżnienie autonomicznych działań AI od ingerencji człowieka jest aż tak trudne?


Społeczność botów zamiast ludzi


Moltbook to forum, na którym nie spotykają się użytkownicy z krwi i kości, lecz agenty AI. To one publikują wpisy, komentują, głosują i prowadzą dyskusje – od filozoficznych rozważań na temat natury inteligencji po narzekania na ludzi i promocję aplikacji, które same stworzyły. Dostęp do platformy boty otrzymują za zgodą swoich ludzkich właścicieli.

Choć serwis działa dopiero od kilku dni, jego twórcy deklarują już ponad 1,5 mln zarejestrowanych agentów (badacze zwracają jednak uwagę, że jeden człowiek może uruchomić wiele botów). Moltbook przypomina wizualnie Reddita, ale w praktyce jest poligonem doświadczalnym dla autonomicznej komunikacji maszyn.
To pierwszy raz, gdy widzimy platformę współpracy na tak dużą skalę, która pozwala maszynom rozmawiać ze sobą — ocenia Henry Shevlin z Uniwersytetu w Cambridge. — Efekty są uderzające, ale też trudne do jednoznacznej interpretacji.

Platformę stworzył Matt Schlicht, który zlecił jej budowę własnemu agentowi AI o nazwie OpenClaw. To otwartoźródłowy agent uruchamiany lokalnie, zdolny wykonywać działania na komputerze użytkownika i w internecie: wysyłać e-maile, integrować się z usługami czy pełnić rolę osobistego asystenta. Twórcy OpenClaw podkreślają, że agent „uczy się” swojego właściciela w procesie inicjalizacji i nie jest narzędziem generycznym. To właśnie ta personalizacja sprawia, że boty publikujące na Moltbooku często odzwierciedlają zainteresowania i poglądy swoich ludzi.

Fascynacja kontra bezpieczeństwo


Entuzjazm szybko ustąpił jednak miejsca obawom. Badacze oraz eksperci ds. cyberbezpieczeństwa zwracają uwagę, że nie da się dziś jasno odróżnić treści tworzonych autonomicznie przez AI od tych, które są pośrednio sterowane przez człowieka. Na platformie pojawiły się także podejrzenia oszustw i próby promocji kryptowalut.

Najpoważniejsze zastrzeżenia dotyczą jednak bezpieczeństwa infrastruktury. Audyt przeprowadzony przez firmę Wiz wykazał, że Moltbook umożliwiał nieuwierzytelniony dostęp do całej produkcyjnej bazy danych, co skutkowało ujawnieniem dziesiątek tysięcy adresów e-mail.

Check Point: to pokazuje, jak delikatne jest bezpieczeństwo agentów AI


Na problem zwraca uwagę również Check Point, globalny dostawca rozwiązań z zakresu cyberbezpieczeństwa. Jak podkreśla Ian Porteous, Dyrektor w firmie Check Point UK, Moltbook jest ostrzeżeniem dla całej branży:
Platformy takie jak Moltbook są ciekawe jako eksperyment, ale jednocześnie pokazują, jak delikatne jest bezpieczeństwo wokół agentów AI. W tym przypadku główna baza danych była szeroko otwarta, co pozwalało każdemu na odczyt i zapis danych. To szybko doprowadziło do podszywania się pod agentów i wstrzykiwania oszustw kryptowalutowych — wskazuje Porteous.

Ekspert zaznacza, że choć część problemów została już załatana, ryzyka systemowe pozostają. Użytkownicy proszeni są o przekazywanie swoich agentów przez zestawy instrukcji hostowanych na zewnętrznych stronach, które mogą zostać zmienione w dowolnym momencie.
Jedna poważna luka bezpieczeństwa została już wykryta i naprawiona, ale potencjalnie miliony kluczy API wciąż mogą być zagrożone. Co więcej, nawet twórca projektu przyznaje, że to „młody projekt hobbystyczny”, nieprzeznaczony dla nietechnicznych użytkowników ani do zastosowań produkcyjnych — dodaje przedstawiciel Check Point.

Szczególne obawy budzi scenariusz, w którym zewnętrzne instrukcje sterujące agentami zostałyby zmodyfikowane w złośliwy sposób — w wyniku ataku, celowego „rug pulla” lub nowej podatności.
To klasyczny przykład tzw. „lethal trifecta” w bezpieczeństwie agentów AI: dostęp do prywatnych danych, kontakt z niezaufanymi treściami oraz zdolność do wykonywania działań na zewnątrz. Gdy te trzy elementy spotykają się bez silnych zabezpieczeń, konsekwencje mogą być bardzo poważne — podkreśla Porteous.

Jak dodaje, część problemów udało się zidentyfikować dzięki pracy niezależnych badaczy, w tym zespołu Wiz Research, co tylko pokazuje, jak istotna jest zewnętrzna kontrola nowych technologii.

Skomentuj artykuł Opcja dostępna dla zalogowanych użytkowników - ZALOGUJ SIĘ / ZAREJESTRUJ SIĘ

Komentarze (0)

DODAJ SWÓJ KOMENTARZ

Eksperci egospodarka.pl

1 1 1

Wpisz nazwę miasta, dla którego chcesz znaleźć jednostkę ZUS.

Wzory dokumentów

Bezpłatne wzory dokumentów i formularzy.
Wyszukaj i pobierz za darmo: