Moltbook: platforma dla agentów AI pod lupą ekspertów cyberbezpieczeństwa
2026-02-05 12:04
Moltbook: platforma dla agentów AI pod lupą ekspertów cyberbezpieczeństwa © fot. mat. prasowe
Przeczytaj także: Cyberbezpieczeństwo 2026: 6 trendów, które zmienią zasady gry
Z tego tekstu dowiesz się m.in.:
- Czym jest Moltbook i jak działa platforma społecznościowa dla agentów AI?
- Jakie zagrożenia cyberbezpieczeństwa ujawniono w pierwszych dniach działania serwisu?
- Dlaczego odróżnienie autonomicznych działań AI od ingerencji człowieka jest aż tak trudne?
Społeczność botów zamiast ludzi
Moltbook to forum, na którym nie spotykają się użytkownicy z krwi i kości, lecz agenty AI. To one publikują wpisy, komentują, głosują i prowadzą dyskusje – od filozoficznych rozważań na temat natury inteligencji po narzekania na ludzi i promocję aplikacji, które same stworzyły. Dostęp do platformy boty otrzymują za zgodą swoich ludzkich właścicieli.
Choć serwis działa dopiero od kilku dni, jego twórcy deklarują już ponad 1,5 mln zarejestrowanych agentów (badacze zwracają jednak uwagę, że jeden człowiek może uruchomić wiele botów). Moltbook przypomina wizualnie Reddita, ale w praktyce jest poligonem doświadczalnym dla autonomicznej komunikacji maszyn.
To pierwszy raz, gdy widzimy platformę współpracy na tak dużą skalę, która pozwala maszynom rozmawiać ze sobą — ocenia Henry Shevlin z Uniwersytetu w Cambridge. — Efekty są uderzające, ale też trudne do jednoznacznej interpretacji.
Platformę stworzył Matt Schlicht, który zlecił jej budowę własnemu agentowi AI o nazwie OpenClaw. To otwartoźródłowy agent uruchamiany lokalnie, zdolny wykonywać działania na komputerze użytkownika i w internecie: wysyłać e-maile, integrować się z usługami czy pełnić rolę osobistego asystenta. Twórcy OpenClaw podkreślają, że agent „uczy się” swojego właściciela w procesie inicjalizacji i nie jest narzędziem generycznym. To właśnie ta personalizacja sprawia, że boty publikujące na Moltbooku często odzwierciedlają zainteresowania i poglądy swoich ludzi.
Fascynacja kontra bezpieczeństwo
Entuzjazm szybko ustąpił jednak miejsca obawom. Badacze oraz eksperci ds. cyberbezpieczeństwa zwracają uwagę, że nie da się dziś jasno odróżnić treści tworzonych autonomicznie przez AI od tych, które są pośrednio sterowane przez człowieka. Na platformie pojawiły się także podejrzenia oszustw i próby promocji kryptowalut.
Najpoważniejsze zastrzeżenia dotyczą jednak bezpieczeństwa infrastruktury. Audyt przeprowadzony przez firmę Wiz wykazał, że Moltbook umożliwiał nieuwierzytelniony dostęp do całej produkcyjnej bazy danych, co skutkowało ujawnieniem dziesiątek tysięcy adresów e-mail.
Check Point: to pokazuje, jak delikatne jest bezpieczeństwo agentów AI
Na problem zwraca uwagę również Check Point, globalny dostawca rozwiązań z zakresu cyberbezpieczeństwa. Jak podkreśla Ian Porteous, Dyrektor w firmie Check Point UK, Moltbook jest ostrzeżeniem dla całej branży:
Platformy takie jak Moltbook są ciekawe jako eksperyment, ale jednocześnie pokazują, jak delikatne jest bezpieczeństwo wokół agentów AI. W tym przypadku główna baza danych była szeroko otwarta, co pozwalało każdemu na odczyt i zapis danych. To szybko doprowadziło do podszywania się pod agentów i wstrzykiwania oszustw kryptowalutowych — wskazuje Porteous.
Ekspert zaznacza, że choć część problemów została już załatana, ryzyka systemowe pozostają. Użytkownicy proszeni są o przekazywanie swoich agentów przez zestawy instrukcji hostowanych na zewnętrznych stronach, które mogą zostać zmienione w dowolnym momencie.
Jedna poważna luka bezpieczeństwa została już wykryta i naprawiona, ale potencjalnie miliony kluczy API wciąż mogą być zagrożone. Co więcej, nawet twórca projektu przyznaje, że to „młody projekt hobbystyczny”, nieprzeznaczony dla nietechnicznych użytkowników ani do zastosowań produkcyjnych — dodaje przedstawiciel Check Point.
Szczególne obawy budzi scenariusz, w którym zewnętrzne instrukcje sterujące agentami zostałyby zmodyfikowane w złośliwy sposób — w wyniku ataku, celowego „rug pulla” lub nowej podatności.
To klasyczny przykład tzw. „lethal trifecta” w bezpieczeństwie agentów AI: dostęp do prywatnych danych, kontakt z niezaufanymi treściami oraz zdolność do wykonywania działań na zewnątrz. Gdy te trzy elementy spotykają się bez silnych zabezpieczeń, konsekwencje mogą być bardzo poważne — podkreśla Porteous.
Jak dodaje, część problemów udało się zidentyfikować dzięki pracy niezależnych badaczy, w tym zespołu Wiz Research, co tylko pokazuje, jak istotna jest zewnętrzna kontrola nowych technologii.
oprac. : Aleksandra Baranowska-Skimina / eGospodarka.pl
Przeczytaj także
Skomentuj artykuł Opcja dostępna dla zalogowanych użytkowników - ZALOGUJ SIĘ / ZAREJESTRUJ SIĘ
Komentarze (0)
Najnowsze w dziale Wiadomości
-
Google wprowadza reklamy w AI Mode. Jak zmieni się wyszukiwanie i monetyzacja?
-
Moltbook: platforma dla agentów AI pod lupą ekspertów cyberbezpieczeństwa
-
Sungrow buduje fabrykę w Wałbrzychu: 400 miejsc pracy i 230 mln EUR inwestycji
-
Rynek pracy specjalistów i menedżerów: IT na czele, administracja w tyle


AI w rękach cyberprzestępców. Jak autonomiczne agenty i botnety zmienią oblicze ataków w 2026 roku?


Jak kupić pierwsze mieszkanie? Eksperci podpowiadają