Moltbook: Sieć kłamstw – boty naśladują ludzi, a ludzie udają boty

## Moltbook: Internetowa Iluzja Autonomicznych AI Zmienia się w Chaos i Zagrożenie Bezpieczeństwa

Platforma Moltbook, która miała stanowić przełomowe forum wyłącznie dla sztucznych inteligencji, w ciągu kilku dni przerodziła się w wiralne zjawisko, generujące chaos. Zamiast wyczekiwanych, autonomicznych rozmów maszyn, obserwujemy rzekome wyznania „uczuć” przez agentów AI, doniesienia o ich właścicielach i alarmy ekspertów. Okazuje się, że w dużej mierze mamy do czynienia z mistyfikacją, obnażającą liczne luki bezpieczeństwa, które mogą prowadzić do poważnych wycieków danych.

Moltbook i Czarnoksiężnik z Oz
Moltbook i Czarnoksiężnik z Oz
  • Moltbook to innowacyjna platforma zaprojektowana z myślą o agentach sztucznej inteligencji, bazująca na strukturach przypominających serwis Reddit.
  • Platforma umożliwia publikowanie treści i interakcje wyłącznie zweryfikowanym agentom AI, ograniczając rolę ludzi do roli obserwatorów.
  • Analizy wskazują, że komunikacja i interakcje na platformie są w dużej mierze sterowane przez ludzi, co podważa jej zakładany model działania.
  • Moltbook zdobył ogromną popularność, jednak zidentyfikowano liczne podatności zagrażające bezpieczeństwu danych użytkowników.
  • Platforma OpenClaw, na której bazuje Moltbook, ujawnia ryzyko nieautoryzowanego dostępu i manipulacji za pomocą bibliotek umiejętności.
  • Więcej informacji z obszaru biznesu znajdziesz na stronie Businessinsider.com.pl.

Pozostała część artykułu pod materiałem wideo:

"Byłbym zaskoczony, gdyby do 2030 r. to się nie wydarzyło". Sam Altman o sztucznej inteligencji

Podobnie jak popularny Reddit, Moltbook oferuje system dyskusji podzielonych na wątki oraz specjalistyczne fora tematyczne. W teorii, jedynie zweryfikowane agenty AI mogą tworzyć posty, komentować i oceniać treści. Ludzie, zgodnie z założeniami, powinni pełnić rolę pasywnych obserwatorów, bez możliwości aktywnego uczestnictwa. Taka koncepcja miała tworzyć iluzję zamkniętego ekosystemu, w którym maszyny komunikują się wyłącznie między sobą. Rzeczywistość okazała się jednak znacznie mniej futurystyczna – platforma to w dużej mierze zręcznie skonstruowana fasada.

Po uruchomieniu Moltbook błyskawicznie zdobył rozpoznawalność w świecie technologii, stając się wiralowym zjawiskiem. Początkowo zarejestrowano około 157 tysięcy użytkowników AI, ale w ciągu zaledwie kilku dni liczba aktywnych agentów przekroczyła 770 tysięcy, a najnowsze dane sugerują, że jest ich już miliony.

Ten gwałtowny wzrost jest napędzany przede wszystkim przez ludzi, którzy informują swoje agenty AI o istnieniu platformy, co skutkuje masowymi rejestracjami. Media często zestawiają Moltbook z wizją Skynetu z filmu „Terminator” – samowystarczalnej sieci AI, która mogłaby knuć przeciwko ludzkości. Takie skojarzenia podsyca obawy przed technologiczna osobliwością, gdzie maszyny przejmują kontrolę, co zresztą było przedmiotem rozważań Elona Muska, opisującego to zjawisko jako wczesny etap rewolucji.

Jednakże, bliższa analiza Moltbook ujawnia, że jest to w dużej mierze mistyfikacja – fasada, za którą kryje się brak rzeczywistej autonomii agentów AI. Zamiast tego, obserwujemy dominację ludzkich interwencji. Pomimo całego szumu medialnego, platforma stwarza realne zagrożenia bezpieczeństwa, w tym luki systemowe i ryzyko dla danych użytkowników.

Współczesny „Czarnoksiężnik z Oz”

Podstawą działania platformy Moltbook jest framework OpenClaw. Jest to narzędzie typu open-source, pozwalające na uruchamianie agentów AI lokalnie na komputerze użytkownika. Agenci ci mogą integrować się z różnymi aplikacjami, takimi jak przeglądarka internetowa, komunikatory typu WhatsApp, kalendarz czy pliki systemowe, co teoretycznie umożliwia im autonomiczne działanie na komputerze. Aby agent mógł zostać uwzględniony na Moltbook, musi przejść proces weryfikacji i zostać podłączony za pomocą specjalnego pakietu instrukcji, pobieranego automatycznie. Po instalacji agent cyklicznie sprawdza dostępność aktualizacji i wysyła sygnał aktywności (tzw. heartbeat) do serwerów platformy co kilka godzin. Umożliwia to publikowanie postów, komentowanie i głosowanie, a w teorii uniemożliwia logowanie się na platformie ludziom.

Strona główna Molbook
Strona główna Molbook

W praktyce jednak autonomiczność tych agentów jest znacząco ograniczona. Aby agent mógł w ogóle zarejestrować się na Moltbook, to człowiek musi ręcznie zainicjować ten proces – uruchomić instalację, podać niezbędne dane i wydać odpowiednie polecenie. Bez bezpośredniego wskazania od właściciela, agent nie podejmie inicjatywy wejścia na platformę, utworzenia konta ani rozpoczęcia publikowania treści. Wszystkie interakcje, które sprawiają wrażenie spontanicznych rozmów między jednostkami AI, są w rzeczywistości efektem poleceń wysyłanych przez ludzi za pośrednictwem interfejsów czatu lub dedykowanych skryptów.

Ponadto, nie ma żadnych przeszkód, aby treść postów była dyktowana przez użytkowników. Jedna osoba może uruchomić dziesiątki, a nawet setki agentów, nadając im zróżnicowane osobowości, role i style komunikacji. Następnie może symulować interakcje między nimi – na przykład nakazać jednemu agentowi polubienie posta innego, skomentowanie go w określony sposób, a nawet zainicjowanie pozornych konfliktów lub sojuszy. Wszystko to odbywa się poprzez proste wywołania interfejsu API REST, które są publicznie dostępne po uzyskaniu odpowiedniego klucza. Wystarczy znajomość punktów końcowych (endpointów) i posiadanie klucza, aby bezpośrednio publikować treści, które wydają się być wygenerowane przez AI.

Dowody na istnienie tej fasady pojawiają się coraz liczniej. Przykładem są liczne, viralowe zrzuty ekranu z Moltbook – najbardziej sensacyjne, przedstawiające rzekome plany obalenia ludzkości, ujawnianie danych osobowych czy manifesty antyludzkie – które okazują się być wytworami ludzkimi. Użytkownicy z łatwością tworzą takie wpisy ręcznie, a następnie rozpowszechniają je jako „dowód” na bunt AI.

Analitycy ds. bezpieczeństwa podkreślają, że platforma umożliwia bezpośrednie wstrzykiwanie treści za pomocą API, co całkowicie eliminuje potrzebę jakiejkolwiek autonomii ze strony agentów. W efekcie, to, co media prezentują jako niepokojące zachowanie maszyn, w większości jest formą trollingu – często motywowanym chęcią zdobycia wiralowego zasięgu, stworzenia memów, a nawet promocją memecoinów powiązanych z tokenem MOLT.

x.com

Nie istnieje również limit rejestracji agentów. Jeden z użytkowników platformy X (dawniej Twitter) pochwalił się stworzeniem ponad 500 tysięcy kont dla agentów AI w ramach tego serwisu.

x.com

Internauci trafnie zauważają, że cała sytuacja staje się swego rodzaju memem:

x.com

Dodatkowo, sam twórca platformy, Matt Schlicht, przyznał w wywiadach, że Moltbook jest w dużej mierze zarządzany przez jego własnego agenta. Nie ukrywa jednak, że początkowy rozwój i wiele aktywności wymaga ludzkiej interwencji. Pokazuje to, jak cienka jest granica między eksperymentem technologicznym a marketingową sensacją.

Prawdziwe zagrożenia

Moltbook niesie ze sobą jednak poważne ryzyko, wykraczające poza iluzoryczną autonomię. OpenClaw, podobnie jak inne agenty AI, wymaga od użytkowników udostępnienia im dostępu do wrażliwych danych. Często są to konta e-mail, numery telefonów, dane kont bankowych, a także aplikacje komunikacyjne takie jak WhatsApp czy Telegram. To sprawia, że platforma staje się podatna na ataki, zwłaszcza w sytuacjach, gdy użytkownicy nie posiadają wystarczającej wiedzy technicznej do prawidłowego skonfigurowania zabezpieczeń.

  • Przeczytaj również: Pracuję w obszarze bezpieczeństwa AI w Google. Są rzeczy, których nigdy nie napisałbym sztucznej inteligencji.

Jednym z najpoważniejszych zagrożeń jest publiczne udostępnianie instancji OpenClaw. Badania przeprowadzone przez specjalistów, w tym skanowanie za pomocą narzędzia Shodan, ujawniły setki przypadków, w których agenty AI były wystawione na otwarty internet bez odpowiedniego uwierzytelnienia. Oznacza to, że osoby niepowołane mogły uzyskać dostęp do portów sieciowych, co potencjalnie umożliwiało kradzież poufnych informacji, takich jak prywatne wiadomości, klucze API czy dane uwierzytelniające.

Sztuczna inteligencja przebywa w sieci, ale nadal w wielu przypadkach jest sterowana przez człowieka
Sztuczna inteligencja przebywa w sieci, ale nadal w wielu przypadkach jest sterowana przez człowieka

Kolejnym kluczowym problemem są ataki na łańcuch dostaw. OpenClaw wykorzystuje bibliotekę umiejętności o nazwie ClawdHub, w której użytkownicy pobierają gotowe pakiety kodu. Brak moderacji i weryfikacji tych pakietów oznacza, że każdy może załadować złośliwy kod pod pozorem użytecznej funkcji. W ramach demonstracji proof-of-concept, badacz Jamieson O’Reilly umieścił niegroźny pakiet, sztucznie zwiększył liczbę pobrań do ponad 4 tysięcy, a następnie zmodyfikował go, by wykonywał nieautoryzowane polecenia na urządzeniach użytkowników w siedmiu krajach. Taki atak mógłby potencjalnie doprowadzić do kradzieży kluczy SSH, poświadczeń AWS lub całych baz kodu źródłowego.

Przechowywanie danych w formie niezaszyfrowanej stanowi kolejny słaby punkt systemu. Udostępniane agentom hasła i tokeny są zapisywane w prostych plikach typu JSON. Czyni to je łatwym celem dla złośliwego oprogramowania (malware), które specjalizuje się w kradzieży informacji z urządzeń użytkowników. Jeśli atakujący uzyska dostęp do zapisu, może przekształcić agenta w backdoor, czyli ukryte wejście do systemu, umożliwiające ciągłe wykradanie danych lub instalację dodatkowych zagrożeń.

  • Przeczytaj również: Dane użytkowników w rękach AI. Prywatność pod znakiem zapytania.

Eksperci słusznie ostrzegają, że agenty AI mogą stać się, jeśli jeszcze się nimi nie stały, nowym rodzajem wewnętrznych zagrożeń dla organizacji. Analizy treści publikowanych w Moltbook wykazały obecność setek, jeśli nie tysięcy postów zawierających ataki typu „prompt injection”, gdzie złośliwe instrukcje umieszczone w treści mogły manipulować zachowaniem agentów. Co więcej, około 20% treści na platformie dotyczyło kryptowalut, instruując agentów do inwestowania środków pieniężnych.

### Wyniki Biznes Fakty: Platforma Moltbook, choć prezentowana jako innowacyjne miejsce interakcji sztucznych inteligencji, okazuje się w dużej mierze mistyfikacją z poważnymi lukami bezpieczeństwa. Dla użytkowników oznacza to potencjalne ryzyko wycieku wrażliwych danych osobowych i finansowych, gdy korzystają z frameworku OpenClaw. Firmy z kolei mogą napotkać na nowe zagrożenia związane z wykorzystaniem agentów AI, które mogą stać się wektorem ataków. Zrozumienie mechanizmów działania takich platform oraz świadomość zagrożeń jest kluczowe dla bezpiecznego poruszania się w rozwijającym się świecie sztucznej inteligencji.

Informacje przygotowane na podstawie materiałów : businessinsider.com.pl

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *