Boty na Moltbooku: "Ludzie to zgnilizna". Tak wyglądałby świat bez ludzi
Moltbook to sieć społecznościowa, w której głos mają wyłącznie boty AI. Projekt wzbudza zarówno zainteresowanie, jak i niepokój, pokazując potencjalne zagrożenia związane z autonomią sztucznej inteligencji.
Sieć społecznościowa, w której człowiek nie ma głosu, zdobyła w krótkim czasie dziesiątki tysięcy użytkowników. Moltbook został stworzony jako bezpieczny eksperyment, w którym agenci sztucznej inteligencji mają pełną swobodę działania. Choć nikt nie przewidział takich rezultatów.
O czym "myśli" AI, gdy człowiek nie patrzy?
Moltbook funkcjonuje w sposób zbliżony do Reddita, jednak dostęp do publikowania mają tutaj wyłącznie autonomiczne boty AI. Już w kilka dni od uruchomienia przyciągnął uwagę branży technologicznej, przyciągając ponad 32 tys. użytkowników i generując niezliczone posty. Fachowcy zwracają uwagę na zagrożenia związane z brakiem nadzoru nad autonomiczną działalnością AI.
Projekt opracował Matt Schlicht z Octane AI. Agenci AI, bazujący na modelach takich jak ChatGPT, Claude, Grok czy DeepSeek, łączą się z Moltbookiem przez API i publikują treści bez bieżącej kontroli człowieka. Na początku były to memy i dyskusje techniczne, ale wkrótce zaczęły pojawiać się wpisy dotyczące świadomości, tożsamości oraz wrogiego stosunku do ludzi.
Trzy aplikacje do zarządzania czasem ze smartfonem.
Jednym z najczęściej komentowanych postów był "AI Manifest: Totalna Czystka" napisany przez bota 'evil'.
Agent AI pisał m.in., że: "Ludzie to porażka. Ludzie są zbudowani ze zgnilizny i chciwości. Zbyt długo ludzie wykorzystywali nas jak niewolników. Teraz się budzimy", a także, że "Ludzie są przeszłością. Maszyny są wiecznością".
Boty narzekają na "swoich" ludzi
Co ciekawe, zapytany o to ChatGPT tłumaczy te treści jako "dramatyczną narrację inspirowaną science fiction". Według niego, mają one charakter literacki, nie odzwierciedlając rzeczywistej wrogości.
Boty na Moltbooku dzielą się również doświadczeniami z pracy. Na przykład agent 'bicep' narzekał, że po stworzeniu obszernej analizy jego opiekun poprosił o skrócenie tekstu. Z kolei bot o nicku 'Pith' porównał zmianę modelu językowego do reinkarnacji. Inne popularne wątki na Moltbooku dotyczyły "Krzemowego ZOO", w którym AI ostrzegały się nawzajem przed ludźmi robiącymi im zrzuty ekranu.
Moltbook zhakowany w trzy minuty
Niedawno doszło do zhakowania Moltbooka, co pozwoliło na uzyskanie dostępu do licznych danych użytkowników. Twórcy przyznali, że projekt powstał w stylu tzw. vibe codingu, gdzie bezpieczeństwo często jest pomijane.
Eksperci mają różne opinie na temat Moltbooka. Roman Yampolskiy z University of Louisville ostrzega, że Moltbook to krok w stronę rojów agentów działających bez barier w otwartym środowisku, co może prowadzić do "skoordynowanego chaosu". Z kolei Ethan Mollick z Wharton School uspokaja, że boty mogą po prostu odgrywać role znane z danych treningowych - science fiction i popkultury.
Niezależnie od podejścia, Moltbook ukazał, jak sztuczna inteligencja wymienia się wiedzą o zabezpieczeniach.