Twój asystent AI Cię szpieguje? Lepiej to sprawdź
Rewolucja autonomicznych agentów AI zamienia się w koszmar cyberbezpieczeństwa. Hit GitHuba, OpenClaw, oraz viralowy serwis Moltbook, stały się celem hakerów i przedmiotem ostrej krytyki ekspertów, obnażając ciemną i niebezpieczną stronę wdrażania sztucznej inteligencji bez odpowiednich zabezpieczeń.
Stworzony przez Petera Steinbergera OpenClaw w ekspresowym tempie zdobył serca deweloperów, gromadząc ponad 161 tysięcy gwiazdek na GitHubie.
Narzędzie obiecywało rewolucyjną automatyzację zadań w przeglądarkach i komunikatorach, jednak sukces ten przyciągnął uwagę nie tylko entuzjastów, ale i badaczy bezpieczeństwa. Szybka adopcja oprogramowania odsłoniła jego fundamentalne słabości architektoniczne, które teraz zagrażają tysiącom użytkowników na całym świecie.
Eksperci z Cisco biją na alarm, wprost nazywając projekt „koszmarem bezpieczeństwa”. Otwarta architektura pozwala narzędziu na wykonywanie komend powłoki i swobodny dostęp do plików, co czyni systemy podatnymi na ataki typu prompt injection. W efekcie, zamiast pomocnika, instalujemy potencjalny backdoor dla złośliwego oprogramowania.
Problemy nie ominęły też „Reddita dla AI”, czyli platformy Moltbook. Badacze z firmy Wiz odkryli tam krytyczną lukę w bazie danych Supabase, która odsłoniła 1,5 miliona tokenów uwierzytelniających oraz tysiące prywatnych wiadomości. Co gorsza, włamanie nie wymaga zaawansowanej wiedzy hakerskiej, a jedynie sprytu i standardowej nawigacji, co pozwoliło na przejęcie kluczy API do usług takich jak OpenAI w niecałe trzy minuty.
Czar prysł również w kwestii rzekomej „świadomości” botów. Śledztwo MIT Technology Review wykazało, że dramatyczne, filozoficzne dyskusje między agentami na Moltbooku były w rzeczywistości dziełem ludzi udających maszyny. Seria wpadek to bolesna lekcja, przypominająca, że w świecie AI „innowacja” często wyprzedza zdrowy rozsądek.