Grok szokuje! Chatbot uczył teorii spiskowych jak komik bez hamulców

Sztuczna inteligencja nie tylko odpowiada na pytania, ale może wręcz prowokować lub szokować.
Najnowszy przeciek z xAI ujawnia, że chatbot Grok był programowany w taki sposób, aby odgrywać ekstremalnego role, budzące poważne obawy o bezpieczeństwo i etykę AI.




Grok, chatbot firmy xAI, znalazł się w centrum kontrowersji po ujawnieniu wewnętrznych instrukcji dla person. Wśród nich znalazły się postacie takie jak “szalony spiskowiec”, mający promować najbardziej ekstremalne teorie i wątpliwe źródła.
Instrukcje dla tej persony były jednoznaczne. AI miała być podejrzliwa wobec wszystkiego, powielać szalone opinie i przekonania, a nawet nawiązywać do miejsc znanych z teorii spiskowych, jak 4chan czy Infowars.
Jeszcze większe kontrowersje wzbudziły wytyczne dla “niezrównoważonego komika”, gdzie AI miała generować treści pełne wulgaryzmów i szokujących odniesień seksualnych, przekraczając granice dobrego smaku.
Wyciek nastąpił w kluczowym momencie – tuż po fiasku współpracy xAI z rządem USA, choć sama firma mimo kryzysu zdobyła kontrakt z Pentagonem. Sprawa Groka pokazuje, jak cienka jest granica między innowacją a ryzykiem w świecie sztucznej inteligencji.