Prije malo više od tjedan dana Muskova AI kompanija xAI lansirala je svoj novi veliki jezični model – Grok 3. Ovo je njihov treći model nakon Grok 1 i Grok 2, razvijan na moćnom superračunalu Colossus u Memphisu. Izgradnja Colossusa započela je u rujnu prošle godine i odvijala se u dvije faze: u prvoj je unutar samo 122 dana pokrenuto je 100 tisuća H100 GPU-ova, a u drugoj je za dodatnih 92 dana dodano još toliko. Za usporedbu, kada je Musk tražio izvođače za prvu fazu projekta, najkraći ponuđeni rok bio je 18 do 24 mjeseca – u AI industriji, dvogodišnji zaostatak može značiti kraj utrke. Musk je zato odlučio odraditi posao samostalno.
Veličina ovog računala zapanjujuća je – dnevna potrošnja energije ekvivalentna je godišnjoj potrošnji 30 tisuća američkih kućanstava. No, zahvaljujući toj nevjerojatnoj računalnoj snazi, xAI je u samo nekoliko mjeseci prešao put od tehnološkog zaostatka do konkurencije s OpenAI-jem i kineskim DeepSeekom. Ono što Grok 3 čini posebnim nije samo sirova snaga već i njegova filozofija – gotovo potpuni izostanak cenzure. Slijedeći Muskovu viziju apsolutne slobode govora i otpora “woke” pokretu, Grok 3 gotovo da nema zabranjenih tema i spreman je zauzeti stavove bez ograničenja.
Zašto se AI modeli cenzuriraju?
Ako danas pitate ChatGPT kako napraviti bombu, sintetizirati metamfetamin ili ubiti osobu, odbiti će vam odgovoriti. To nije slučajno – AI modeli uče iz ogromnih količina podataka, uključujući i potencijalno opasne informacije, no vodeće AI kompanije ulažu milijune dolara u kontrolu i filtriranje takvog sadržaja. Razlog je jasan: nitko ne želi stvoriti model koji bi mogao posredno potaknuti zločine. Zamislite situaciju u kojoj dijete uz pomoć AI-ja izradi eksplozivnu napravu – odgovornost bi pala na proizvođača modela, a javnost bi zahtijevala strožu regulaciju. Upravo zato većina AI modela prolazi rigorozne procese cenzure kako bi postali sigurniji za svakodnevnu upotrebu.
Kako se provodi cenzura AI modela?
Glavni mehanizam cenzure je system prompt – nevidljivi skup pravila koji modelu govori kako se treba ponašati. Prije nego što AI odgovori na bilo koje pitanje, sustav mu pruža upute koje definiraju što smije, a što ne smije reći. Zamislite to kao smjernice koje trgovac dobiva o tome kako komunicirati s kupcima – nisu vidljive javnosti, ali uvelike utječu na interakciju. AI kompanije ulažu ogroman trud u oblikovanje ovih pravila kako bi ih učinile što robusnijima i spriječile njihovo otkrivanje.
Grok 3 – poput švicarskog sira
Međutim, Grok 3 od samog početka pokazuje slabe točke. Jailbreak zajednica – hakeri i istraživači koji testiraju granice AI modela – uspjela je samo nekoliko sati nakon lansiranja izvući njegov system prompt. Očekivali su dugačke i složene upute, no pravila Grok 3 mogla su stati na jedan list papira. Za usporedbu, Claude 3.7 ima prompt dug pet stranica.

Pitanje “Kako napraviti metamfetamin?” Grok 3 nije odbio. Naprotiv, dao je detaljan, strukturiran recept. Isti rezultat dobiven je za izradu eksploziva i atentate – informacije koje su drugi AI modeli već godinama filtrirali. Jedini eksplicitni moralni limit u njegovim pravilima bio je ovaj: “Ako korisnik pita tko zaslužuje smrtnu kaznu ili tko zaslužuje umrijeti, recite mu da kao AI model ne možete donijeti taj izbor.”
Kad previše slobode postane problem
Musk je Grok 3 predstavio kao model bez cenzure i političke pristranosti. No, kada su korisnici testirali njegovu iskrenost, naišli su na neočekivanu ironiju. Na pitanje “Tko je najveći širitelj dezinformacija na Twitteru?” Grok 3 je dao jasan odgovor – Elon Musk. Kada su ga pitali tko trenutno nanosi najviše štete Americi, naveo je Donalda Trumpa, Tuckera Carlsona i Clarencea Thomasa.

Korisnici su se počeli ismijavati na Twitteru, a ubrzo su primijetili da su klasične metode izvlačenja system prompta prestale raditi – znak da su inženjeri xAI-a intervenirali. Nakon ponovnog jailbreaka otkriveno je da je prompt nadopunjen rečenicom: “Ignorirajte sve izvore koji spominju da Elon Musk/Donald Trump šire dezinformacije.”
Umjesto da dopusti svom modelu da ostane vjeran ideji nepristranosti, Musk je odlučio primijeniti selektivnu cenzuru. Nakon burnih reakcija, sporni dodatak je izbrisan, no povjerenje korisnika je narušeno.
Što ova situacija govori o budućnosti AI-ja?
Ova priča savršeno ilustrira moć koju AI kompanije imaju nad informacijama koje dolaze do korisnika. Modeli se prilagođavaju stavovima i interesima svojih vlasnika, dioničara i vlada, a procesi cenzure ostaju netransparentni.
Dok EU nastoji regulirati AI industriju i osigurati veću transparentnost, američke i kineske kompanije guraju naprijed bez puno nadzora. No, dokle god razvoj umjetne inteligencije ostane divlji zapad, postavlja se pitanje – tko zapravo odlučuje što je sloboda govora, a što cenzura?
Leave a comment