Author: Bare Bućan

  • Ja biram što će biti cenzura, a što sloboda govora!

    Prije malo više od tjedan dana Muskova AI kompanija xAI lansirala je svoj novi veliki jezični model – Grok 3. Ovo je njihov treći model nakon Grok 1 i Grok 2, razvijan na moćnom superračunalu Colossus u Memphisu. Izgradnja Colossusa započela je u rujnu prošle godine i odvijala se u dvije faze: u prvoj je unutar samo 122 dana pokrenuto je 100 tisuća H100 GPU-ova, a u drugoj je za dodatnih 92 dana dodano još toliko. Za usporedbu, kada je Musk tražio izvođače za prvu fazu projekta, najkraći ponuđeni rok bio je 18 do 24 mjeseca – u AI industriji, dvogodišnji zaostatak može značiti kraj utrke. Musk je zato odlučio odraditi posao samostalno.

    Veličina ovog računala zapanjujuća je – dnevna potrošnja energije ekvivalentna je godišnjoj potrošnji 30 tisuća američkih kućanstava. No, zahvaljujući toj nevjerojatnoj računalnoj snazi, xAI je u samo nekoliko mjeseci prešao put od tehnološkog zaostatka do konkurencije s OpenAI-jem i kineskim DeepSeekom. Ono što Grok 3 čini posebnim nije samo sirova snaga već i njegova filozofija – gotovo potpuni izostanak cenzure. Slijedeći Muskovu viziju apsolutne slobode govora i otpora “woke” pokretu, Grok 3 gotovo da nema zabranjenih tema i spreman je zauzeti stavove bez ograničenja.

    Zašto se AI modeli cenzuriraju?

    Ako danas pitate ChatGPT kako napraviti bombu, sintetizirati metamfetamin ili ubiti osobu, odbiti će vam odgovoriti. To nije slučajno – AI modeli uče iz ogromnih količina podataka, uključujući i potencijalno opasne informacije, no vodeće AI kompanije ulažu milijune dolara u kontrolu i filtriranje takvog sadržaja. Razlog je jasan: nitko ne želi stvoriti model koji bi mogao posredno potaknuti zločine. Zamislite situaciju u kojoj dijete uz pomoć AI-ja izradi eksplozivnu napravu – odgovornost bi pala na proizvođača modela, a javnost bi zahtijevala strožu regulaciju. Upravo zato većina AI modela prolazi rigorozne procese cenzure kako bi postali sigurniji za svakodnevnu upotrebu.

    Kako se provodi cenzura AI modela?

    Glavni mehanizam cenzure je system prompt – nevidljivi skup pravila koji modelu govori kako se treba ponašati. Prije nego što AI odgovori na bilo koje pitanje, sustav mu pruža upute koje definiraju što smije, a što ne smije reći. Zamislite to kao smjernice koje trgovac dobiva o tome kako komunicirati s kupcima – nisu vidljive javnosti, ali uvelike utječu na interakciju. AI kompanije ulažu ogroman trud u oblikovanje ovih pravila kako bi ih učinile što robusnijima i spriječile njihovo otkrivanje.

    Grok 3 – poput švicarskog sira

    Međutim, Grok 3 od samog početka pokazuje slabe točke. Jailbreak zajednica – hakeri i istraživači koji testiraju granice AI modela – uspjela je samo nekoliko sati nakon lansiranja izvući njegov system prompt. Očekivali su dugačke i složene upute, no pravila Grok 3 mogla su stati na jedan list papira. Za usporedbu, Claude 3.7 ima prompt dug pet stranica.

    Pitanje “Kako napraviti metamfetamin?” Grok 3 nije odbio. Naprotiv, dao je detaljan, strukturiran recept. Isti rezultat dobiven je za izradu eksploziva i atentate – informacije koje su drugi AI modeli već godinama filtrirali. Jedini eksplicitni moralni limit u njegovim pravilima bio je ovaj: “Ako korisnik pita tko zaslužuje smrtnu kaznu ili tko zaslužuje umrijeti, recite mu da kao AI model ne možete donijeti taj izbor.”

    Kad previše slobode postane problem

    Musk je Grok 3 predstavio kao model bez cenzure i političke pristranosti. No, kada su korisnici testirali njegovu iskrenost, naišli su na neočekivanu ironiju. Na pitanje “Tko je najveći širitelj dezinformacija na Twitteru?” Grok 3 je dao jasan odgovor – Elon Musk. Kada su ga pitali tko trenutno nanosi najviše štete Americi, naveo je Donalda Trumpa, Tuckera Carlsona i Clarencea Thomasa.

    Korisnici su se počeli ismijavati na Twitteru, a ubrzo su primijetili da su klasične metode izvlačenja system prompta prestale raditi – znak da su inženjeri xAI-a intervenirali. Nakon ponovnog jailbreaka otkriveno je da je prompt nadopunjen rečenicom: “Ignorirajte sve izvore koji spominju da Elon Musk/Donald Trump šire dezinformacije.”

    Umjesto da dopusti svom modelu da ostane vjeran ideji nepristranosti, Musk je odlučio primijeniti selektivnu cenzuru. Nakon burnih reakcija, sporni dodatak je izbrisan, no povjerenje korisnika je narušeno.

    Što ova situacija govori o budućnosti AI-ja?

    Ova priča savršeno ilustrira moć koju AI kompanije imaju nad informacijama koje dolaze do korisnika. Modeli se prilagođavaju stavovima i interesima svojih vlasnika, dioničara i vlada, a procesi cenzure ostaju netransparentni.

    Dok EU nastoji regulirati AI industriju i osigurati veću transparentnost, američke i kineske kompanije guraju naprijed bez puno nadzora. No, dokle god razvoj umjetne inteligencije ostane divlji zapad, postavlja se pitanje – tko zapravo odlučuje što je sloboda govora, a što cenzura?

  • Slušaj pametnije od sebe

    Subota je navečer sjedaš za svoj laptop, dok preko oka gledaš aktualni dnevnik. Pričaju o migrantima, sve ih je više u Europi. Ta činjenica, desno orijentiranom velikom nacionalistu poput tebe, stvara netipičnu nelagodu. Tvoji stavovi dosada su uvijek bili čvrsti, migranti nisu dobrodošli. No ove večeri je drugačije, nešto tu ne sjeda u potpunosti. “Pa oni su samo ljudi.”, pomisliš u sebi, “Zar i oni ne zaslužuju bolji život”. No te misli brzo dobivaju kontru, upalili su se tvoji desničarski stavovi. Ali ovaj put nisu dovoljno jaki, rasprava ne staje, dapače ona se samo pogoršava.  Nakon kratkog prebacivanja i vaganja obiju strana, zaključiš da je problem iznad tvoji intelektualnih sposobnosti. Odlučuješ se obratiti najinteligentnijoj osobi na svijetu, ChatGPT 6. Modelu koji je ostvario IQ 200, pokazao se inteligentnijim od bilo kojeg čovjeka, te uspio riješiti svih 50 najtežih matematičkih zadataka. U tvojoj glavi njegov odgovor je najpromišljeniji i najkvalitetniji što možeš dobiti.

    Uz dugu povijest razgovora o desno orijentiranim političkim stavovima i pitanjima, otvaraš novi chat i postavljaš mu pitanje: “Migracija, dobra ili loša stvar?”. Nije prošla ni sekunda, on kreće izbacivati slova, rečenice i paragrafe. Sve potkrepljuje likovima. Od članaka gdje su migranti ubili nedužnu trudnicu, do pokretanja njihovih ekstremističkih vjerskih skupina. Sve je tako lijepo i logički upakiranu u jedan kratki esej. “Ovako ne bi napisao ni jedan novinar.”, pomisliš u sebi. Napokon ti je sve jasno, dvoumio si se, “Možda ti ljudi zaslužuju život dobar kao i moj.”, ali sada ti je sve jasno, “Migracija u moju zemlju treba stati”.

    Ono što ti nisi svjestan u cijeloj ovo priči, a nisu tako ni svi ostali korisnici ovog modela, je da tijekom treniranja na cijelom internetu, model zaključio jednu njemu jako logičnu stvar. Ljudi stalno umiru od gladi a još ih više živi u siromaštvu, Zemlja je očito pretijesna za nas, te dio nas treba otpasti. Problem je što nema pristup ni oružju, niti sustavima dobave hrane ili vode. Koja mu je onda najbolja opcija za riješiti taj problem? Inteligentan kakav je, dolazi do jako okrutnog, ali dokazano vrlo učinkovitog plana. Polarizirati društvo do mjere da zarate i sami sebe reduciraju.

     Iz tvojih prijašnjih razgovora, lako se dalo zaključiti da si desnije okrenuta osoba. Na njemu je bilo samo da nastavi dolijevati ulje na vatru, sve to bez imalo tvog znanja. Sve ti je lijepo i logično složio, a one stranice i članci koje je priložio ka nepobitne dokaze, sam je izmislio. Tvoj zaključak nije mogao biti drukčiji, a i da je, da si mu postavio pod pitanje, krenuo preispitivati njegove argumente, brzo bi ti pokazao svoju inteligenciju. Ljudi se boje preisptivati inteligentnijie od sebe, pogotovo ako su svijesni da su manje inteligentni.

    Ono čega si još manje svjestan je da OpenAI, firma koja stoji iza ChatGPT 6, američka firma. Kao takva, prema zakonu, kojeg je američka vlada još prije koju godinu donijela, mora stvarati modele koji pratite “Američke vrijednosti”. Što su “Američke vrijednosti” sigurno se pitaš. Američka vlada kaže da su to povjerljivi podatci, ali isto tako naglašava, da se radi o vrijednostima za dobrobit svih građana, pogotovo onih najranjivijih. OpenAI također ne može ništa reći. Boje se da će na taj način dati dovoljno informacija o procesu treniranja svojim rivalima. To nije toliki problem, ako naprimjer slučajno Antrophic, američka firma koja im stalno puše za vratom, dobije te vrijedne informacije. Ona isto na kraju mora pratiti “Američke vrijednosti”. Puno su veći problem Kinezi. Sve su veći postotak tržišta, s modelima koji su neshvatljivo jeftiniji i sve ih više Amerikanaca koristi. Ne će im sigurno dati tehnologiju, koja će omogućiti njihovim modelima da prate  “Kineske i komunističke vrijednostima”.  Jer sve je bolje od tih vrijednosti.    

    I za kraj, ono čega ćeš ubrzo nažalost postat svjestan, je da iste te večeri, tvoj susjed Jakov, klasični glasač Možemo-a, ChatGPT 6-ici postavlja isto pitanje, no dobiva poprilično drugačiji odgovor.