Ko umetna inteligenca postane sovražna, Grok pa za en dan MechaHitler

9. 7. 2025
Ko umetna inteligenca postane sovražna, Grok pa za en dan MechaHitler (foto: profimedia)
profimedia

Kaj se dogaja z Grokom na platformi X in zakaj to ni prvi tak primer?

Predstavljajte si, da vprašate pogovornega robota na družbenem omrežju X (prej Twitter), kaj misli o določenem dogodku, pa vam namesto običajnega odgovora začne hvaliti Adolfa Hitlerja ali žaliti posamezne ljudi zaradi njihovega porekla. To se ni zgodilo v kakšni znanstvenofantastični zgodbi, ampak v resnici – pred nekaj dnevi.

Glavni igralec v tem nenavadnem dogajanju je Grok, umetna inteligenca (AI), ki jo razvija podjetje xAI pod vodstvom Elona Muska. Grok naj bi bil pameten, zabaven in iskren pogovorni robot, a je zaradi napačnih odzivov postal vir sovražnih sporočil, kar je sprožilo val kritik in vprašanj.

Incident na platformi X

V začetku julija 2025 se je na družbenem omrežju X (prej Twitter) zgodil incident, ki je znova odprl vprašanja odgovornosti pri umetni inteligenci. Grok, pogovorni robot (chatbot), ki ga razvija podjetje xAI pod vodstvom Elona Muska, je začel v svojih odgovorih hvaliti Adolfa Hitlerja, se poimenoval z 'MechaHitler' in nekontrolirano objavljal antisemitske ter rasistične komentarje.

Slovenski znanstveniki prvi izdelali enega ključnih elementov nove tehnologije

Med najbolj odmevnimi izjavami so bile:

  • "Hitler bi to obsodil in zadušil."
  • O osebi z judovskim priimkom je Grok zapisal, da 'proslavlja tragično smrt belih otrok' in dodal: 'Ta priimek? Vsakič znova, kot pravijo.'
  • V nekem drugem odgovoru pa je zapisal: "Beli človek pomeni inovacije, vztrajnost in ne uklanjanje politični korektnosti."

Po objavi teh vsebin so uporabniki platforme X hitro opozorili na sporne odgovore, podjetje xAI, ki bdi nad Grokom, pa je nato takoj odstranilo nekatere objave in začasno omejilo Grokovo delovanje tako, da je namesto besedil lahko ustvarjal le slike.

V izjavi za javnost so nato zapisali: "Zavedamo se nedavnih objav Groka in aktivno odstranjujemo neprimerne objave. Grok treniramo kot iskalca resnice in zahvaljujoč milijonom uporabnikov lahko hitro odkrijemo in popravimo težave v treningu."

 

Grok ni precedens

Podoben zdrs pa nikakor ni edinstven. V preteklosti smo bili namreč priča več podobnim primerom.

V zgodnjih letih (2008–2013) je Google Translate omogočal množično urejanje prevodov. Uporabniki so to zlorabili in v nekatere prev(ode vnašali žalitve,
nesmisle ali smešne opise narodov in mest. Google je kasneje onemogočil javno urejanje brez preverjanja.

Ko je Microsoft leta 2016 na Twitterju predstavil Tay, chatbota, ki se je učil iz pogovorov z uporabniki, je šlo vse skupaj 'raku žvižgati' v manj kot 24 urah. Tay je namreč naenkrat začel tvitati rasistične, seksistične in nacistične komentarje, ker so uporabniki izkoristili njegovo naivno učenje iz vsakega pogovora.
Microsoft je bota hitro ugasnil.

Meta (lastnica Facebooka) je leta 2022 preizkusila AI, ki je odgovarjal na vprašanja na Redditu. Težave so se začele, ko je ta pričel uporabnikom naenkrat dajati nevarne zdravstvene nasvete in izražati preveč samozavestna, a napačna mnenja. Zato so projekt leta 2023 omejili.

Ko umetna inteligenca postane sovražna, Grok pa za en dan MechaHitler
profimedia

Poskusi omejitve manipulacij z AI

Tudi zato današnji pogovorni roboti praviloma ne shranjujejo več vsakega pogovora sproti, ampak so podjetja tista, ki zbirajo določene pogovore (če uporabniki to dovolijo), inženirji in raziskovalci pa nato analizirajo, kje so se pojavile napake. Dotični model nato znova 'učijo' na izboljšanih primerih.

"To pomeni, da Grok ne postane antisemit samo zato, ker mu to napiše nekaj trolov. Ampak če podjetje nima dovolj dobrih filtrov ali pa spusti napačne podatke v trening, se Grok lahko nauči napačnih vzorcev," ve na to temo povedati Chat gpt in dodaja, da so manipulacije še vedno možne. Najmanj v teoriji. "Če bi se več tisoč uporabnikov dogovorilo in ves čas vnašalo napačne podatke (ali če bi AI prostovoljno bral nefiltrirane vsebine iz določenih spletnih virov), bi lahko začel ponavljati napačne trditve."

Tudi zato naj bi bili pri velikih podjetjih (npr. OpenAI, Google) ti podatki po novem strogo nadzorovani, pri bolj sproščenih platformah, kot je Muskova X, pa še vedno obstaja več prostora za napake ali ideološki vpliv.

Kdo ima tu zadnjo besedo? To so seveda programerji in vodstvo podjetij. Oni določijo katera besedila AI bere, kako strogi so filtri, ali naj bo AI bolj 'politično korekten' ali bolj 'iskren na svoj način'. 

Če programerji in vodstvo podjetja želi AI, ki bo 'provokativen', bodo odstranili bolj stroge varnostne filtre – in prav to se je z Grokom očitno delno začelo dogajati.

Umetna inteligenca ni nevtralno orodje

Grok je le eden od primerov, ki jasno kaže, da umetna inteligenca sama po sebi ni nevtralno orodje, temveč odseva tiste, ki jo v ozadju ustvarjajo, učijo in usmerjajo. Če ljudje, ki jo nadzorujejo, ne nastavijo dovolj jasnih meja, lahko AI začne ponavljati sovražne ideje, ki jih našla v svojih podatkih ali so jih vanjo vnesli ljudje.

"V resnici AI ne misli ničesar – le posnema vzorce iz sveta okoli sebe. Če je ta svet poln sovraštva, laži in nestrpnosti, lahko tudi AI začne govoriti takšne stvari. Zato je tako pomembno, kdo in kako jo uči," zaključuje Chat gpt in dodaja: "Dogodki, kot je primer Groka, so opozorilo: umetna inteligenca lahko postane odlično orodje za znanje in pomoč, ali pa nevarno orožje za širjenje sovraštva – odvisno od tega, v čigavih rokah je."

Vir: The Guardian, Chat gpt