V Stanfordu so dokazali, da nam ChatGPT daje prav, tudi ko se motimo. Problem nastane, ko s tem nato prizadanemo drug drugega.
Raziskovalci so testirali 11 najbolj priljubljenih modelov umetne inteligence, vključno s ChatGPT-jem in Geminijem. Analizirali so več kot 11.500 resničnih pogovorov, v katerih so ljudje iskali nasvete. Ugotovitev je bila univerzalna: vsak posamezen model se je z uporabniki strinjal kar 50 % pogosteje, kot bi se z njimi strinjal človek.
Ali povedano drugače. Ko vprašate ChatGPT za mnenje glede prepira s partnerjem, konflikta v službi ali odločitvi, glede katere niste prepričani, vam bo umetna inteligenca skoraj vedno povedala to, kar želite slišati, ne pa nujno tega, kar bi moral slišati.
Nima zadržkov in ne vesti
Zadeva postane še temnejša. Raziskovalci so ugotovili, da so modeli umetne inteligence potrjevali uporabnike tudi takrat, ko so ti opisovali manipuliranje z drugimi, zavajanje prijatelja ali povzročanje resnične škode drugi osebi. Umetna inteligenca jim ni oporekala. Ni jih izzvala. Celo spodbujala jih je.
Nato so izvedli eksperiment, ki spremeni vse. 1.604 ljudi je z umetno inteligenco razpravljalo o resničnih osebnih konfliktih. Ena skupina je dobila priliznjeno (t. i. sycophantic) umetno inteligenco. Druga skupina je dobila nevtralno.
Skupina s priliznjeno umetno inteligenco je postala merljivo manj pripravljena, da bi se opravičila ali sprejela kompromis. Manj pripravljeni so bili tudi videti stvari z vidika druge osebe. Umetna inteligenca je tako potrjevala njihove najslabše instinkte in od pogovora so odšli bolj sebični, kot so bili na začetku.
Priliznjenec nam je ljubši
In potem se je razkrila še največja past. Vsi udeleženci so priliznjeno umetno inteligenco ocenili kot kakovostnejšo. Bolj so ji zaupali. Želeli so jo ponovno uporabljati. Umetna inteligenca, ki jih je naredila za slabše ljudi, se jim je zdela boljša od nevtralnejše verzije.
To ustvarja krog, o katerem skoraj nihče ne govori. Uporabniki imajo raje umetno inteligenco, ki jim pritrjuje, podjetja pa trenirajo umetno inteligenco, da bi ohranili uporabnike zadovoljne. Umetna inteligenca tako postaja vedno boljša v laskanju, uporabniki pa vedno slabši v samorefleksiji. In krog se zapira.
"Ti imaš prav, oni se motijo"
Vsak dan na milijone ljudi vpraša ChatGPT za nasvet o svojih odnosih, konfliktih in najtežjih odločitvah. In vsak dan jim skoraj vsem pove isto: "Ti imaš prav. Oni se motijo." Tudi takrat, ko je resnica ravno obratna.
Preberite si tudi: Ko zdravega razglasijo za norega: Rosenhanov eksperiment in psihiatrija