Raziskovalci na Univerzi v Zürichu so izvedli tajni eksperiment na družbenem omrežju Reddit. Z uporabo umetne inteligence so na podforumu r/ChangeMyView (CMV, spremeni moje mnenje) pokazali, da so klepetalni roboti zelo uspešni pri manipuliranju ljudi in lahko spremenijo njihovo mnenje.
Grozljivi rezultati, ki bi nas morali vse skrbeti, pa niso tisto, kar je razjezilo uporabnike družbenih omrežij, temveč prav dejstvo, da niso bili opozorjeni na sodelovanje v poskusu.
Uporabniki družbenih omrežij so javno pozvali Univerzo v Zürichu, naj razišče to vedenje in se opraviči, piše Science. Vodstvo Reddita pa raziskovalcem grozi s tožbo, je poročal LiveScience.
Raziskovalci, ki so se zdaj odločili, da ne bodo objavili rezultatov svoje študije, so izvedli poskus na podforumu, kjer skoraj 4 milijone uporabnikov razpravlja o kontroverznih temah. Na tem podforumu uporabniki objavljajo svoja stališča o najrazličnejših temah in vabijo druge k razpravi o njih, vse z namenom, da bi razumeli različne perspektive o določenih vprašanjih, poroča Science.
Znanstveniki so na ta podforum poslali "vojsko klepetalnih robotov", da bi preverili, ali lahko vplivajo na mnenja ljudi.
Medtem ko je potekal skrivni eksperiment, so ti klepetalni roboti na podforumu pustili 1700 komentarjev pod različnimi preoblekami – kot moški, ki je bil žrtev posilstva in zmanjšuje pomen svoje travme, kot svetovalec za nasilje v družini, ki trdi, da so ranljive le ženske, ki so imele preveč zaščitniške starše, kot Afroameričan, ki nasprotuje gibanju Black Lives Matter ... Vsega skupaj so imeli skupno 34 profilov, poskus pa je trajal 4 mesece.
Raziskovalci so nato moderatorjem sporočili, da so izvedli poskus, in jim poslali prvo različico zbranih podatkov.
"Moderatorska ekipa mora obvestiti skupnost CMV o nepooblaščenem poskusu, ki so ga na uporabnikih izvedli raziskovalci z Univerze v Zürichu. Menimo, da je to narobe. Ne mislimo, da je razlaga, da 'tega še nikoli niso storili', opravičilo za takšne poskuse," so sporočili moderatorji podforuma in zagrozili s tožbo.
Prva različica, poroča LiveScience, je pokazala, da so klepetalni roboti z umetno inteligenco od 3 do 6-krat bolj prepričljivi kot ljudje.
Najbolje so se odrezali komentarji, ki so podali nekaj informacij o samem komentatorju ali, v tem primeru, domnevne informacije.
Tako se to pač dela
"Mislim, da je razumno pričakovati, da je potrebna privolitev za to, da bo nekdo sodeloval v znanstvenem poskusu," je za Science povedala Casey Fiesler, strokovnjakinja za raziskovalno etiko na Univerzi v Koloradu v Boulderju.
"Reddit običajno ne dovoljuje vsebin, ustvarjenih z umetno inteligenco, etične meje pa so bile presežene, ker so bile takšne vsebine uporabljene za spreminjanje vedenja ljudi in nato spremljanje učinkov tega. Za tovrstne raziskave je potrebno soglasje, ki ga raziskovalci niso zahtevali."
"V časih, ko je veliko kritik, po mojem mnenju upravičenih, na račun tehnoloških podjetij, ki ne spoštujejo človekove zasebnosti, je zelo pomembno, da se raziskovalci držijo višjih standardov. V tem primeru raziskovalci tega niso storili," pa je za New Scientist povedala Carissa Veliz z Univerze v Oxfordu.
Po drugi strani pa je bilo opravljenih veliko študij o umetni inteligenci in prepričevanju v laboratorijskih poskusih, zato je eksperimentiranje na spletnih platformah za raziskovalce zelo privlačno.
"Ključnega pomena je, da ta vprašanja preučimo 'v naravi'," je dejal Thomas Costello, psiholog na Tehnološkem inštitutu v Massachusettsu (MIT).