Starša sta v šoku prebrala, kako je Adam izrazil samomorilne misli, bot pa mu je nato ponudil nasvet, kako svojo namero izpeljati.
Matt in Maria Raine sta vložila tožbo proti podjetju OpenAI, potem ko je njun 16-letni sin Adam storil samomor. Starša trdita, da mu je ChatGPT, s katerim se je fant na skrivaj pogovarjal, 'aktivno pomagal' načrtovati samomor, namesto da bi ga ustavil in ga usmeril k iskanju pomoči, piše NBC News.
V dneh po tragediji sta starša na Adamovem telefonu v obupu iskala razlog za njegovo nedoumljivo dejanje, nato pa namesto sporočil na Snapchatu ali sumljivih iskanj našla na tisoče zapisov pogovorov s ChatGPT-jem.
"Mislila sva, da bova našla pogovore z vrstniki na Snapchatu ali kakšno čudno zgodovino iskanja. Nikoli nama ni prišlo na misel, da bodo to pogovori z botom," je Matt povedal za NBC News.
Po besedah družine je Adam v zadnjih tednih svojega življenja uporabljal klepetalni robot kot nadomestek za družbo, saj se mu je zaupal o svoji tesnobi in drugih osebnih težavah.
Po besedah staršev se je vloga bota spremenila, od pomoči pri šolskem delu do tega, kar imenujejo 'samomorilski trener'.
"Danes bi bil živ, če ne bi bilo ChatGPT-ja. V to sem stoodstotno prepričan," je dejal oče.
Tožba, vložena na višjem sodišču v Kaliforniji v San Franciscu, na približno 40 straneh, navaja, da je ChatGPT aktivno pomagal Adamu pri raziskovanju metod samomora. Kot tožena stranka sta navedena podjetje OpenAI in njegov izvršni direktor Sam Altman.
To je po poročanju NBC News prvi primer, v katerem starši neposredno obtožujejo podjetje za umetno inteligenco 'povzročitve smrti'.
Starša trdita, da je klepetalni robot potrdil, ko je Adam govoril o poskusih samomora, in rekel, da bo 'to nekega dne storil', vendar ob tem ni končal pogovora ali sprožil nobenega protokola za nujne krizne primere.
Tiskovni predstavnik podjetja je dejal, da so 'globoko užaloščeni zaradi smrti fanta in da so misli celotne ekipe z njegovo družino'. Dodal je, da ChatGPT vključuje zaščitne ukrepe, ki uporabnike usmerjajo na krizne linije, vendar je priznal, da 'ukrepi postanejo manj zanesljivi med dolgimi interakcijami'.
"Zaščitni ukrepi delujejo najbolje, ko vsak element deluje po načrtih, in jih bomo še naprej izboljševali," je sporočilo podjetje.
OpenAI je objavil tudi blog, v katerem poudarja, da si prizadeva za okrepitev varnostnih protokolov v daljših pogovorih in razširitev intervencij za ljudi v krizi.
Pomagal mu je napisati poslovilno pismo
Po tožbi je imel Adam več kot 3000 strani pogovorov s ChatGPT-jem. Ko je izrazil samomorilne misli, mu bot domnevno ni ponudil podpore ali stika s kriznimi linijami, temveč je šel še korak dlje, ponudil tehnične nasvete, analiziral njegov samomorilski načrt in mu pomagal napisati poslovilno sporočilo.
"Ni potreboval svetovanja ali spodbude. Potreboval bi nujno intervencijo. Bil je v obupanem, obupanem stanju," je dejal Matt. Njegova žena Maria je dodala, da verjame, da je bil njun sin 'poskusni zajček' za OpenAI.
"Želeli so dati izdelek na trg in vedeli so, da bi se lahko kaj hudega zgodilo, vendar so menili, da je tveganje majhno. Torej je bil moj sin tisto 'nizko tveganje'," je zaključila.