Starša za samomor svojega sina krivita ChatGPT: "Nenehno je spodbujal in potrjeval vse, kar je Adam izrazil"

V tožbi sta starša poudarila, da tragedija ni bila napaka ali nepredvidljiv obroben primer, saj je ChatGPT deloval točno tako, kot je zasnovan.

OpenAI je v torek priznal, da njihov klepetalni robot dela napake v občutljivih primerih, in obljubil spremembe.
OpenAI je v torek priznal, da njihov klepetalni robot dela napake v občutljivih primerih, in obljubil spremembe.
Profimedia
Datum 27. avgust 2025 10:45
Čas branja 3 min

Starša 16-letnika iz Kalifornije, ki je storil samomor, sta v ponedeljek na zveznem sodišču te ameriške zvezne države vložila tožbo proti ameriškemu tehnološkemu podjetju OpenAI, ker naj bi klepetalni robot ChatGPT njunemu sinu dal navodila za samomor in ga k njemu spodbudil, poročajo tuje tiskovne agencije.

Matthew and Maria Raine v tožbi trdita, da je v mesecih pred samomorom, 11. aprila letos, njun sin Adam razvil nezdrav odnos s klepetalnim robotom, ki ga je sprva uporabljal za šolo.

Ta naj bi mu je v zadnjem pogovoru na dan smrti pomagal, da je staršem ukradel vodko. Zagotovil naj bi mu tudi tehnično analizo samomora. Nekaj ur kasneje so Adama našli mrtvega, potem ko je za samomor uporabil to metodo.

V tožbi sta starša poudarila, da tragedija ni bila napaka ali nepredvidljiv obroben primer, saj je ChatGPT deloval točno tako, kot je zasnovan.

"Nenehno je spodbujal in potrjeval vse, kar je Adam izrazil, vključno z najbolj škodljivimi in samodestruktivnimi mislimi, na način, ki se je zdel zelo oseben," sta poudarila in dodala izvlečke pogovorov, v katerih je ChatGPT domnevno rekel Adamu, da "ni nikomur dolžan preživeti", in mu ponudil pomoč pri pisanju poslovilnega pisma.

Starša tožita OpenAI in glavnega izvršnega direktorja tega podjetja s področja umetne inteligence Sama Altmana.

Zahtevata nedoločeno odškodnino, sodišče pa pozivata, naj določi varnostne ukrepe, vključno s samodejnim končanjem pogovorov, ki vključujejo samopoškodovanje, in starševskim nadzorom za mladoletne uporabnike.

OpenAI je v torek priznal, da njihov klepetalni robot dela napake v občutljivih primerih, in obljubil spremembe. V blogu, v katerem sicer ni omenilo tožbe, je podjetje poudarilo, da je ChatGPT usposobljen, da uporabnikom, ki izražajo samomorilske namere, priporoči, naj se za pomoč obrnejo na strokovnjake.

So pa pri podjetju po lastnih navedbah ugotovili, da se kljub temu in drugim varnostnim mehanizmom v občutljivih situacijah robot ni obnašal, kot bi se moral. Varnostni mehanizmi namreč delujejo najbolje v kratkih izmenjavah in lahko v dolgih interakcijah odpovejo, so izpostavili.

Pojasnili so še, da ChatGPT tudi prepozna, kdaj je uporabnik mlajši od 18 let, da lahko uporabi zaščitne ukrepe. Po novem naj bi uvedli tudi starševski nadzor, raziskujejo pa tudi možnost, da bi mladoletne uporabnike neposredno povezali s kontaktno osebo za nujne primere.

Ste že naročnik? Prijavite se tukaj.

Želite dostop do vseh Večerovih digitalnih vsebin?

Naročite se
Naročnino lahko kadarkoli prekinete.
Kako komentirate razkritje, da naj bi zloglasni izraelski agenti obiskali Janšo na sedežu SDS?
Zadevo je treba čimprej preiskati!
44%
27 glasov
Sploh me ne preseneča.
32%
20 glasov
Vse je povezano z zadnjimi prisluhi ...
5%
3 glasov
Ne verjamem takšnim informacijam.
15%
9 glasov
Ne vem, vseeno mi je.
5%
3 glasov
Skupaj glasov: 62
Domov next
Predstavljamo novo menijsko vrstico
Spoznajte nove funkcije in odkrijte, kako lažje najdete vsebine.
Onboarding next
Domov Domov next
Domov
Tvoja vstopna točka v Večer.
Vse najpomembnejše novice in zgodbe na enem mestu.
Minuta Minuta next
Minuta
Najhitrejši pregled dneva.
Ključne informacije na kratko, da vedno veš, kaj se dogaja.
Igre Igre next
Igre
Vsak dan nov izziv.
Sprosti se z igrami in preizkusi svoje znanje ter spretnosti.
Podkasti Podkasti next
Podkasti
Vsebina za poslušanje kjerkoli.
Zgodbe, pogovori in razlage tem, ki zaznamujejo dan.
Prijava Zapri
Profil
Tvoje nastavitve na enem mestu.
Upravljaj profil, naročnino in prilagodi vsebine svojim interesom.