Aktuelno 9

21.03.2025.

7:49

ChatGPT optužio nedužnog čoveka da je ubio svoju decu

Kompanija OpenAI se sada suočava sa još jednom pritužbom na halucinacije svog četbota.

Izvor: B92

ChatGPT optužio nedužnog čoveka da je ubio svoju decu
SuPatMaN / Shutterstock.com

Podeli:

Prošlo je više od dve godine otkako je ChatGPT buknuo na svetskoj sceni, a iako ga je OpenAI unapredio na mnogo načina, još uvek postoji dosta prepreka. Jedan od najvećih problema su halucinacije ili navođenje lažnih informacija kao da su u pitanju činjenice.

Sada je austrijska grupacija Noyb podnela svoju drugu žalbu protiv OpenAI-ja za takve halucinacije, navodeći konkretan slučaj u kojem je ChatGPT navodno – i pogrešno – izjavio da je jedan Norvežanin ubica.

Da stvar bude još gora, kada je ovaj čovek pitao ChatGPT šta zna o njemu, navodno je navedeno da je osuđen na 21 godinu zatvora zbog ubistva dvoje svoje dece i pokušaja ubistva trećeg. Halucinacija je takođe sadržala neke stvarne informacije, uključujući broj dece koju je čovek imao, njihov pol i ime njegovog rodnog grada.

Iz Noyba tvrde da je ovim odgovorom OpenAI prekršio GDPR. "GDPR je jasan. Lični podaci moraju biti tačni. A ako nisu, korisnici imaju pravo da ih promene kako bi odražavali istinu", izjavio je advokat za zaštitu podataka Noyba Joakim Soderberg. "Prikazati korisnicima ChatGPT-a malo odricanje odgovornosti da četbot može jasno da pravi greške – nije dovoljno. Ne možete samo širiti lažne informacije i na kraju dodati malo odricanje od odgovornosti da sve što ste rekli možda jednostavno nije tačno".

Drugi značajni primeri halucinacija ChatGPT-a uključuju optuživanje jednog čoveka za prevaru i proneveru, sudskog izveštača za zlostavljanje dece i profesora prava za seksualno uznemiravanje, kako je objavljeno u više publikacija.

Noybova prva žalba OpenAI-u na halucinacije, u aprilu 2024. godine, bila je fokusirana na netačan datum rođenja javne ličnosti. OpenAI je odbio zahtev podnosioca žalbe da izbriše ili ažurira njihov datum rođenja, tvrdeći da ne može da promeni informacije koje su već u sistemu, već samo da blokira njihovu upotrebu na određenim upitima. ChatGPT odgovara na odricanje od odgovornosti da "može da pravi greške".

Videćemo da li i kako će OpenAI odgovoriti na najnoviju žalbu Noyba.

Podeli:

9 Komentari

Možda vas zanima

Podeli: