Aktuelno 4

02.05.2024.

8:20

Sprema se nova tužba: ChatGPT voli da izmišlja

Četbot navodno nije ispravio netačne informacije o stvarnoj osobi, a iz kompanije OpenAI su rekli da ne mogu da intervenišu.

Izvor: Engadget

Sprema se nova tužba: ChatGPT voli da izmišlja
dennizn / Shutterstock.com

Podeli:

OpenAI je ponovo meta pritužbe, ovoga puta na privatnost u Austriji, od strane zastupničke grupe pod nazivom NOYB, što je skraćenica od None Of Your Business. 

U žalbi se navodi da je ChatGPT bot u više navrata davao netačne informacije o stvarnom pojedincu (koji iz razloga privatnosti nije naveden u žalbi), kako prenosi Rojters. Ovo može da predstavlja kršenje pravila privatnosti EU.

Četbot je navodno izmislio netačne podatke o datumu rođenja osobe, umesto da samo kaže da ne zna odgovor na upit. AI četbotovi vole da samouvereno izmišljaju stvari i nadaju se da ljudi to neće primetiti. Ovaj fenomen se naziva halucinacija.

U žalbi se takođe navodi da je OpenAI odbio da pomogne u brisanju lažnih informacija, odgovarajući da je tehnički nemoguće izvršiti takvu promenu. Kompanija je ponudila da filtrira ili blokira podatke na određenim upitima. Politika privatnosti kompanije OpenAI kaže da ako korisnici primete da je AI četbot generisao "činjenično netačne informacije" o njima da mogu da podnesu "zahtev za ispravku", ali kompanija kaže da "možda neće moći da ispravi netačne informacije u svim slučajevima".

Sklonost četbota da izmišlja stvari mogla bi da bude u suprotnosti sa Opštom uredbom o zaštiti podataka u regionu (GDPR), koja reguliše kako lični podaci mogu da se koriste i obrađuju.

"Jasno je da kompanije trenutno ne mogu da nateraju četbotove kao što je ChatGPT da budu u skladu sa zakonima EU, kada obrađuju podatke o pojedincima", rekao je u saopštenju Maartje de Graf, advokat za zaštitu podataka NOYB-a. "Ako sistem ne može da proizvede tačne i transparentne rezultate, ne može se koristiti za generisanje podataka o pojedincima. Tehnologija mora da prati zakonske zahteve, a ne obrnuto".

Ipak, ovo je pritužba zastupničke grupe i regulatori iz EU bi tek trebalo da komentarišu ovaj incident. Međutim, OpenAI je u prošlosti priznao da ChatGPT "ponekad piše odgovore koji zvuče uverljivo, ali su netačne ili besmisleni". NOYB se obratio austrijskoj Upravi za zaštitu podataka i zatražio od organizacije da istraži problem.

OpenAI nije odgovorio na ovu najnoviju žalbu, ali je odgovorio na regulatornu odluku koju je ranije objavio italijanski DPA. "Želimo da naša veštačka inteligencija uči o svetu, a ne o privatnim licima", istakla je kompanija. "Aktivno radimo na smanjenju ličnih podataka u obuci naših sistema kao što je ChatGPT, koji takođe odbija zahteve za privatne ili osetljive informacije o ljudima".

Podeli:

4 Komentari

Možda vas zanima

Podeli: