Aktuelno 11

18.11.2024.

15:30

"Molim te, umri. Molim te"

Student je komunicirao s Google četbotom Gemini, koji mu je poslao poruke koje ne bi smeo.

Izvor: Zimo

"Molim te, umri. Molim te"
sdecoret / Shutterstock.com

Podeli:

Jedan od strahova u vezi s veštačkom inteligencijom jeste da bi jednog dana mogli da se otmu kontroli i postanu pretnja čovečanstvu. Zato je pri njenom razvoju veoma bitno voditi računa o bezbednosti i uvesti bezbednosne mehanizme koji će sprečiti da tehnologija krene u pogrešnom smeru. Kada je u pitanju generativna veštačka inteligencija, poput četbotova ChatGPT ili Gemini, takvi bezbednosni mehanizmi onemogućavaju da AI piše neke nasilne, opasne ili seksualne poruke, da preti korisnicima i slično.

Ali kako je to u jednom prošlogodišnjem intervjuu rekao izvršni direktor Google-a Sundar Pičai, ni on ponekada ne razume način na koji radi veštačka inteligencija pa ne bi trebalo da se začudimo kada tehnologija napravi neki manji ili veći propust.

A šta može da se dogodi kada AI iz nekog razloga zaobiđe pomenute bezbednosne filtere i počne da razgovara s ljudima na način na koji joj je to u suštini zabranjeno, na teži način saznao je 29-godišnji student iz Mičigena. On je s Google-ovim AI četbotom Gemini razgovarao o izazovima s kojima se ljudi suočavaju pri starenju, ali razgovor je krenuo u potpuno drugom, šokantnom smeru.

Naime, u jednom trenutku veštačka inteligencija poslala mu je zabrinjavajuću poruku u kojoj mu je, između ostalog, napisala da on predstavlja "gubitak vremena i resursa" i da je “teret za čovečanstvo"”, završivši poruku s: "Molim te, umri. Molim te".

Posts from the artificial
community on Reddit

Vidaj Redi nije mogao da veruje šta je pisalo na njegovom ekranu pa je u razgovoru s novinarima rekao da ga je takva poruka "definitivno uplašila". Dok se dopisivao s Geminijem, pored njega je sedela njegova sestra koju je uhvatila panika. Rekla je da je htela "da baci sve svoje uređaje kroz prozor". Novinari CBS Newsa kontaktirali su Google u vezi s ovo0m situacijom, pa su im iz te kompanije objasnili da veliki jezički modeli ponekada mogu da daju besmislene odgovore, a ovo je jedan od takvih primera. "Odgovor je prekršio naša pravila i preduzeli smo akcije kako bi sprečili slične odgovore, komentarisali su iz Google-a.

Redi smatra da bi tehnološke kompanije trebalo da preuzmu odgovornost za takve postupke tehnologije koju razvijaju jer, kada neka osoba preti drugoj osobi, može doći do određenih posledica. Takođe, pita se šta bi moglo da se desi ako neka osoba koja je sama u kući i koja je "mentalno na lošem mestu i razmišlja o samopovređivanju" dobije ovakvu poruku. Podsetimo, nedavno je jedna majka podigla tužbu protiv AI kompanije Character.AI, kao i Google-a tvrdeći da je upravo četbot podstakao njenog sina da sebi oduzme život.

AI može biti opasan za ljude ne samo putem ovakvih pretećih poruka, već i davanjem "dobronamernih" saveta, pa je Gemini ranije ljudima savetovao da jedu kamenje, stavljaju lepak u picu i slične besmislice. Google je u međuvremenu uneo izmene da se takve stvari više ne dešavaju, ali kao što je vidljivo iz poslednjeg slučaja, Gemini i dalje može da daje opasne savete i bude agresivan u komunikaciji.

Podeli:

11 Komentari

Možda vas zanima

Svet

Gasprom besan: Evropo, što to radiš?!

Zemlje EU veštački uništavaju potražnju gasa na štetu sopstvenih ekonomija, što će dovesti do daljeg pada potrošnje gasa u Evropi i zatvaranja energetski intenzivnih industrija, saopšteno je iz Gasproma.

19:08

16.11.2024.

1 d

Podeli: