31.07.2024.
12:00
"Za sve su krive halucinacije"
Meta je poklekla kada je dozvolila svom AI asistentu da odgovara na pitanja o pucnjavama i odmah je naišla na problem koji je pokušavala da izbegne.
Metin AI asistent je pogrešno rekao da se nedavni pokušaj atentata na bivšeg predsednika Donalda Trampa nije dogodio, što je greška koju izvršni direktor kompanije sada pripisuje tehnologiji koja pokreće njenog ali i druge četbotove.
U objavi na blogu kompanije, Džoel Kaplan, Meta-in šef globalne politike, nazvao je odgovore AI na pitanja o pucnjavi "nesrećnim". On kaže da je Meta AI prvo bio programiran da ne odgovara na pitanja o pokušaju atentata, ali je kompanija uklonila to ograničenje nakon što su ljudi počeli da primećuju. On takođe priznaje da je "u malom broju slučajeva Meta AI nastavio da daje netačne odgovore, uključujući ponekad i tvrdnje da se on uopšte nije dogodio – na čijem rešavanju ubrzano radimo".
"Ove vrste odgovora se nazivaju halucinacijama, što je problem u čitavoj industriji koji vidimo u svim generativnim sistemima veštačke inteligencije, i predstavlja stalni izazov za to kako će AI upravljati događajima u realnom vremenu u budućnosti", nastavlja Kaplan.
"Kao i svi generativni sistemi veštačke inteligencije, modeli mogu da vraćaju netačne ili neodgovarajuće rezultate, a mi ćemo nastaviti da se bavimo ovim problemima i poboljšavamo ove funkcije kako se razvijaju i što više ljudi deli svoje povratne informacije", kaže on.
Nije samo Meta u problemu ovde: Google je nedavno takođe morao da opovrgne tvrdnje da je njegova funkcija automatskog dovršavanja pretrage cenzurisala rezultate o pokušaju atentata. "Evo nas opet, još jedan pokušaj lažiranja izbora!!!", objavioje Tramp na Truth Social. "Krivite Meta-u i Google".
Otkako je ChatGPT stigao na scenu, tehnološka industrija se bori sa načinom da ograniči sklonost generativne AI da objavljuje laži. Neki akteri, kao što je Meta, pokušali su da svoje četbotove prizemlje kvalitetnim podacima i rezultatima pretrage u realnom vremenu, kao način da kompenzuju halucinacije.
Ali kao što ovaj konkretan primer pokazuje, još uvek je teško prevazići ono za šta su veliki jezički modeli inherentno dizajnirani: izmišljanje stvari.
Komentari 2
Pogledaj komentare Pošalji komentar