Aktuelno 14

22.08.2024.

21:30

Smirite doživljaj: Veštačka inteligencija uopšte nije pretnja

Nova studija uverava da napredni modeli veštačke inteligencije, uprkos strahovima, ostaju vezani svojim programiranjem, ne predstavljajući pretnju autonomije i otuđivanja od čoveka.

Izvor: Zimo

Smirite doživljaj: Veštačka inteligencija uopšte nije pretnja
mrjo / Shutterstock.com

Podeli:

Naučna fantastika često prikazuje veštačku inteligenciju kao pretnju čovečanstvu, sa scenarijima poput HAL-9000 (2001: Odiseja u svemiru) i Skyneta (Terminator franšiza) koji naglašavaju strah od mašina koje će se okrenuti protiv svojih kreatora. Danas, s porastom sofisticiranih velikih jezičnih modela (LLM-ova) kao što je ChatGPT, te brige su postale relevantnije.

Međutim, nova studija koju su vodili računarski naučnici Iryna Gurevič s Tehničkog univerziteta u Darmštatuu u Nemačkoj i Hariš Tajar Madabuši sa Univerziteta u Batu u Velikoj Britaniji, donosi umirujuće vesti. Studija zaključuje da ti LLM modeli nisu sposobni da se otuđe, s obzirom na to da su previše ograničeni svojim programiranjem da razviju nove sposobnosti bez čovekovih instrukcija.

Neopravdani strah i nedostatak istinske inteligencije

"Strah je bio da će, kako modeli postaju sve veći i veći, moći da reše nove probleme koje trenutno ne možemo da predvidimo, što predstavlja pretnju da bi ti veći modeli mogli da steknu opasne sposobnosti, uključujući razmišljanje i planiranje. Naša studija pokazuje da strah da će se LLM model oteti kontroli i učiniti nešto potpuno neočekivano, inovativno i potencijalno opasno nije opravdan", objašnjava Tajar Madabuši.

Uprkos značajnom napretku u LLM tehnologiji, koji sada može da učestvuje u koherentnim tekstualnim razgovorima oponašajući ljudsku interakciju, još uvek joj nedostaje istinska inteligencija. LLM modeli mogu uverljivo da prenesu netačne informacije, ali to je zbog ograničenja u obradi, a ne zbog autonomnog zaključivanja.

Kontrola procesa učenja

Naučnici su nedavno istražili ideju o "nastajućim sposobnostima" u LLM modelima, odnosno veštinama koje bi mogle da se razviju nezavisno od njihovog programiranja. Međutim, eksperimenti studije s četiri različita LLM-a nisu pronašli dokaze o takvom autonomnom ponašanju. Prikazane sposobnosti objašnjene su sposobnošću modela za praćenje uputstava, pamćenje i lingvističkim sposobnostima, bez znakova nezavisnih ili nepredviđenih radnji.

"Naši rezultati ne znače da veštačka inteligencija uopšte nije pretnja... Ipak možemo veoma dobro da kontrolišemo proces učenja LLM-a. Buduća istraživanja bi zato trebalo da se fokusiraju na druge rizike koje predstavljaju modeli, kao što je njihov potencijal korišćenja za stvaranje lažnih vesti", pojašnjava Gurevič.

Istraživanje je objavljeno u dnevniku radova 62. godišnje skupštine međunarodnog Udruženja za računarsku lingvistiku (ACL).

Podeli:

14 Komentari

Možda vas zanima

Podeli: