22.08.2024.
21:30
Smirite doživljaj: Veštačka inteligencija uopšte nije pretnja
Nova studija uverava da napredni modeli veštačke inteligencije, uprkos strahovima, ostaju vezani svojim programiranjem, ne predstavljajući pretnju autonomije i otuđivanja od čoveka.
Naučna fantastika često prikazuje veštačku inteligenciju kao pretnju čovečanstvu, sa scenarijima poput HAL-9000 (2001: Odiseja u svemiru) i Skyneta (Terminator franšiza) koji naglašavaju strah od mašina koje će se okrenuti protiv svojih kreatora. Danas, s porastom sofisticiranih velikih jezičnih modela (LLM-ova) kao što je ChatGPT, te brige su postale relevantnije.
Međutim, nova studija koju su vodili računarski naučnici Iryna Gurevič s Tehničkog univerziteta u Darmštatuu u Nemačkoj i Hariš Tajar Madabuši sa Univerziteta u Batu u Velikoj Britaniji, donosi umirujuće vesti. Studija zaključuje da ti LLM modeli nisu sposobni da se otuđe, s obzirom na to da su previše ograničeni svojim programiranjem da razviju nove sposobnosti bez čovekovih instrukcija.
Neopravdani strah i nedostatak istinske inteligencije
"Strah je bio da će, kako modeli postaju sve veći i veći, moći da reše nove probleme koje trenutno ne možemo da predvidimo, što predstavlja pretnju da bi ti veći modeli mogli da steknu opasne sposobnosti, uključujući razmišljanje i planiranje. Naša studija pokazuje da strah da će se LLM model oteti kontroli i učiniti nešto potpuno neočekivano, inovativno i potencijalno opasno nije opravdan", objašnjava Tajar Madabuši.
- Nije stvarna? Pogledajte koliko je AI napredovao VIDEO
- AI model vrisnuo: "Ne!"
- "Za sve su krive halucinacije"
- "Svi će imati AI asistenta" VIDEO
Uprkos značajnom napretku u LLM tehnologiji, koji sada može da učestvuje u koherentnim tekstualnim razgovorima oponašajući ljudsku interakciju, još uvek joj nedostaje istinska inteligencija. LLM modeli mogu uverljivo da prenesu netačne informacije, ali to je zbog ograničenja u obradi, a ne zbog autonomnog zaključivanja.
Kontrola procesa učenja
Naučnici su nedavno istražili ideju o "nastajućim sposobnostima" u LLM modelima, odnosno veštinama koje bi mogle da se razviju nezavisno od njihovog programiranja. Međutim, eksperimenti studije s četiri različita LLM-a nisu pronašli dokaze o takvom autonomnom ponašanju. Prikazane sposobnosti objašnjene su sposobnošću modela za praćenje uputstava, pamćenje i lingvističkim sposobnostima, bez znakova nezavisnih ili nepredviđenih radnji.
"Naši rezultati ne znače da veštačka inteligencija uopšte nije pretnja... Ipak možemo veoma dobro da kontrolišemo proces učenja LLM-a. Buduća istraživanja bi zato trebalo da se fokusiraju na druge rizike koje predstavljaju modeli, kao što je njihov potencijal korišćenja za stvaranje lažnih vesti", pojašnjava Gurevič.
Istraživanje je objavljeno u dnevniku radova 62. godišnje skupštine međunarodnog Udruženja za računarsku lingvistiku (ACL).
Komentari 14
Pogledaj komentare Pošalji komentar