Aktuelno 9

13.06.2024.

13:10

"Nemamo pojma kako AI funkcioniše" VIDEO

Pitanje treniranja veštačke inteligencije je dovelo do rasprave o tome kako sama veštačka inteligencija funkcioniše.

Izvor: Zimo

"Nemamo pojma kako AI funkcioniše" VIDEO
Rokas Tenys / Shutterstock.com

Podeli:

Za brojne ljude veštačka inteligencija je još uvijek velika nepoznanica. Iako se AI alati sve češće koriste i prezentuju kao nešto što će promeniti način na koji radimo i živimo, ljudi su i dalje skeptični. Delom jer je AI nešto što ne mogu da vide i opipaju, a delom jer jednostavno ne znaju za šta bi takve alate koristili i kako čitava stvar funkcioniše.

Ali, izgleda da u tom razmišljanju nisu jedini. Učestvujući na AI for Good Global Summit-u u Ženevi, šef OpenAI-ja Sem Altman, iste one kompanije koja je pokrenula čitavu AI ludnicu, otkrio je nekoliko zanimljivih činjenica o njihovom popularnom četbotu ChatGPT.

Na pitanje šta je prva velika i dobra stvar koju je AI podstakla u svetu, Altman je istakao brži i efikasniji rad. Ali, isto je istakao i da je glavna negativna stvar koja je rezultat upotrebe AI-ja u svetu pre svega narušena sajber bezbednost, ali i dodao da će s druge strane AI pomoći i u jačanju sajber bezbednosti.

Jedan od glavnih problema koji se pojavljuje u razvoju veštačke inteligencije su izvori podataka na osnovu kojih se alati veštačke inteligencije razvijaju. Već se duže govori o tome kako ponestaje podataka, a činjenica je da je na internetu sve više tzv. sintetičkih podataka, koji su nastali upotrebom veštačke inteligencije, a treniranje AI na osnovu tih podataka bi moglo da dovede do problema u budućnosti.

"Mislim da su potrebni kvalitetni podaci. Postoje loši podaci koji su sintetički kreirani, ali i loši podaci koje su stvorili ljudi. I dok god možemo da pronađemo dovoljno kvalitetnih podataka za treniranje naših modela, ne bi trebalo da bude problema", istakao je Altman.

Upravo je to pitanje treniranja veštačke inteligencije dovelo do rasprave o tome kako sama veštačka inteligencija funkcioniše.

Između ostalog, priznao je da kompanija još uvek ne zna kako funkcionišu njeni veliki jezički modeli. Naime, trenutno se mogućnosti AI modela ograničavaju na nivou interfejsa koji se koristi za komunikaciju s korisnicima. Ali, cilj je stvoriti takve modele koji bi mogli uče ljude o hemiji, ali ne i kako da naprave hemijsko oružje. To je onaj deo koji AI ne razume, a ljudi, priznaje Altman, ne znaju kako AI funkcioniše "u pozadini" pa ni kako da reše taj problem. 

Još nismo rišili interpretabilnost, istakao je Altman, sugerišući da kompanija tek treba da shvati kako da uđe u trag funkcionisanja svojih modela veštačke inteligencije. Nakon daljeg ispitivanja da li je potrebno da objave nove i snažnije modele, rekao je, ovi sistemi se uopšteno smatraju bezbednim i robusnim.

Altman je dodao da oni ne razumeju što se događa u vašem mozgu na nivou neuron po neuron, te slede neka standardna pravila da bi razumeli kako bi ljudski um želeo da objasni bilo koji određeni upit.

Upravo priznanje kako ni kompanija koja je razvila ChatGPT zapravo ne zna kako veštačka inteligencija funkcioniše u pozadini, je ono što zabrinjava sve više stručnjaka koji pozivaju na veće ulaganje u bezbednost veštačke inteligencije.

Međutim, Altman smatra da će se bezbednost razviti s daljim razvojem i razumevanjem veštačke inteligencije.

"Čini mi se da što više možemo da razumemo šta se događa u ovim modelima, to bolje", istakao je Altman. 

Kompletan intervju možete pogledati u priloženom videu. 

Podeli:

9 Komentari

Možda vas zanima

Svet

Rusija izvela veliki napad: Pogođen štab CIA

Ruska vojska je izvela masovni raketni napad na niz strateških ciljeva u Kijevu, uključujući objekat koji se koristi za potrebe rezidenture CIA, nekoliko ključnih vojnih i obaveštajnih baza Ukrajine, kao i energetske objekte i NATO proksi u Ukrajini.

16:03

21.12.2024.

1 d

Podeli: