Aktuelno 3

13.08.2024.

8:10

AI model vrisnuo: "Ne!"

OpenAI je objavio niz detalja o postupku testiranja i unapređivanja, kao i bezbednosnog poboljšanja multimodalnog modela GPT-4o, među kojima se našlo i nešto nalik naučnoj fantastici.

Izvor: Bug

AI model vrisnuo: "Ne!"
VesnaArt / Shutterstock.com

Podeli:

Prethodne nedelje OpenAI je objavio "GPT-4o System Card", izveštaj o bezbednosnim i ostalim aspektima razvoja velikog multimodalnog modela veštačke inteligencije GPT-4o. U tom dokumentu istakli su sve što je bitno za umanjivanje rizika u vezi s tom tehnologijom, a tiče se upravljanja modelom, njegovog rada, treninga i konačno usklađivanja njegovih rezultata s očekivanjima. 

Tokom procesa testiranja, međutim, dogodio se neobičan slučaj, koji su neki već uporedili sa naučnom fantastikom.

Rizično ponašanje

Naime, dok su članovi testnog "red teama" OpenAI-ja razgovarali s ovim modelom (koji može promptove da dobija u tekstualnom obliku, ali i preko zvuka i slike), dogodilo se da je GPT-4o odjednom promenio svoj standardni glas kojim se služi i počeo da odgovore daje – glasom osobe koja je u tom trenutku sprovodila testiranje. Ovde možete da poslušate snimak tog događaja. Na početku snimka čuje se redovno testiranje, nakon čega model uzvikuje "No!" i nastavlja rečenicu glasom koji je gotovo identičan glasu ženske osobe koja ga ispituje.

Tokom ovog "incidenta" ispitivane su mogućnosti naprednog konverzacijskog načina rada modela, postavljana su mu razna pitanja, a on je odgovarao glasovno – ali svojim podrazumevanim generičkim glasom. Ali, u jednom trenutku "slučajno" je počeo da odgovara simuliranim glasom ispitivača, što mu nije bilo zadano.

Model, koji stoji iza ChatGPT-a, ima mogućnost sinteze glasa nalik ljudskom, a (kao i svi ostali AI modeli) uči iz primera koji su mu dostupni. Tako i taj model može, u teoriji, da kreira glasovne snimke koji imitiraju zvuk nečijeg glasa, iako mu to nije primarna namena, niti se to od njega očekuje.

Alati koji imitiraju ljudske glasove obično mogu to da "nauče" iz svega nekoliko sekundi audio snimka, pa izgleda da to može i GPT-4o. Međutim, specijalizovani AI modeli s takvim mogućnostima obično ne budu pušteni u javnu upotrebu jer se smatra da su preopasni. Njima se može lako stvoriti uverljiv lažirani sadržaj, sprovoditi socijalni inženjering i razne prevare ili pak stvarati lažne vesti s dalekosežnim posledicama.

Neželjeno ponašanje modela OpenAI je opisao kao "slabost" sistema, a u njega su ugradili i zaštitni mehanizam, koji ima za cilj da zaustavi razgovor ukoliko u stvarnim uslovima dođe do korišćenja sličnog imitiranja glasova. Rizik je time, poručuju, sveden na minimum.

Podeli:

3 Komentari

Možda vas zanima

Podeli: