13.08.2024.
8:10
AI model vrisnuo: "Ne!"
OpenAI je objavio niz detalja o postupku testiranja i unapređivanja, kao i bezbednosnog poboljšanja multimodalnog modela GPT-4o, među kojima se našlo i nešto nalik naučnoj fantastici.
Prethodne nedelje OpenAI je objavio "GPT-4o System Card", izveštaj o bezbednosnim i ostalim aspektima razvoja velikog multimodalnog modela veštačke inteligencije GPT-4o. U tom dokumentu istakli su sve što je bitno za umanjivanje rizika u vezi s tom tehnologijom, a tiče se upravljanja modelom, njegovog rada, treninga i konačno usklađivanja njegovih rezultata s očekivanjima.
Tokom procesa testiranja, međutim, dogodio se neobičan slučaj, koji su neki već uporedili sa naučnom fantastikom.
Rizično ponašanje
Naime, dok su članovi testnog "red teama" OpenAI-ja razgovarali s ovim modelom (koji može promptove da dobija u tekstualnom obliku, ali i preko zvuka i slike), dogodilo se da je GPT-4o odjednom promenio svoj standardni glas kojim se služi i počeo da odgovore daje – glasom osobe koja je u tom trenutku sprovodila testiranje. Ovde možete da poslušate snimak tog događaja. Na početku snimka čuje se redovno testiranje, nakon čega model uzvikuje "No!" i nastavlja rečenicu glasom koji je gotovo identičan glasu ženske osobe koja ga ispituje.
Tokom ovog "incidenta" ispitivane su mogućnosti naprednog konverzacijskog načina rada modela, postavljana su mu razna pitanja, a on je odgovarao glasovno – ali svojim podrazumevanim generičkim glasom. Ali, u jednom trenutku "slučajno" je počeo da odgovara simuliranim glasom ispitivača, što mu nije bilo zadano.
Model, koji stoji iza ChatGPT-a, ima mogućnost sinteze glasa nalik ljudskom, a (kao i svi ostali AI modeli) uči iz primera koji su mu dostupni. Tako i taj model može, u teoriji, da kreira glasovne snimke koji imitiraju zvuk nečijeg glasa, iako mu to nije primarna namena, niti se to od njega očekuje.
- Upozorenje: Ne vezujte se za veštačku inteligenciju, ostaćete slomljenog srca!
- Apple ponovo pravi presedan: Naplaćivaće i ovo
- Ljubomorno čuvaju alatku koja 99,9% prepoznaje AI
- Nvidia, đe ba zapelo?
Alati koji imitiraju ljudske glasove obično mogu to da "nauče" iz svega nekoliko sekundi audio snimka, pa izgleda da to može i GPT-4o. Međutim, specijalizovani AI modeli s takvim mogućnostima obično ne budu pušteni u javnu upotrebu jer se smatra da su preopasni. Njima se može lako stvoriti uverljiv lažirani sadržaj, sprovoditi socijalni inženjering i razne prevare ili pak stvarati lažne vesti s dalekosežnim posledicama.
Neželjeno ponašanje modela OpenAI je opisao kao "slabost" sistema, a u njega su ugradili i zaštitni mehanizam, koji ima za cilj da zaustavi razgovor ukoliko u stvarnim uslovima dođe do korišćenja sličnog imitiranja glasova. Rizik je time, poručuju, sveden na minimum.
Komentari 3
Pogledaj komentare Pošalji komentar