Svet 0

20.09.2024.

8:08

Banka upozorava: Milioni ljudi bi mogli biti žrtve finansijske prevare

"Milioni" ljudi mogli bi da postanu žrtve prevara koje koriste veštačku inteligenciju za kloniranje svog glasa, upozorila je britanska banka.

Izvor: B92.net

Banka upozorava: Milioni ljudi bi mogli biti žrtve finansijske prevare
Shutterstock/tete_escape

Podeli:

Starling banka, onlajn zajmodavac, kaže da su prevaranti u stanju da koriste veštačku inteligenciju da repliciraju nečiji glas iz samo tri sekunde zvuka koji se nalazi u, na primer, video snimku koji je ta osoba objavila na mreži.

Prevaranti tada mogu da identifikuju prijatelje i članove porodice te osobe i da koriste glas kloniran veštačkom inteligencijom da bi uputili telefonski poziv da traže novac, navodi CNN.

Ove vrste prevara imaju potencijal da "uhvate milione", rekla je Starling banka u saopštenju za javnost u sredu.

Već su pogođene stotine

Prema istraživanju, koje se vršilo na više od 3.000 odraslih koje je banka sprovela sa Mortar Research prošlog meseca, više od četvrtine ispitanika je reklo da su bili na meti prevara kloniranja glasa pomoću veštačke inteligencije u poslednjih 12 meseci.

Istraživanje je takođe pokazalo da 46% ispitanika nije bilo svesno da takve prevare postoje, a da bi 8% poslalo onoliko novca koliko je zatražio prijatelj ili član porodice, čak i ako im se čini da je poziv čudan.

"Ljudi redovno objavljuju sadržaj na mreži koji ima snimke njihovog glasa, a da nisu ni slutili da ih to čini ranjivijim na prevarante", rekla je u saopštenju za štampu Liza Grejm, direktorka za bezbednost informacija u Starling banci.

Banka ohrabruje ljude da sa svojim voljenima dogovore "sigurnu frazu" – jednostavnu, nasumičnu frazu koja se lako pamti i koja se razlikuje od drugih lozinki – koja se može koristiti za verifikaciju njihovog identiteta preko telefona.

Savetuje se da ne delite sigurnu frazu preko poruka, što bi prevarantima moglo olakšati da saznaju, ali, ako se deli na ovaj način, poruku treba izbrisati kada je druga osoba vidi.

Kako AI postaje sve veštija u oponašanju ljudskih glasova, raste zabrinutost oko njenog potencijala da naudi ljudima, na primer, pomažući kriminalcima da pristupe njihovim bankovnim računima i šire dezinformacije.

Ranije ove godine, OpenAI, proizvođač generativnog AI chatbot ChatGPT, predstavio je svoj alat za replikaciju glasa, Voice Engine, ali ga u toj fazi nije učinio dostupnim javnosti, navodeći "potencijal za zloupotrebu sintetičkog glasa".

Podeli:

0 Komentari

Možda vas zanima

Svet

Audi zatvara fabriku: "Prodajemo"

Nemački proizvođač luksuznih automobila Audi najavio je prodaju svoje briselske fabrike i traži potencijalne investitore, rekao je šef proizvodnje Gerd Voker.

20:31

18.9.2024.

1 d

Svet

Rusija gubi: 30% manje

Vrednost ruskog izvoza sirove nafte je od kraja juna pala za skoro 30 odsto zbog globalnog pada cena nafte, prenosi Blumberg pozivajući se na proračune svojih stručnjaka.

17:32

18.9.2024.

1 d

Svet

Kinezi preuzeli nemačku kompaniju

Kineski dobavljač električnih komponenti Luxshare preuzeo je nemačkog proizvođača automobilskih delova Leoni. Za većinski udeo u nemačkoj kompaniji platio je 320 miliona evra.

14:57

18.9.2024.

1 d

Podeli: