Svet 0

20.09.2024.

8:08

Banka upozorava: Milioni ljudi bi mogli biti žrtve finansijske prevare

Milioni ljudi mogli bi da postanu žrtve prevara koje koriste veštačku inteligenciju za kloniranje svog glasa, upozorila je britanska banka.

Izvor: B92.net

Banka upozorava: Milioni ljudi bi mogli biti žrtve finansijske prevare
Shutterstock/tete_escape

Podeli:

Starling banka, onlajn-zajmodavac, kaže da su prevaranti u stanju da koriste veštačku inteligenciju da repliciraju nečiji glas iz samo tri sekunde zvuka koji se nalazi u, na primer, video-snimku koji je ta osoba objavila na mreži.

Prevaranti tada mogu da identifikuju prijatelje i članove porodice te osobe i da koriste glas kloniran veštačkom inteligencijom da bi uputili telefonski poziv da traže novac, navodi CNN.

Ove vrste prevara imaju potencijal da "uhvate milione", objavila je Starling banka u saopštenju za javnost u sredu.

Već su pogođene stotine

Prema istraživanju, koje se vršilo na više od 3.000 odraslih koje je banka sprovela s Mortar Research prošlog meseca, više od četvrtine ispitanika je reklo da su bili na meti prevara kloniranja glasa pomoću veštačke inteligencije u poslednjih 12 meseci.

Istraživanje je takođe pokazalo da 46% ispitanika nije bilo svesno da takve prevare postoje, a da bi 8% poslalo onoliko novca koliko je zatražio prijatelj ili član porodice, čak i ako im se čini da je poziv čudan.

"Ljudi redovno objavljuju sadržaj na mreži koji ima snimke njihovog glasa, a da nisu ni slutili da ih to čini ranjivijim na prevarante", rekla je u saopštenju za štampu Liza Grejm, direktorka za bezbednost informacija u Starling banci.

Banka ohrabruje ljude da sa svojim voljenima dogovore "sigurnu frazu" – jednostavnu, nasumičnu frazu koja se lako pamti i koja se razlikuje od drugih lozinki – koja se može koristiti za verifikaciju njihovog identiteta preko telefona.

Savetuje se da ne delite sigurnu frazu preko poruka, što bi prevarantima moglo olakšati da saznaju, ali, ako se deli na ovaj način, poruku treba izbrisati kada je druga osoba vidi.

Kako AI postaje sve veštija u oponašanju ljudskih glasova, raste zabrinutost zbog njenog potencijala da naudi ljudima, na primer, pomažući kriminalcima da pristupe njihovim bankovnim računima i šire dezinformacije.

Ranije ove godine OpenAI, proizvođač generativnog AI chatbot ChatGPT, predstavio je svoj alat za replikaciju glasa Voice Engine, ali ga u toj fazi nije učinio dostupnim javnosti, navodeći "potencijal za zloupotrebu sintetičkog glasa".

Podeli:

0 Komentari

Možda vas zanima

Svet

Oglasio se Tramp: "Preokret"

Novoizabrani američki predsednik Donald Tramp rekao je da ga prihvataju poslovni rukovodioci, što predstavlja preokret u odnosu na vreme kada je prvi put ušao Belu kuću pre osam godina.

8:59

17.12.2024.

1 d

Podeli: