AI

Miliona njerëz mund të jenë në shënjestër të mashtrimeve të klonimit të AI, sipas Starling Bank

Miliona njerëz mund të bien viktimë e mashtrimeve duke përdorur inteligjencën artificiale për të klonuar zërin e tyre, ka paralajmëruar një bankë në Mbretërinë e Bashkuar.

Starling Bank, një huadhënës vetëm në internet, tha se mashtruesit janë të aftë të përdorin AI për të përsëritur zërin e një personi nga vetëm tre sekonda audio që gjenden, për shembull, në një video që personi ka postuar në internet. Mashtruesit më pas mund të identifikojnë miqtë dhe anëtarët e familjes së personit dhe të përdorin zërin e klonuar nga AI për të organizuar një telefonatë për të kërkuar para.

Këto lloje të mashtrimeve kanë potencialin për të “kapur miliona”, tha Starling Bank në një deklaratë për shtyp. Ata kanë prekur tashmë qindra. Sipas një sondazhi me më shumë se 3,000 të rritur që banka kreu me Mortar Research muajin e kaluar, më shumë se një e katërta e të anketuarve thanë se ishin shënjestruar nga një mashtrim i klonimit të zërit të AI në 12 muajt e fundit.

Sondazhi tregoi gjithashtu se 46% e të anketuarve nuk ishin të vetëdijshëm se ekzistonin mashtrime të tilla dhe se 8% do të dërgonin aq para sa kërkonte një mik apo anëtar i familjes, edhe nëse mendonin se telefonata dukej e çuditshme.

E keni lexuar? Shqipëria, çmimet rriten deri në 90%, por turistët italianë ende vijnë

 

“Njerëzit postojnë rregullisht përmbajtje në internet që kanë regjistrime të zërit të tyre, pa e imagjinuar kurrë se kjo po i bën ata më të prekshëm ndaj mashtruesve,” tha në deklaratën për shtyp Lisa Grahame, shefe e sigurisë së informacionit në Starling Bank.

Banka po i inkurajon njerëzit të bien dakord për një “frazë të sigurt” me të dashurit e tyre, një frazë e thjeshtë, e rastësishme që është e lehtë për t’u mbajtur mend dhe e ndryshme nga fjalëkalimet e tyre të tjera, që mund të përdoret për të verifikuar identitetin e tyre përmes telefonit.

Huadhënësi këshillon të mos shpërndahet fraza e sigurt mbi tekst, gjë që mund ta bëjë më të lehtë për mashtruesit zbulimin e tyre, por, nëse ndahet në këtë mënyrë, mesazhi duhet të fshihet pasi personi tjetër ta ketë parë atë.

Ndërsa AI bëhet gjithnjë e më i aftë në imitimin e zërave njerëzorë, shqetësimet po rriten për potencialin e saj për të dëmtuar njerëzit, për shembull, duke ndihmuar kriminelët të kenë akses në llogaritë e tyre bankare dhe duke përhapur dezinformata.

Në fillim të këtij viti, OpenAI, prodhuesi i chatbot-it gjenerues të AI ChatGPT, zbuloi mjetin e tij të riprodhimit të zërit, Voice Engine, por nuk e bëri atë të disponueshëm për publikun në atë fazë, duke përmendur “potencialin për keqpërdorimin e zërit sintetik”.

cnn.com

Postime të ngjashme

Filloni të shkruani termin tuaj të kërkimit më lart dhe shtypni enter për të kërkuar. Shtypni ESC për të anuluar.

Back To Top