Miliona njerëz mund të bien viktimë e mashtrimeve duke përdorur inteligjencën artificiale për të klonuar zërin e tyre, ka paralajmëruar një bankë në Mbretërinë e Bashkuar.
Starling Bank, një huadhënës vetëm në internet, tha se mashtruesit janë të aftë të përdorin AI për të përsëritur zërin e një personi nga vetëm tre sekonda audio që gjenden, për shembull, në një video që personi ka postuar në internet. Mashtruesit më pas mund të identifikojnë miqtë dhe anëtarët e familjes së personit dhe të përdorin zërin e klonuar nga AI për të organizuar një telefonatë për të kërkuar para.
Këto lloje të mashtrimeve kanë potencialin për të “kapur miliona”, tha Starling Bank në një deklaratë për shtyp. Ata kanë prekur tashmë qindra. Sipas një sondazhi me më shumë se 3,000 të rritur që banka kreu me Mortar Research muajin e kaluar, më shumë se një e katërta e të anketuarve thanë se ishin shënjestruar nga një mashtrim i klonimit të zërit të AI në 12 muajt e fundit.
Sondazhi tregoi gjithashtu se 46% e të anketuarve nuk ishin të vetëdijshëm se ekzistonin mashtrime të tilla dhe se 8% do të dërgonin aq para sa kërkonte një mik apo anëtar i familjes, edhe nëse mendonin se telefonata dukej e çuditshme.
Lexo edhe: Kamerat e trajnuara me AI zbulojnë shenjat e para të zjarreve më mirë se syri i lirë
“Njerëzit postojnë rregullisht përmbajtje në internet që kanë regjistrime të zërit të tyre, pa e imagjinuar kurrë se kjo po i bën ata më të prekshëm ndaj mashtruesve,” tha në deklaratën për shtyp Lisa Grahame, shefe e sigurisë së informacionit në Starling Bank.
Banka po i inkurajon njerëzit të bien dakord për një “frazë të sigurt” me të dashurit e tyre, një frazë e thjeshtë, e rastësishme që është e lehtë për t’u mbajtur mend dhe e ndryshme nga fjalëkalimet e tyre të tjera, që mund të përdoret për të verifikuar identitetin e tyre përmes telefonit.
Huadhënësi këshillon të mos shpërndahet fraza e sigurt mbi tekst, gjë që mund ta bëjë më të lehtë për mashtruesit zbulimin e tyre, por, nëse ndahet në këtë mënyrë, mesazhi duhet të fshihet pasi personi tjetër ta ketë parë atë.
Ndërsa AI bëhet gjithnjë e më i aftë në imitimin e zërave njerëzorë, shqetësimet po rriten për potencialin e saj për të dëmtuar njerëzit, për shembull, duke ndihmuar kriminelët të kenë akses në llogaritë e tyre bankare dhe duke përhapur dezinformata.
Në fillim të këtij viti, OpenAI, prodhuesi i chatbot-it gjenerues të AI ChatGPT, zbuloi mjetin e tij të riprodhimit të zërit, Voice Engine, por nuk e bëri atë të disponueshëm për publikun në atë fazë, duke përmendur “potencialin për keqpërdorimin e zërit sintetik”.
Që nga viti 2015 nxisim shpirtin sipërmarrës, inovacionin dhe rritjen personale duke ndikuar në zhvillimin e një mjedisi motivues dhe pozitiv tek lexuesit tanë. Kjo punë që e bëjmë me shumë dashuri nuk ka të paguar. Ne jemi platforma e vetme e cila promovon modelin pozitiv të sipërmarrjes së lirë. Përmes kësaj platforme mbështesim edukimin gjatë gjithë jetës si mjet për zhvillimin personal dhe profesional të brezave. Kontributi juaj do të na ndihmojë në vazhdimin e këtij misioni në gjithë trevat shqipfolëse.
Mund të kontribuoni KETU. Falemnderit.