Anslut till Senaste Tekniska Nyheter, Bloggar, Recensioner

47 % indier som blivit offer för AI-drivna röstbedrägerier: Rapportera

En rapport från McAfee, The Artificial Imposter, avslöjar hur AI-teknik kan göra röstkloner med tre sekunders ljud. Rapporten varnar för online röstbedrägerier och bekräftar McAfees prognoser om AI och Crypto-bedrägerier 2023.

McAfee-studie avslöjar farorna med AI-röstkloningsbedrägerier

McAfee genomförde nyligen en undersökning av 7 054 personer i sju länder och fann att 25 % av vuxna har upplevt AI-röstbedrägerier, där 77 % av dessa offer förlorar pengar. Studien avslöjade också att bedragare använder AI-röstkloningsteknik för att skicka falska röstmeddelanden eller samtal till offrens kontakter och låtsas vara i nöd.

Svar och kostnaden för att falla för AI-röstbedrägerier

Dessutom sa nästan hälften av de tillfrågade att de skulle svara på ett röstmeddelande eller röstmeddelande som påstod sig vara från en älskad i behov av pengar. Kostnaden för att falla för dessa bedrägerier kan vara hög, med över en tredjedel av dem som förlorade pengar rapporterar förluster på över $1 000.

Ökningen av djupförfalskningar och desinformation har också lett till ökad misstro mot sociala medier, där 32 % av de vuxna säger att de nu är mindre förtroendefulla än tidigare.

Indien som drabbas mest av AI-drivna röstbedrägerier

MSI Research genomförde McAfee Artificial Imposter-undersökningen med hjälp av ett online-frågeformulär från 13 april till 19 april 2023. Undersökningen bestod av 7 054 vuxna från 18 år och äldre från sju länder, inklusive 1 010 svarande från Indien.

Undersökningen visade att bruket att göra röster tillgängliga online är vanligast i Indien, med 86 % av människorna som gör det minst en gång i veckan. Bland de tillfrågade uppgav 47 % att de antingen själva var ett offer (20 %) eller kände någon som hade det (27 %).

Olika rapporter tyder på att Indien är det land som drabbas mest av AI-drivna röstbedrägerier, med 83 % av offren som förlorar pengar till cyberbrottslingar som använder AI för att manipulera röster från vänner och familjemedlemmar.

Dessa bedragare jagar ofta målens förtroende och känslor genom att låtsas vara i nöd och be om akut ekonomisk hjälp. Många indiers oförmåga att skilja mellan en äkta mänsklig röst och en AI-genererad röst gör dem särskilt sårbara för sådana bedrägerier.

McAfee Labs Research finner att röstkloning är enklare än du tror

Röstkloning, en teknik som använder artificiell intelligens för att efterlikna någons röst, har blivit mer tillgänglig och lättare att använda, enligt en nyligen genomförd studie gjord av McAfee-forskare. De hittade över ett dussin fritt tillgängliga verktyg för röstkloning online, med några som bara krävde en grundläggande expertis att använda.

Med bara tre sekunders ljud gav ett verktyg en röstmatchning på 85 %, och genom att träna datamodellerna uppnåddes en röstmatchning på 95 %. Cyberkriminella kan använda röstkloning för att utnyttja känslomässiga sårbarheter, särskilt de i nära relationer, och lura människor på tusentals dollar på några timmar.

Även om AI-röstkloningsverktyg enkelt kan replikera accenter från hela världen, är distinkta röster med unik takt, rytm eller stil svårare att kopiera. Den enkla tillgången till dessa verktyg innebär dock att inträdesbarriären för cyberbrottslingar aldrig har varit lägre.

För att skydda dig från AI-röstkloning rekommenderar McAfee:
  • Ställ in ett verbalt “kodord” med pålitliga vänner och familj att fråga efter om de ringer eller sms:ar och ber om hjälp.
  • Ifrågasätt alltid källan till samtal, sms eller e-postmeddelanden, särskilt från okända avsändare.
  • Var försiktig med vem du delar personlig information med online.
  • Använd identitetsövervakningstjänster för att säkerställa att din personliga information inte är tillgänglig eller används med uppsåt.

Kolla in den fullständiga undersökningsdatan, inklusive landsspecifika resultat, här.

När Steve Grobman, CTO för McAfee, talade om rapporten, sa:

AI-teknik ger enorma möjligheter, men tyvärr kan den också användas för skadliga syften i fel händer. Cyberbrottslingar drar fördel av tillgängligheten och enkelheten hos AI-röstkloningsverktyg för att lura människor att skicka pengar eller personlig information. Det är viktigt att vara uppmärksam och vidta nödvändiga försiktighetsåtgärder för att skydda dig själv och dina nära och kära.

För att bekräfta äktheten av ett samtal från en familjemedlem eller make som ber om ekonomisk hjälp, använd ett förutbestämt kodord eller ställ en fråga som bara de skulle veta. Dessutom kan identitets- och integritetsskyddstjänster hjälpa till att begränsa personlig information som kan användas av cyberbrottslingar för att skapa en övertygande röstklon.