Tror du att du kan se skillnaden mellan ett röstmeddelande från någon du älskar och ett röstmeddelande som genereras av AI? Tja, bedragare som använder AI-röstkloningsteknik för att lura intet ont anande offer hoppas verkligen att du inte kan det – och nu är de mer aktiva nu än någonsin.
En undersökning som nyligen genomfördes av McAfee fann att en fjärdedel av vuxna redan har blivit utsatta för AI-röstbedrägerier, med den överväldigande majoriteten som förlorar surt förvärvade pengar som ett resultat. Det visade också att majoriteten av vuxna delar sin röst på sociala media plattformar och andra onlineutrymmen minst en gång i veckan – vilket ger hotaktörer exakt vad de behöver för att utföra den här typen av bedrägeri om och om igen.
Så, hur fungerar AI-röstkloningsbedrägerier egentligen, hur vanligt är det och hur kan du upptäcka en AI-röstkloningsbedrägeri? Vi tittar närmare.
Vad är en AI Voice Cloning Scam?
En AI-röstkloningsbedrägeri är varje bedrägeri som använder artificiellt genererade ljudfiler för att lura offer att tro att deras nära och kära är i fara eller behöver akut ekonomisk hjälp och har kontaktat dem för att få hjälp.
I en bedrägeri av detta slag kommer en bedragare att köra ett klipp av ett ämne som talar – ofta skrapat från sociala medier – genom en AI-röstgenerator. Med hjälp av maskininlärning kommer generatorn att analysera kadensen, tonen och tonhöjden för det första klippet och sedan låta bedragaren producera unikt, originalljud som efterliknar motivets röst nästan perfekt.
Bedragaren kommer sedan att skicka dessa inspelningar till vänner och släktingar till ämnet via appar som WhatsApp, i hopp om att de inte kan skilja mellan sin älskade och en AI-genererad version av deras röst.
Som är vanligt för andra bedrägerier onlinekommer bedragaren att försöka injicera en känsla av brådska och ångest i sin korrespondens, för att knuffa målet att agera oförsiktigt eller oregelbundet.
I ett nyligen fall försökte en AI-röstbedragare övertyga en mamma i USA om att hennes dotter hade blivit kidnappad genom att klona barnets röst.
Angående, kommer en blivande bedragare inte att ha svårt att gräva fram de ljudfiler de behöver för att rikta in sig på ett offer – i själva verket kommer de sannolikt att vara bortskämda med valmöjligheter.
En maj 2023 undersökning publicerad av McAfee som involverade över 7 000 personer från sju olika länder fann att 53 % av de svarande sa att de delar sin röst online minst en gång i veckan. I Indien var denna siffra 86 %.
Hur röstkloning faktiskt fungerar
AI-röstkloning är endast möjlig med ett AI-verktyg som kallas en AI-röstgenerator. I ett nötskal, AI-röstgeneratorer förvandlar textfiler till tal (kallas ofta ett “text till tal”- eller “TTS”-verktyg).
AI-röstgeneratorer använder maskininlärning för att lära sig själva att tala på specifika sätt genom att analysera information från ljudfiler från personer som talar. Generatorerna använder sedan det de har lärt sig för att läsa textfiler från användare och generera originalljudinnehåll.
Många av dessa generatorer har anpassade röster som du kan välja för att läsa din text, såväl som kändisröster att välja mellan – men andra låter dig spela in din egen röst och skapa efterföljande ljudinnehåll.
Text-till-tal-verktyg Descript.com erbjuda en självbeskriven “state-of-the-art röstgenerator som skapar en ultrarealistisk klon av din egen röst”.
AI-röstgeneratorer är nu allmänt tillgängliga för alla typer av enheter. Dessa program ger mycket värde för människor som har svårt att läsa, eller helt enkelt lär sig bättre när de lyssnar på ljud snarare än att läsa det skrivna ordet.
De används också av reklamföretag som inte har en budget för att anställa en dyr voiceover-artist för sitt marknadsföringsinnehåll.
Framgången och den utbredda användningen av ChatGPT har lagt ett förnyat fokus på AI-verktyg av alla former och storlekar, inklusive sådana som kan användas för ljudkloning. Trots deras ädla användningsområden finns det nu ett litet ekosystem av TTS AI-verktyg som tyvärr kan missbrukas för elaka syften, inklusive att lura människor.
Hur vanliga är bedrägerier med AI Voice Clone?
I den nyligen släppta McAfee-undersökningen fann cybersäkerhetsjätten att 1 av 4 tillfrågade vuxna har upplevt en AI-röstbedrägeri. 10 % har blivit personligt riktade, medan 15 % känner någon som har gjort det.
77 % av de inriktade rapporterade att de förlorat pengar på grund av bluffen. McAfee rapporterar att av dessa 77%, “mer än en tredjedel förlorade över 1 000 $, medan 7% duperades av mellan 5 000 $ och 15 000 $.”
Offren i USA förlorar mest, visar undersökningen. 11 % av de amerikanska offren som förlorade pengar genom bedrägerier med AI-röstkloning förlorade mellan $5 000–15 000 $.
Hur man berättar om ett meddelande är en AI Voice Clone Scam
McAfee-undersökningen fann också att 70 % av människorna sa att de var “osäkra” på om de skulle kunna se skillnaden mellan en AI-röst och en mänsklig.
Nästan en tredjedel (28 %) av de tillfrågade i USA sa att de inte skulle kunna se skillnaden mellan ett röstmeddelande som lämnats av en “Artificiell bedragare”, som McAfee uttrycker det, och en älskad.
Kom ihåg att bedragare kanske kan replikera rösten från en älskad – men att ta kontroll över din älskades nummer eller WhatsApp-konto är mycket svårare.
Det kan vara svårt att agera lugnt när det låter som att någon av dina släktingar eller vänner är i nöd. Men med AI-röstbedrägerier som blir allt vanligare är det viktigt att du gör det. Det finns några tecken på att ett AI-röstmeddelande kan vara en bluff:
- En ovanlig kontaktmetod (t.ex. ett okänt nummer)
- Omedelbara förfrågningar om stora summor pengar
- Begäran om att pengar ska överföras på ovanliga sätt (t.ex. presentkort eller krypto)
- Ett krav på att du inte berättar för någon om samtalet/tillbudet
Med det i åtanke, här är vad FTC råder dig att göra:
- Ring numret som lämnade meddelandet till dig för att verifiera vem det är
- Ring din älskade eller vän på deras personliga nummer
- Skicka meddelande till familj och nära vänner till personen i fråga
Om du inte kan få kontakt är det viktigt att du informerar polisen omedelbart. För er som ännu inte har blivit utsatta för någon av dessa bedrägerier men vill säkerställa att ni inte blir offer för en, upprätta ett säkerhetsord med din familj och dina vänner.
Det här är en kod som innebär att du och dina nära och kära kan identifiera er för varandra är ett av de bästa sätten att säkerställa att ni inte blir offer för en AI-röstbedrägeri. Detta kommer att vara särskilt användbart för äldre familjemedlemmar, och om det aldrig skrivs ner, kan det hållas ganska enkelt.
Det är också viktigt att hålla sig uppdaterad med de senaste metoderna, teknikerna och formaten som AI-röstbedragare använder för att utpressa offer. Förutom att vara vaksam och behandla samtal från okända nummer med extrem försiktighet, är det ofta det bästa du kan göra att hålla örat mot marken.