Anslut till Senaste Tekniska Nyheter, Bloggar, Recensioner

Studie: Människor kan bara upptäcka djupfalskt tal 73 % av tiden

Resultat: 73 % noggrannhet. Med andra ord, vart fjärde försök med djupfalskt ljud kan förvänta sig att fungera utan att höja några röda flaggor för sina mål.

Kimberly Mai, den första författaren till studien, förklarade att detta är dåliga nyheter:

“I vår studie visade vi att att träna människor att upptäcka djupa förfalskningar inte nödvändigtvis är ett tillförlitligt sätt att hjälpa dem att bli bättre på det. Tyvärr visar våra experiment också att automatiserade detektorer för närvarande inte heller är tillförlitliga.”

Deepfake Speech-bedrägerier är vanligare än du tror

Audiodeepfakery kan låta som Mission: Impossible spionteknologi, men en av fyra vuxna har redan upplevt en, enligt en undersökning.

Samma McAfee-undersökning visade att 10 % var personligt riktade, och ytterligare 15 % kände någon som hade varit det. Samtidigt var offren ganska säkra på att de inte kunde luras. Som Tech.co senior skribent Aaron Drapkin Ställ det just då:

McAfee-undersökningen fann också att 70 % av människorna sa att de var “osäkra” på om de skulle kunna se skillnaden mellan en AI-röst och en mänsklig. Nästan en tredjedel (28%) av de svarande i USA sa att de inte skulle kunna se skillnaden mellan ett röstmeddelande som lämnats av en “Artificiell bedragare”, som McAfee uttrycker det, och en älskad.

Av offren i USA som förlorade pengar genom AI-röstkloningsbedrägerier, förlorade 11 % mellan $5 000–15 000 $.