Så blir klonade röster en säkerhetsrisk i kontaktcentret

säkerhet Bedragare har börjat använda sig av deep fake-teknik för att imitera röster enligt analytikerna på Pindrop. Här är de fyra vanligaste angreppsmetoderna.

Så blir klonade röster en säkerhetsrisk i kontaktcentret

Ai-tekniken kan användas till många olika bra saker, men i händerna på fel personer kan den tyvärr också användas för att genomföra bedrägerier och andra typer av brottslighet. Den så kallade deep fake-tekniken är främst förknippad med förfalskade bilder och filmer, där en känd person för fram ett falskt budskap, men tekniken kan också användas för att klona endast röster på ett mycket realistiskt sätt.

Någonting är fel

Du är inloggad som prenumerant hos förlaget Pauser Media, men nånting är fel. På din profilsida ser du vilka av våra produkter som du har tillgång till. Skulle uppgifterna inte stämma på din profilsida – vänligen kontakta vår kundtjänst.
Telekom idag premium

Läs vidare – starta din prenumeration

  • Tillgång till vår digitala Premium-tjänst om professionell kommunikation.
  • Nischade nyhetsbrev för Professional och Contact Center.
  • Få tillgång till alla avsnitt i vår utbildnings-tv om Teams-telefoni, SD-Wan och Chattbotar.
  • Sex papperstidningar om året med tydligt fokus på Telekom-branschens viktigaste frågor.
Redan prenumerant?

Utvecklingen är oroande eftersom ai-tekniken utvecklas snabbt, vilket har gjort det enklare att skapa en klonad röst som är i princip omöjlig att upptäcka utan att man använder sig av särskilda säkerhetslösningar. Idag är några sekunders inspelning av din röst allt som behövs för att skapa en klonad kopia som kan användas av bedragare.

Analytikerna på säkerhetsföretaget Pindrop, som är specialiserat på just rösttjänster, har kommit fram till att bedragare använder sig av klonade röster på fyra olika sätt när de siktar in sig på kontaktcenter. Det har man gjort genom att analysera ett antal inkommande samtal där klonade röster har använts.

Deep fake-röster används inte enbart för att försöka lura autentiserings-funktionen

Trots att ai-tekniken gör det möjligt för bedragarna att genomföra ett helt samtal med en klonad röst var de flesta bedrägeriförsök mindre avancerade än så. De fokuserade på att använda den klonade rösten för att undersöka hur man navigerar i ett ivr-system och för att stjäla grundläggande personuppgifter. Med hjälp av denna information kan sedan bedragarna genomföra samtalen med sin egen röst och använda sig av mer traditionella metoder för social ingenjörskonst.

Deep fake-rösten används för att kringgå ivt-autentisering

I det första exemplet använde bedragarna klonade röster för att undersöka ivr-systemets konstruktion, men tekniken används även för att helt kringgå autentiseringen, vilket innebär att bedragaren direkt får tillgång till känslig information, exempelvis saldon på bankkonton. På så sätt kan bedragaren identifiera vilka kunder som kan vara extra intressanta att sikta in sig på.

Deep fake-röst används för att ändra kontaktuppgifter

Den tredje metoden som angriparna använder sig av är att ändra kontouppgifterna för en användare, exempelvis e-postadress och fysisk adress. På så sätt kan de beställa nya kreditkort eller få tillgång till engångslösenord för att gå vidare med sitt bedrägeri.

Deep fake-rösten används för att efterlikna ivr-system

Ytterligare en strategi för att genomföra bedrägerier är när gärningsmännen använder sig av klonade röster för att efterlikna ett ivr-system. Pindrop upptäckte att automatiserade samtal in till kontaktcentret använde samma, klonade röst. Man tolkar det som ett första steg i ett framtida upplägg för bedrägerier, där man försöker lura kunder att lämna ifrån sig känslig information till ett falskt kontaktcenter.

Pindrop rekommenderar alla kontaktcenterchefer att säkerställa att man har en säkerhetslösning som hjälper dem att sätta stopp för deep fake-attacker.

Senaste artiklarna

Hämtar fler artiklar
Till startsidan
Telekom idag

Telekom idag Premium

Nyhetstjänsten för dig som jobbar med professionell kommunikation. Nu med nya nischade nyhetsbrev för ditt intresseområde och utbildnings-tv.