Home Tecnologia Os ‘deepfakes’ de voz dos seus ahorros

Os ‘deepfakes’ de voz dos seus ahorros

Por Humberto Marchezini


Nesta primavera, Clive Kabatznik, um investidor da Flórida, ligou para seu representante local do Bank of America para falar de uma grande transferência de dinheiro que pensava ter feito. Luego virou uma chamada.

Exceto que a segunda chamada não era de Kabatznik. Em vez disso, um programa de informática foi gerado de maneira artificial por sua voz e pretendia envolver a equipe do banco para que transferisse o dinheiro para outro destino.

Kabatznik e sua banca foram objeto de uma intenção de estafa de última geração que captou a atenção dos especialistas em cibersegurança: o uso da inteligência artificial para gerar deepfakes (ou ultrafalsos) de voz, interpretações vocais que imitam a voz de pessoas reais.

O problema é ainda tão novo que não existe um relato exaustivo da frequência que se produz. Mas um especialista da sua empresa, Pindrop, supervisiona o tráfico de áudio para muitos dos bancos mais importantes dos Estados Unidos, disse que este ano viu um aumento de sua prevalência e da sofisticação de tentativas de fraude com voz por parte dos estafadores. No final do ano passado, outro grande provedor de autenticação de voz, Nuance, sofreu seu primeiro ataque exitoso com ultrafalsos contra um cliente de serviços financeiros.

No caso de Kabatznik, a fraude foi detectável. No entanto, a velocidade do desenvolvimento tecnológico, a queda dos custos dos programas de inteligência artificial generativa e a ampla disponibilidade de captura de vozes de pessoas na Internet criaram as condições perfeitas para as estações ajudadas por programas de IA relacionados com a voz .

Os dados de clientes, como as contas bancárias que roubam os piratas informáticos — e estão disponíveis nos mercados clandestinos — ajudam os estafadores a levar a cabo esses ataques. Resultam ainda mais fáceis com clientes adinerados, com aparições públicas, incluindo discursos, suelen estar amplamente disponíveis na internet. Encontrar coleções de áudio de clientes do dia a dia também pode ser tão fácil quanto realizar uma pesquisa on-line — por exemplo, em aplicativos de redes sociais como TikTok e Instagram — do nome de alguém cujos dados bancários já possuem estafadores.

“Hay mucho contenido de audio por ahí”, afirmou Vijay Balasubramaniyan, conselheiro delegado e fundador da Pindrop, que revisa os sistemas automáticos de verificação por voz de ocho das 10 maiores entidades creditícias dos Estados Unidos.

Na última década, Pindrop revisou as capturas de mais de 5.000 milhões de chamadas recebidas nos centros de atendimento telefônico das empresas financeiras para aquelas que prestam serviços. Os centros gerenciais produzem produtos como contas bancárias, cartas de crédito e outros serviços oferecidos a grandes bancos minoristas. Todos os centros de atenção telefónica recebem chamadas de estafadores, normalmente entre 1000 e 10.000 por ano. É habitual que se recebam 20 chamadas de estafadores por semana, segundo Balasubramaniyan.

Até agora, as vozes falsas criadas por programas informáticos apenas representam “um puñado” dessas chamadas, segundo Balasubramaniyan, e não haviam empezado a produzir até o ano passado.

A maioria dos ataques com vozes falsas que viram Pindrop foi produzida em centros de atendimento telefônico de cartões de crédito, onde representantes humanos atendem a clientes que precisam de ajuda com seus cartões.

Balasubramaniyan mostrou a um jornalista uma captura anônima de uma dessas chamadas, que você colocou em março. Embora se trate de um exemplo muito rudimentar —a voz neste caso é robótica, mais semelhante ao de um leitor de livros eletrônicos do que ao de uma pessoa—, a chamada ilustra como você pode produzir estafas na medida em que o IA facilita mais imitação de vozes humanas.

Se você é um funcionário bancário que atende ao cliente. Depois da voz, de forma automatizada, diz: “Minha tarjeta foi rechazada”.

“¿Puedo questionar con quién tengo el gusto?”, responde o empregado bancário.

“Mi tarjeta foi rechazada”, volte a dizer a voz.

O empregado bancário volta a perguntar o nome do cliente. Um silêncio é feito quando o som fraco de uma das teclas é emitido. Segundo Balasubramaniyan, o número de pulsações corresponde ao número de letras no nome do cliente. El estafador teclea palabras en un programa que luego las lee.

Neste caso, a conversa sintética do interlocutor foi ao serviço para transferir a chamada para outro departamento e marcá-la como potencialmente fraudulenta, explicou Balasubramaniyan.

Chamadas como esta, que utilizam tecnologia de texto a voz, são alguns dos ataques mais fáceis de combater: os centros de atenção telefônica podem usar software de detecção para identificar indícios técnicos de que o discurso foi gerado por uma máquina.

“A palavra sintética já foi rastreada e muitos algoritmos antifalsificadores foram detectados”, explicou Peter Soufleris, diretor geral da IngenID, fornecedor de tecnologia de biometria de voz.

No entanto, como ocorrem com muitas medidas de segurança, trata-se de uma carreira armamentística entre atacantes e defensores, e esta tem evoluído nos últimos tempos. Agora, um estafador pode falar sozinho por um microfone ou receber uma mensagem e traduzi-la rapidamente para a voz do alvo.

Balasubramaniyan sinalizou que um sistema de inteligência artificial generativa, VALL-E da Microsoft, poderia criar uma imitação de voz que dijera o que o usuário deseja a partir de uma exibição de áudio de apenas três segundos.

Em maio, em um episódio de 60 minutosRachel Tobac, consultora de segurança, utilizou um software para clonar de forma tão convincente a voz de Sharyn Alfonsium dos correspondentes do programa, que logrou envolver um funcionário de 60 minutos para que ele morresse o número do passaporte de Alfonsi.

O ataque só demorou cinco minutos para ser elaborado, disse Tobac, diretora executiva da SocialProof Security. A ferramenta que você utilizou está disponível para sua compra desde janeiro.

Brett Beranek, diretor geral de segurança e biometria da Nuance, fornecedor de tecnologia de voz que a Microsoft adquiriu em 2021, afirma que, embora as demonstrações de aterradores de ultrafalsos sejam habituais nas conferências de segurança, os ataques reais continuam sendo muito pouco frequentes. O único ataque exitoso contra um cliente da Nuance, em outubro, levou a um ataque mais de uma cena de intenções.

A maior preocupação de Beranek não são os ataques a centros de atendimento telefônico ou sistemas automatizados, como os sistemas biométricos de voz que muitos bancos foram desplegados. Ele se preocupa com as situações em que a pessoa que o chama chega diretamente a um indivíduo.

“Tuve uma conversa a princípio desta semana com um de nossos clientes”, disse. “Eu disse, olá, Brett, é fantástico que tenhamos nosso centro de contato seguro, mas o que acontece se alguém ligar para nosso diretor executivo diretamente para seu telefone celular e se passar por outra pessoa?”

Isso foi o que aconteceu no caso de Kabatznik. Segundo a descrição da banca, parecia que o estadista tentava convencê-la de transferir o dinheiro para um novo destino, mas a voz era repetitiva, falava por muito tempo e usava frases confusas. La banquera colgó.

“Era como você estudava conversando com ela, mas não tinha sentido”, contou Kabatznik que ele havia dito sobre a banca. (Um porta-voz do Bank of America foi negociado para permitir que o funcionário estivesse disponível para uma entrevista).

Kabatznik explica que, depois de receber outras chamadas semelhantes em seguida, a banca informou ao equipamento de segurança do Bank of America. Preocupado com a segurança da conta de Kabatznik, estou ansioso para responder suas chamadas e e-mails, mesmo aqueles que processam a verdade de Kabatznik. Tardaron uns dias atrás restabeleceu a conexão, quando Kabatznik organizou uma visita ao seu escritório.

“Capacitamos de maneira constante a nossa equipe para identificar e reconhecer as estafas e ajudar nossos clientes a evitá-las”, comentou William Halldin, porta-voz do Bank of America, que acrescentou que não poderia fazer comentários sobre clientes concretos ou suas experiências.

Embora os ataques sejam cada vez mais sofisticados, derivam de uma ameaça básica de cibersegurança que existe há décadas: uma filtragem de dados que revela as informações pessoais dos clientes bancários. Entre 2020 e 2022, dados pessoais de mais de 300 milhões de pessoas caíram em mãos de piratas informáticos, o que provocou perdas de 8.800 milhões de dólares, segundo a Comissão Federal de Comércio.

Uma vez que um lote de números foi compilado, os piratas informáticos examinam as informações e o relacionam com pessoas reais. Aqueles que roubam a informação por acaso nunca são as mesmas pessoas que acabam de tê-la. Em seu lugar, os ladrones la ponen à la venta. Os especialistas podem usar qualquer um dos programas de fácil acesso para falsificar os números de telefone dos clientes que pretendem estar, e isso é o que provavelmente ocorreu no caso de Kabatznik.

É fácil encontrar capturas de voz. Na internet há vídeos dele conversando em uma conferência sim participando em uma recaudação de fundos.

“Acredito que é bastante aterrador”, concluiu Kabatznik. “O problema é que não sei o que fazer ao respeito. ¿Te metes bajo tierra y desaparece?”.

Áudio produzido por Tally Abecassis.

Emily Fliter cubre finanças. É autor de A parede branca: como as grandes finanças levam a América negra à falência. Más de Emily Flitter

Stacy Cowley é um periódico de economia especializado em temas relacionados ao consumidor e segurança de dados. Reportei anteriormente sobre uma variedade de temas comerciais, incluindo tecnologia e economia, em CNN Money, Fortune Small Business e outras revistas e sites da web. Mais de Stacy Cowley






Source link

Related Articles

Deixe um comentário