Home Economia Como proteger você (e seus entes queridos) de chamadas fraudulentas de IA

Como proteger você (e seus entes queridos) de chamadas fraudulentas de IA

Por Humberto Marchezini


Você responde um uma ligação aleatória de um membro da família e eles explicam sem fôlego como ocorreu um terrível acidente de carro. Eles precisam que você envie dinheiro agora ou irão para a cadeia. Você pode ouvir o desespero em suas vozes enquanto imploram por uma transferência imediata de dinheiro. Embora pareça com eles e a ligação tenha vindo do número deles, você sente que algo está errado. Então, você decide desligar e ligar de volta. Quando um membro da sua família atende sua ligação, ele diz que não houve acidente de carro e que não tem ideia do que você está falando.

Parabéns, você acabou de evitar uma chamada fraudulenta de inteligência artificial.

À medida que as ferramentas generativas de IA se tornam mais capazes, fica mais fácil e barato para os golpistas criarem áudios falsos, mas convincentes, das vozes das pessoas. Esses clones de voz de IA são treinados em clipes de áudio existentes de fala humana e podem ser ajustados para imitar quase qualquer um. Os modelos mais recentes podem até falar vários idiomas. OpenAI, criadora do ChatGPT, anunciou recentemente um novo modelo de conversão de texto em fala que poderia melhorar ainda mais a clonagem de voz e torná-la mais amplamente acessível.

É claro que os malfeitores estão usando essas ferramentas de clonagem de IA para induzir as vítimas a pensarem que estão falando com um ente querido por telefone, mesmo que estejam falando com um computador. Embora a ameaça de golpes baseados em IA possa ser assustadora, você pode ficar seguro mantendo estas dicas de especialistas em mente na próxima vez que receber uma chamada urgente e inesperada.

Lembre-se de que o áudio AI é difícil de detectar

Não é apenas OpenAI; muitas startups de tecnologia estão trabalhando na replicação da fala humana com som quase perfeito, e o progresso recente é rápido. “Se fosse há alguns meses, teríamos dado dicas sobre o que procurar, como pausas grávidas ou algum tipo de latência”, diz Ben Colman, cofundador e CEO da Defensor da Realidade. Como muitos aspectos da IA ​​generativa no ano passado, o áudio da IA ​​é agora uma imitação mais convincente da realidade. Quaisquer estratégias de segurança que dependam da detecção audível de peculiaridades estranhas pelo telefone estão desatualizadas.

Desligue e ligue de volta

Especialistas em segurança alertam que é muito fácil para os golpistas fazerem parecer que a chamada vem de um número de telefone legítimo. “Muitas vezes, os golpistas falsificam o número de onde estão ligando para você, fazendo parecer que estão ligando para você daquela agência governamental ou do banco”, diz Michael Jabbara, chefe global de serviços de fraude da Visto. “Você tem que ser proativo.” Seja do seu banco ou de um ente querido, sempre que receber uma ligação pedindo dinheiro ou informações pessoais, vá em frente e peça para ligar de volta. Procure o número online ou em seus contatos e inicie uma conversa de acompanhamento. Você também pode tentar enviar uma mensagem a eles por meio de uma linha de comunicação diferente e verificada, como chat de vídeo ou e-mail.

Crie uma palavra secreta e segura

Uma dica de segurança popular sugerida por várias fontes foi criar uma palavra segura para pedir por telefone, que apenas os membros da família conheçam. “Você pode até pré-negociar com seus entes queridos uma palavra ou frase que eles possam usar para provar quem realmente são, caso estejam em uma situação de coação”, diz Steve Grobman, diretor de tecnologia da McAfee. Embora seja melhor ligar de volta ou verificar por outro meio de comunicação, uma palavra segura pode ser especialmente útil para parentes jovens ou idosos que, de outra forma, seriam difíceis de contatar.

Ou apenas pergunte o que eles comeram no jantar

E se você não tiver uma palavra de segurança definida e estiver tentando descobrir se uma ligação angustiante é real? Pare por um segundo e faça uma pergunta pessoal. “Poderia até ser tão simples quanto fazer uma pergunta cuja resposta apenas uma pessoa querida saberia”, diz Grobman. “Poderia ser: ‘Ei, quero ter certeza de que é realmente você. Você pode me lembrar o que jantamos ontem à noite?’” Certifique-se de que a pergunta seja específica o suficiente para que um golpista não consiga responder corretamente com um palpite fundamentado.

Entenda que qualquer voz pode ser imitada

Os clones de áudio deepfake não são reservados apenas para celebridades e políticos, como as ligações em New Hampshire que usaram ferramentas de IA para soar como Joe Biden e desencorajar as pessoas de irem às urnas. “Um mal-entendido é: ‘Isso não pode acontecer comigo. Ninguém pode clonar minha voz’”, diz Rahul Sood, diretor de produtos da PinDrop, uma empresa de segurança que descobriu as prováveis ​​origens do áudio de AI Biden. “O que as pessoas não percebem é que com apenas 5 a 10 segundos de sua voz, em um TikTok que você pode ter criado ou em um vídeo de sua vida profissional no YouTube, esse conteúdo pode ser facilmente usado para criar seu clone.” Usando ferramentas de IA, a mensagem do correio de voz enviada em seu smartphone pode até ser suficiente para replicar sua voz.

Não ceda aos apelos emocionais

Quer se trate de um golpe de abate de porcos ou de um telefonema de IA, golpistas experientes são capazes de construir sua confiança neles, criar um senso de urgência e encontrar seus pontos fracos. “Tenha cuidado com qualquer envolvimento em que você experimente um elevado sentimento de emoção, porque os melhores golpistas não são necessariamente os hackers técnicos mais experientes”, diz Jabbara. “Mas eles têm uma compreensão muito boa do comportamento humano.” Se você parar um momento para refletir sobre uma situação e evitar agir por impulso, esse pode ser o momento em que você evitará ser enganado.



Source link

Related Articles

Deixe um comentário