Nesta primavera setentrional, Clive Kabatznik, investidor da Flórida, telefonou para a representante local do Bank of America para discutir uma grande transferência de dinheiro que planejava fazer. Em seguida, ligou novamente.
Mas a segunda ligação não era de Kabatznik. Em vez disso, um programa de computador havia gerado artificialmente sua voz e tentado enganar a funcionária do banco para que transferisse o dinheiro para outro lugar.
Kabatznik e a funcionária foram alvos de uma tentativa de golpe de última geração que tem chamado a atenção de especialistas em segurança cibernética: o uso de inteligência artificial para gerar deepfakes de voz, interpretações vocais que imitam a voz de pessoas reais.
O problema ainda é tão novo que não há um registro abrangente da frequência com que ocorre. Mas um especialista cuja empresa, a Pindrop, monitora o tráfego de áudio para muitos dos maiores bancos dos EUA disse que tem observado um aumento em sua prevalência este ano – e na sofisticação das tentativas de fraude por voz dos golpistas. Outro grande provedor de autenticação por voz, a Nuance, sofreu seu primeiro ataque bem-sucedido de deepfake a um cliente de serviços financeiros no fim do ano passado.
No caso de Kabatznik, a fraude foi detectável. Mas a velocidade do desenvolvimento tecnológico, a queda dos custos dos programas de inteligência artificial generativa e a grande disponibilidade de gravações de voz de pessoas na internet criaram as condições perfeitas para fraudes auxiliadas por software de IA relacionado à voz.
Os dados dos clientes, como detalhes de contas bancárias, roubados por hackers – amplamente disponíveis em mercados clandestinos – ajudam os golpistas a perpetrar tais ataques. Estes são ainda mais fáceis com clientes ricos, cujas aparições públicas, incluindo discursos, com frequência estão disponíveis na internet. Encontrar amostras de áudio de clientes comuns também pode ser tão fácil quanto fazer uma pesquisa on-line – por exemplo, em aplicativos de mídia social como o TikTok e o Instagram – pelo nome de alguém cujos dados bancários os fraudadores já possuem. “Existe muito conteúdo de áudio por aí”, comentou Vijay Balasubramaniyan, CEO e fundador da Pindrop, que analisa os sistemas automatizados de verificação de voz para oito dos dez maiores credores dos EUA.
Na última década, a Pindrop analisou as gravações de mais de cinco bilhões de chamadas recebidas nas centrais de atendimento administradas pelas empresas financeiras que atende. As centrais lidam com produtos como contas bancárias, cartões de crédito e outros serviços oferecidos por grandes bancos de varejo. Todas as centrais de atendimento recebem chamadas de fraudadores, geralmente de mil a dez mil por ano. Balasubramaniyan informou que é comum receber 20 ligações de golpistas por semana e que as vozes falsas criadas por programas de computador representam apenas “um punhado” dessas chamadas, que só começaram a ser feitas no ano passado.
A maioria dos ataques de voz falsa registrados pela Pindrop foi cometida em centrais de atendimento de cartões de crédito, nas quais representantes humanos atendem clientes que precisam de ajuda com seus cartões.
Balasubramaniyan mostrou a um repórter uma gravação anônima de uma dessas ligações, feita em março. Embora seja um exemplo muito rudimentar – a voz, nesse caso, soa robótica, mais parecida com a de um leitor eletrônico do que com a de uma pessoa –, a chamada ilustra como os golpes podem ser praticados à medida que a IA facilita a imitação de vozes humanas.
Um bancário é ouvido cumprimentando o cliente. Em seguida, a voz, semelhante a uma voz automática, diz: “Meu cartão foi recusado.” “Posso saber com quem tenho o prazer de falar?”, responde o bancário. “Meu cartão foi recusado”, repete a voz. O bancário pergunta de novo o nome do cliente. Segue-se um silêncio, durante o qual se ouve um som fraco de teclas. De acordo com Balasubramaniyan, o número de pressionamentos das teclas corresponde ao número de letras do nome do cliente. O fraudador está digitando as palavras em um programa que as lê.
Nesse caso, a fala sintética do autor da chamada levou o funcionário a transferi-la para outro departamento e sinalizá-la como potencialmente fraudulenta, explicou Balasubramaniyan.
Ligações como a que ele compartilhou, que usam tecnologia de conversão de texto em fala, são alguns dos ataques mais fáceis de combater: as centrais de atendimento podem usar software de triagem para identificar indícios técnicos de que a fala é gerada por máquina. “A fala sintética deixa rastros, e muitos algoritmos antifalsificação os detectam”, afirmou Peter Soufleris, CEO da IngenID, fornecedora de tecnologia de biometria por voz.
Mas, como acontece com muitas medidas de segurança, trata-se de uma corrida armamentista entre atacantes e defensores, que evoluiu recentemente. Agora, um golpista pode simplesmente falar ao microfone ou digitar uma mensagem e fazer com que essa fala seja rapidamente traduzida para a voz do alvo.
Balasubramaniyan observou que um sistema de inteligência artificial generativa, o Vall-E da Microsoft, pode criar uma imitação de voz que diga o que o usuário deseja usando apenas três segundos de amostra de áudio.
Brett Beranek, gerente-geral de segurança e biometria da Nuance, fornecedora de tecnologia de fala que a Microsoft adquiriu em 2021, disse que, embora as demonstrações assustadoras de falsificação sejam comuns em conferências de segurança, os ataques na vida real ainda são muito raros. O invasor teve de fazer mais de uma dúzia de tentativas para efetuar o único ataque bem-sucedido a um cliente da Nuance, em outubro.
A maior preocupação de Beranek não são os ataques a centrais de atendimento ou sistemas automatizados, como sistemas de biometria por voz que muitos bancos implantaram, mas os golpes em que o autor da chamada entra em contato direto com uma pessoa.
Foi o que houve no caso de Kabatznik. De acordo com a descrição da bancária, parecia que o golpista estava tentando convencê-la a transferir o dinheiro para um novo destino, mas a voz repetitiva, falando por cima dela e usando frases distorcidas, fez com que a funcionária desligasse.
Kabatznik contou que, depois de receber mais duas ligações seguidas, a bancária informou a equipe de segurança do Bank of America. Preocupada com a segurança da conta de Kabatznik, ela parou de responder às ligações e aos e-mails dele – mesmo os do verdadeiro Kabatznik. Cerca de dez dias transcorreram antes que os dois restabelecessem a conexão, quando o cliente marcou uma visita a ela em seu escritório.
Segundo William Halldin, porta-voz do Bank of America, “treinamos constantemente nossa equipe para identificar e reconhecer golpes e ajudar nossos clientes a evitá-los”, acrescentando que não poderia falar sobre clientes específicos ou sobre a experiência deles.
Embora os ataques estejam ficando cada vez mais sofisticados, originam-se de uma ameaça básica à segurança cibernética que existe há décadas: uma violação de dados que revela informações pessoais de clientes bancários. De 2020 a 2022, mais de 300 milhões de dados pessoais de pessoas caíram nas mãos de hackers, resultando em perdas de US$ 8,8 bilhões, de acordo com a Comissão Federal de Comércio.
Depois de coletar um lote de números, os hackers examinam as informações e as combinam com pessoas reais. Os que roubam as informações quase nunca são os mesmos que acabam ficando com elas. Em vez disso, eles as vendem. Os especialistas podem usar qualquer um dos vários programas de fácil acesso para falsificar os números de telefone dos clientes-alvo. É bem provável que tenha sido assim no caso de Kabatznik.
É fácil encontrar gravações de sua voz. Na internet, há vídeos dele falando em uma conferência e participando de uma campanha de arrecadação de fundos. “Acho muito assustador. O problema é que não sei o que pode ser feito em relação a isso. Você simplesmente vai para a clandestinidade e desaparece?”, disse Kabatznik.
noticia por : R7.com