Vozes geradas por inteligência artificial viram nova arma de golpistas

Vozes geradas por inteligência artificial viram nova arma de golpistas

Países como Estados Unidos e Canadá já se depararam com diversos crimes desse tipo; idosos são o principal alvo dos malfeitores. Ferramentas inteligentes deixam golpes mais sofisticados

THE WASHINGTON POST  O homem que ligou para Ruth Card tinha a voz igualzinha a de seu neto Brandon. Por isso, quando ele disse que havia sido preso, mas estava sem carteira ou celular e precisava de dinheiro para pagar a fiança, Ruth correu para fazer tudo o que podia para ajudar.

Ruth, 73, e seu marido, Greg Grace, 75, foram correndo até o banco em Regina, Saskatchewan (Canadá) e sacaram 3 mil dólares canadenses (US$ 2.207), limite permitido no dia. Em seguida, foram até uma segunda agência para sacar mais dinheiro. Mas o gerente do banco pediu que eles fossem até seu escritório: outro cliente tinha recebido uma ligação semelhante e percebeu que a voz assustadoramente parecida era uma farsa. O homem que lhe ligou provavelmente não era o neto deles. Foi quando perceberam que tinham sido enganados.

O suplício de Ruth indica uma tendência preocupante. A tecnologia está tornando mais fácil e mais barato para uma pessoa mal-intencionada imitar vozes, convencendo outras, muitas vezes idosas, de que seus entes queridos estão em perigo. Em 2022, os golpes de impostores foram o segundo tipo de extorsão mais praticado nos EUA, com mais de 36 mil relatos de pessoas sendo ludibriadas por aqueles que fingem ser amigos e familiares, de acordo com dados da Comissão Federal de Comércio (FTC, na sigla em inglês). Mais de 5.100 desses incidentes aconteceram por telefone, sendo responsáveis por mais de US$ 11 milhões em perdas, disseram funcionários da FTC.

Os avanços na inteligência artificial (IA) trouxeram uma nova preocupação, permitindo àqueles mal-intencionados a imitar a voz de alguém com apenas uma amostra de áudio com algumas frases. Alimentadas por IA, uma série de ferramentas online baratas podem transformar um arquivo de áudio na réplica de uma voz, permitindo que bandidos a usem para “falar” qualquer coisa digitada por eles.

Especialistas dizem que as agências reguladoras, a polícia e a justiça não estão preparados para frear o golpe cada vez mais comum. A maioria das vítimas tem poucas pistas para identificar o criminoso e é difícil para a polícia rastrear as chamadas e o dinheiro de golpistas em ação pelo mundo. Além disso, há poucos precedentes legais para a justiça responsabilizar as empresas que fabricam as ferramentas pelo seu uso.

“É aterrorizante”, disse Hany Farid, professor de forense digital da Universidade da Califórnia, em Berkeley. “É uma espécie de conjunção de fatores desagradáveis … [com] todos os ingredientes necessários para se criar o caos.”

Embora esses golpes aconteçam de várias formas, eles funcionam basicamente da mesma maneira: um golpista se passa por alguém de sua confiança – uma criança, um parceiro ou um amigo – e convence a vítima a enviar dinheiro porque a pessoa está em apuros.

Entretanto, a tecnologia de voz gerada artificialmente está tornando o truque mais convincente. As vítimas relatam reagir com pavor profundo ao ouvir entes queridos em perigo.

É um impacto tenebroso da expansão recente da inteligência artificial generativa, que está por trás de softwares que criam textos, imagens ou sons com base nos dados com os quais são alimentados, como o ChatGPT. Os avanços na matemática e no poder computacional aprimoraram os mecanismos de treinamento para esses softwares, estimulando uma série de empresas a lançar chatbots, criadores de imagens e de voz estranhamente realistas.

Os softwares de geração de voz com IA analisam o que torna a voz de uma pessoa única – incluindo idade, gênero e sotaque – e pesquisam num banco de dados de vozes enorme para encontrar outras semelhantes e prever padrões, disse Farid.

Eles conseguem então recriar o tom, o timbre e os sons específicos da voz de uma pessoa para gerar um resultado que, no geral, é semelhante, acrescentou. Para isso, basta uma amostra pequena de áudio, que pode ser extraída de lugares como YouTube, podcasts, comerciais, TikTokInstagram ou vídeos do Facebook, disse Farid.

A IA permite que golpistas se passem por outra pessoa (Imagem: Pixabay / mohamed_hassan)

“Dois anos atrás ou até mesmo há um ano, você precisava de bastante áudio para clonar a voz de uma pessoa”, disse Farid. “Agora… se você tem uma página no Facebook… ou se gravou um TikTok e sua voz está nele por 30 segundos, as pessoas podem clonar sua voz.”

Dificuldades e fiscalização

Eva Velasquez, CEO do Identity Theft Resource Center, ONG que presta assistência a vítimas de crimes desse tipo, disse que é difícil para a polícia rastrear criminosos de clonagem de voz. Segundo Eva, que passou 21 anos no Ministério Público Estadual em San Diego investigando fraudes contra consumidores, os departamentos de polícia podem não ter dinheiro e profissionais suficientes para financiar uma unidade dedicada ao rastreamento de fraudes.

Departamentos maiores precisam fazer a triagem de recursos para casos que podem ser resolvidos, disse ela. As vítimas de golpes de clonagem de voz podem não ter muitas informações para dar à polícia para as investigações, dificultando a destinação de tempo e recursos pelos policiais, principalmente no caso de perdas menores.

“Sem ter nenhuma informação”, disse ela. “Por onde eles começam?”

O professor Farid, porém, vê um caminho. Para ele, a justiça americana precisa responsabilizar as empresas de IA se os produtos que produzem levam a danos. Há um motivo para isso. Por lá, juristas, como o juiz da Suprema Corte americana Neil M. Gorsuch, afirmam que as proteções legais que blindam as redes sociais de ações judiciais podem não ser aplicáveis às ações geradas por IA. 

Tradução de Romina Cácia (via Estadão)

Please follow and like us:
0
Tweet 20
Pin Share20

Lairson Bueno

Lairson Rodrigues Bueno, advogado OAB DF 19407, especialista em Direito Penal, atuando na região Centro Oeste, e, estados de São Paulo e Piauí. É formado em Direito pela UCDB - Universidade Católica Dom Bosco de Campo Grande (MS), cursou Estudos Sociais pela UFMS - Universidade Federal de Mato Grosso do Sul, e, Teologia pela FE - Faculdade Evangélica de Brasília, pós graduado em Direito Penal e Formação Sócio Econômica do Brasil pela UNIVERSO-Universidade Salgado de Oliveira de Niterói (RJ). Mais de 70 cursos de qualificação e atualização profissional. Cursou Espanhol Básico e advogou na fronteira com o Paraguai. Ex-funcionario do Banco do Brasil por 12 anos e de cargos comissionados nas Administrações Públicas por 10 anos. Ex-presidente das Subseções da OAB por 3 mandatos, sendo dois mandatos por Samambaia (DF) e um por Taguatinga (DF). Contatos: (61) 9-8406-8620 advbueno@hotmail.com

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

RSS
Follow by Email
YouTube
Pinterest
LinkedIn
Share
Instagram
Telegram