Você está visualizando atualmente AI é usada para imitar a voz de pessoas e aplicar golpes
Avanços nesta área podem interagir com o universo digital, mas sempre há quem busque se aproveitar de ferramentas tecnológicas para aplicar golpes

AI é usada para imitar a voz de pessoas e aplicar golpes

Avanços nesta área podem trazer e interagir com o universo digital, mas sempre há quem busque se aproveitar de ferramentas tecnológicas para aplicar golpes.

Mais de 5.100 desses incidentes aconteceram por telefone, representando mais de US$ 11 milhões em perdas, disseram autoridades da FTC.

Avanços na inteligência artificial adicionaram uma nova camada assustadora, permitindo que atores mal-intencionados repliquem uma voz com apenas uma amostra de áudio de algumas frases. Alimentado por IA, uma série de ferramentas online baratas pode traduzir um arquivo de áudio em uma réplica de uma voz, permitindo que um golpista a faça “falar” o que quer que digite.

Especialistas dizem que os reguladores federais, as autoridades policiais e os tribunais estão mal equipados para controlar o golpe crescente. A maioria das vítimas tem poucas pistas para identificar o criminoso e é difícil para a polícia rastrear ligações e fundos de golpistas que operam em todo o mundo. E há poucos precedentes legais para que os tribunais responsabilizem as empresas que fazem as ferramentas por seu uso.

Embora os golpes de impostores ocorram de várias formas, eles funcionam essencialmente da mesma maneira. Um golpista se faz passar por alguém confiável e convence a vítima a enviar dinheiro porque está em perigo.

Mas a tecnologia de voz gerada artificialmente está tornando a estratégia mais convincente. As vítimas relatam reagir com horror visceral ao ouvir entes queridos em perigo. O Post apresentou a história de uma mulher, Ruth Card, que recebeu uma ligação com a voz muito parecida à de seu neto, Brandon.

Os golpes

No caso de vítimas como Benjamin Perkin, a situação terminou de forma diferente. Seus pais, um casal de idosos, recebeu uma ligação de alguém dizendo ser ser um advogado, informando que seu filho se envolveu em um acidente de carro que matou um diplomata americano. Com isso, Perkin estava na cadeia, e precisava de dinheiro para as taxas legais.

O advogado colocou Perkin, de 39 anos, no telefone, que disse que os amava, os apreciava e precisava do dinheiro. Algumas horas depois, o advogado ligou novamente para os pais de Perkin, dizendo que o filho precisava de o equivalente a US$ 15.449 antes de uma audiência no tribunal naquele dia.

Quando o verdadeiro Perkin ligou para seus pais naquela noite para uma conversa casual, eles ficaram confusos. Não está claro de onde os golpistas conseguiram sua voz, embora Perkin tenha postado vídeos no YouTube falando sobre seu hobby de snowmobile. A família apresentou um relatório policial às autoridades federais do Canadá, disse Perkin, mas isso não trouxe o dinheiro de volta.

É um impacto sombrio do recente aumento da inteligência artificial generativa. Avanços em matemática e poder de computação melhoraram os mecanismos de treinamento para esse software.

Mas Farid explicou ao Post que o software de geração de voz de IA analisa o que torna a voz de uma pessoa única – incluindo idade, gênero e sotaque – e pesquisa um vasto banco de dados de vozes para encontrar outras semelhantes e prever padrões.

Então, a inteligência artificial pode recriar o tom, o timbre e os sons individuais da voz de uma pessoa para criar um efeito geral semelhante. Isto requer uma pequena amostra de áudio, retirada de lugares como YouTube, podcasts, comerciais, TikTok, Instagram ou vídeos do Facebook, explicou o especialista.