A autenticação por voz não é muito usada no Brasil, mas é comum em outros países
Segundo o estudo, a nova técnica Autenticação por voz é capaz de ultrapassar esses sistemas em 99% dos casos. Uma nova técnica desenvolvida por pesquisadores da Universidade de Waterloo, na Bélgica, mostra que sistemas de autenticação por voz são vulneráveis a ataques de inteligência artificial.
Os sistemas de autenticação vocal menos usados no Brasil, mas comuns nos Estados Unidos e Europa, funcionam com perfis criados a partir da voz dos clientes. Uma gravação no momento do acesso é comparada com a identidade armazenada nos servidores em busca de similaridades e sinais de manipulação. Ou então, na sintetização que distinguem uma amostra artificial da real.
A técnica desenvolvida pela equipe da Universidade de Waterloo se concentra na remoção dos marcadores usuais de uma voz gerada a partir de IA. Com o uso de softwares capazes de reconhecer esses marcadores e sinais usuais de deepfakes, os pesquisadores criaram áudios praticamente sem falhas.
Após um máximo de seis tentativas, a taxa de sucesso do ataque atingiu 99%. Os bancos utilizam esse limite para bloquear o acesso em caso de falta de correspondência com a biometria vocal armazenada. Por meio de edição, geram as vozes a partir de um sintetizador com tecnologias de inteligência artificial também usadas para a criação de deepfakes.
Os especialistas alertam para a insegurança da autenticação vocal e recomendam o uso de outros métodos de verificação. Ou seja, os aplicativos para celular, biometria facial ou impressão digital. Essas alternativas são mais seguras para atividades sensíveis, como operações financeiras.
O estudo da Universidade de Waterloo mostra ainda que o método desenvolvido pode superar, até mesmo, as barreiras mais recentes implementadas pelas instituições financeiras após pesquisas e métodos divulgados no início do ano. A possibilidade de fraudes envolvendo operações financeiras não autorizadas e transferências indevidas se torna um risco real.