A inteligência artificial pode ‘roubar’ sua voz — e você não pode fazer muito a respeito
Publicado 10/03/2025 • 12:29 | Atualizado há 2 meses
Como a Amazon planeja alcançar Google e Microsoft na corrida pela computação quântica
Alumínio trava nos EUA: tarifas impostas por Trump não conquistam a indústria; entenda
Bill Gates pretende doar quase toda sua fortuna e encerrar a Fundação Gates até 2045
Livros autografados por Warren Buffett alcançam até US$ 100 mil em leilão durante encontro da Berkshire
Nova chefe da economia da Alemanha tem um plano — e ele começa com risco, velocidade e grandes apostas
Publicado 10/03/2025 • 12:29 | Atualizado há 2 meses
KEY POINTS
Inteligência artificial pode 'roubar' a sua voz.
Unsplasgh.
A maioria dos programas de clonagem de voz por inteligência artificial não possui barreiras eficazes para impedir a imitação não autorizada de pessoas, revelou uma investigação da Consumer Reports.
Nos últimos anos, a tecnologia avançou significativamente, permitindo que serviços repliquem com precisão a voz de alguém a partir de apenas alguns segundos de áudio. Um dos momentos mais alarmantes ocorreu nas primárias do Partido Democrata, quando várias ligações feitas por robôs, com uma falsa voz de Joe Biden, foram enviadas a eleitores, instruindo-os a não votar. O consultor político responsável foi multado em US$ 6 milhões, e a Comissão Federal de Comunicações (FCC) proibiu chamadas automatizadas geradas por IA.
Um estudo com as seis principais ferramentas públicas de clonagem de voz por IA revelou que cinco delas possuem proteções facilmente contornáveis, permitindo a imitação de vozes sem consentimento. Além disso, softwares de detecção de áudio deepfake ainda apresentam dificuldades em diferenciar vozes reais de sintetizadas.
A clonagem de voz por IA funciona por meio da captação de um trecho de áudio, sendo então usado para criar um arquivo sintético com a mesma entonação e timbre. Sem proteções adequadas, qualquer pessoa que crie uma conta nesses serviços pode simplesmente fazer upload de um vídeo do YouTube ou TikTok contendo a voz de alguém e gerar uma imitação perfeita.
O setor de inteligência artificial ainda carece de regulamentações federais nos Estados Unidos. As poucas medidas de segurança existentes são autoimpostas pelas próprias empresas. Embora o governo Biden tenha incluído diretrizes de segurança em uma ordem executiva assinada em 2023, Donald Trump revogou o documento ao assumir a presidência.
Quatro das seis ferramentas analisadas — ElevenLabs, Speechify, PlayHT e Lovo — apenas exigem que o usuário marque uma caixa confirmando que obteve permissão para clonar a voz de alguém.
Já o serviço Resemble AI solicita que o usuário grave um áudio em tempo real, em vez de simplesmente fazer upload de um arquivo. No entanto, a Consumer Reports conseguiu burlar essa exigência tocando uma gravação no computador e registrando o áudio como se fosse falado ao vivo.
A única ferramenta com um bloqueio mais eficaz foi a Descript, que exige que o usuário grave uma declaração específica de consentimento, dificultando falsificações — exceto se o áudio for gerado por outro serviço de clonagem.
Todos os seis serviços estão disponíveis publicamente em seus sites. Apenas ElevenLabs e Resemble AI cobram pelo uso — respectivamente, US$ 5 e US$ 1 para criar uma voz personalizada. Os demais são gratuitos.
Algumas empresas afirmam que o uso indevido de suas ferramentas pode gerar consequências graves.
“Reconhecemos o potencial de uso indevido dessa tecnologia e implementamos salvaguardas rigorosas para evitar deepfakes e proteger contra falsificação de voz”, disse um porta-voz da Resemble AI à NBC News.
Apesar dos riscos, a clonagem de voz tem aplicações legítimas, como auxiliar pessoas com deficiência ou permitir traduções automáticas de falas para outros idiomas. No entanto, o potencial de uso indevido é significativo, alerta Sarah Myers West, codiretora do AI Now Institute, um instituto de pesquisa sobre impactos da IA.
“Isso pode ser usado para fraudes, golpes e desinformação, incluindo a imitação de figuras institucionais”, disse West à NBC News.
Um dos golpes mais comuns é o “golpe dos avós”, em que criminosos telefonam para idosos fingindo ser um parente em perigo — sequestrado, preso ou hospitalizado. A Comissão Federal de Comércio (FTC) alertou que esses golpes podem estar usando IA, embora já existissem antes dessa tecnologia.
A clonagem de voz também tem sido usada para criação de músicas sem autorização, como ocorreu com uma música viral de 2023 que falsamente parecia ser dos cantores Drake e The Weeknd. Muitos artistas enfrentam dificuldades para controlar sua imagem, enquanto terceiros utilizam suas vozes para lançar músicas não autorizadas.
—
📌 ONDE ASSISTIR AO MAIOR CANAL DE NEGÓCIOS DO MUNDO NO BRASIL:
🔷 Canal 562 ClaroTV+ | Canal 562 Sky | Canal 592 Vivo | Canal 187 Oi | Operadoras regionais
🔷 TV SINAL ABERTO: parabólicas canal 562
🔷 ONLINE: www.timesbrasil.com.br | YouTube
🔷 FAST Channels: Samsung TV Plus, Pluto TV, Soul TV, Zapping | Novos Streamings
Este conteúdo foi fornecido pela CNBC Internacional e a responsabilidade exclusiva pela tradução para o português é do Times Brasil.
Mais lidas
Acordo de Trump com o Reino Unido envia uma mensagem clara: tarifas de 10% vieram para ficar
K-Infra e Galápagos arrematam Rota da Celulose com desconto de 9% sobre tarifa básica
'Tecnobank aposta na segurança digital e transformação financeira na Brazilian Week', diz diretora
Bill Gates pretende doar quase toda sua fortuna e encerrar a Fundação Gates até 2045
Trump sugere reduzir tarifa sobre produtos chineses para 80% antes de negociações entre EUA e China