A inteligência artificial pode ‘roubar’ sua voz — e você não pode fazer muito a respeito
Publicado 10/03/2025 • 12:29 | Atualizado há 1 uma semana
IA capaz de igualar humanos em qualquer tarefa chegará em cinco a dez anos, diz CEO do Google DeepMind
Forever 21 culpa Shein e Temu pelo fechamento de suas lojas nos EUA
PepsiCo compra marca de refrigerante “saudável” Poppi por quase US$ 2 bilhões
Estudo aponta que mulheres vão receber a maior parte dos US$ 124 trilhões da “grande transferência de riqueza”; entenda
Berkshire, de Buffett, aumenta participação em cinco empresas comerciais japonesas para quase 10% cada
Publicado 10/03/2025 • 12:29 | Atualizado há 1 uma semana
KEY POINTS
Inteligência artificial pode 'roubar' a sua voz.
Unsplasgh.
A maioria dos programas de clonagem de voz por inteligência artificial não possui barreiras eficazes para impedir a imitação não autorizada de pessoas, revelou uma investigação da Consumer Reports.
Nos últimos anos, a tecnologia avançou significativamente, permitindo que serviços repliquem com precisão a voz de alguém a partir de apenas alguns segundos de áudio. Um dos momentos mais alarmantes ocorreu nas primárias do Partido Democrata, quando várias ligações feitas por robôs, com uma falsa voz de Joe Biden, foram enviadas a eleitores, instruindo-os a não votar. O consultor político responsável foi multado em US$ 6 milhões, e a Comissão Federal de Comunicações (FCC) proibiu chamadas automatizadas geradas por IA.
Um estudo com as seis principais ferramentas públicas de clonagem de voz por IA revelou que cinco delas possuem proteções facilmente contornáveis, permitindo a imitação de vozes sem consentimento. Além disso, softwares de detecção de áudio deepfake ainda apresentam dificuldades em diferenciar vozes reais de sintetizadas.
A clonagem de voz por IA funciona por meio da captação de um trecho de áudio, sendo então usado para criar um arquivo sintético com a mesma entonação e timbre. Sem proteções adequadas, qualquer pessoa que crie uma conta nesses serviços pode simplesmente fazer upload de um vídeo do YouTube ou TikTok contendo a voz de alguém e gerar uma imitação perfeita.
O setor de inteligência artificial ainda carece de regulamentações federais nos Estados Unidos. As poucas medidas de segurança existentes são autoimpostas pelas próprias empresas. Embora o governo Biden tenha incluído diretrizes de segurança em uma ordem executiva assinada em 2023, Donald Trump revogou o documento ao assumir a presidência.
Quatro das seis ferramentas analisadas — ElevenLabs, Speechify, PlayHT e Lovo — apenas exigem que o usuário marque uma caixa confirmando que obteve permissão para clonar a voz de alguém.
Já o serviço Resemble AI solicita que o usuário grave um áudio em tempo real, em vez de simplesmente fazer upload de um arquivo. No entanto, a Consumer Reports conseguiu burlar essa exigência tocando uma gravação no computador e registrando o áudio como se fosse falado ao vivo.
A única ferramenta com um bloqueio mais eficaz foi a Descript, que exige que o usuário grave uma declaração específica de consentimento, dificultando falsificações — exceto se o áudio for gerado por outro serviço de clonagem.
Todos os seis serviços estão disponíveis publicamente em seus sites. Apenas ElevenLabs e Resemble AI cobram pelo uso — respectivamente, US$ 5 e US$ 1 para criar uma voz personalizada. Os demais são gratuitos.
Algumas empresas afirmam que o uso indevido de suas ferramentas pode gerar consequências graves.
“Reconhecemos o potencial de uso indevido dessa tecnologia e implementamos salvaguardas rigorosas para evitar deepfakes e proteger contra falsificação de voz”, disse um porta-voz da Resemble AI à NBC News.
Apesar dos riscos, a clonagem de voz tem aplicações legítimas, como auxiliar pessoas com deficiência ou permitir traduções automáticas de falas para outros idiomas. No entanto, o potencial de uso indevido é significativo, alerta Sarah Myers West, codiretora do AI Now Institute, um instituto de pesquisa sobre impactos da IA.
“Isso pode ser usado para fraudes, golpes e desinformação, incluindo a imitação de figuras institucionais”, disse West à NBC News.
Um dos golpes mais comuns é o “golpe dos avós”, em que criminosos telefonam para idosos fingindo ser um parente em perigo — sequestrado, preso ou hospitalizado. A Comissão Federal de Comércio (FTC) alertou que esses golpes podem estar usando IA, embora já existissem antes dessa tecnologia.
A clonagem de voz também tem sido usada para criação de músicas sem autorização, como ocorreu com uma música viral de 2023 que falsamente parecia ser dos cantores Drake e The Weeknd. Muitos artistas enfrentam dificuldades para controlar sua imagem, enquanto terceiros utilizam suas vozes para lançar músicas não autorizadas.
—
📌 ONDE ASSISTIR AO MAIOR CANAL DE NEGÓCIOS DO MUNDO NO BRASIL:
🔷 Canal 562 ClaroTV+ | Canal 562 Sky | Canal 592 Vivo | Canal 187 Oi | Operadoras regionais
🔷 TV SINAL ABERTO: parabólicas canal 562
🔷 ONLINE: www.timesbrasil.com.br | YouTube
🔷 FAST Channels: Samsung TV Plus, Pluto TV, Soul TV, Zapping | Novos Streamings
Este conteúdo foi fornecido pela CNBC Internacional e a responsabilidade exclusiva pela tradução para o português é do Times Brasil.
Mais lidas
Ganhe até US$ 6 mil por mês: Tammy Silva explica como trabalhar para empresas globais
IA capaz de igualar humanos em qualquer tarefa chegará em cinco a dez anos, diz CEO do Google DeepMind
Ações da BYD disparam após nova tecnologia que promete carregar veículos elétricos em cinco minutos
Eurofarma adquire fatia de 60% da marca Dermage por R$ 156 milhões
Marcos Madureira alerta: emendas nas eólicas offshore podem elevar conta de luz em R$ 19 bi