Siga o Times Brasil - Licenciado Exclusivo CNBC no
A inteligência artificial pode ‘roubar’ sua voz — e você não pode fazer muito a respeito
Publicado 10/03/2025 • 12:29 | Atualizado há 7 meses
Warner Bros. Discovery avalia venda e amplia revisão estratégica; ações sobem 8%
Trump quer R$ 1,23 bilhão do Departamento de Justiça dos EUA por investigá-lo
Novo Nordisk convoca assembleia extraordinária após renúncia em massa no conselho e disputa com acionista controlador
Funcionários do Tesouro dos EUA são proibidos de gravarem demolição do salão de baile da Casa Branca
Zuckerberg, Mosseri e Spiegel são convocados a depor em julgamento sobre segurança infantil nas redes sociais
Publicado 10/03/2025 • 12:29 | Atualizado há 7 meses
KEY POINTS
Inteligência artificial pode 'roubar' a sua voz.
Unsplasgh.
A maioria dos programas de clonagem de voz por inteligência artificial não possui barreiras eficazes para impedir a imitação não autorizada de pessoas, revelou uma investigação da Consumer Reports.
Nos últimos anos, a tecnologia avançou significativamente, permitindo que serviços repliquem com precisão a voz de alguém a partir de apenas alguns segundos de áudio. Um dos momentos mais alarmantes ocorreu nas primárias do Partido Democrata, quando várias ligações feitas por robôs, com uma falsa voz de Joe Biden, foram enviadas a eleitores, instruindo-os a não votar. O consultor político responsável foi multado em US$ 6 milhões, e a Comissão Federal de Comunicações (FCC) proibiu chamadas automatizadas geradas por IA.
Um estudo com as seis principais ferramentas públicas de clonagem de voz por IA revelou que cinco delas possuem proteções facilmente contornáveis, permitindo a imitação de vozes sem consentimento. Além disso, softwares de detecção de áudio deepfake ainda apresentam dificuldades em diferenciar vozes reais de sintetizadas.
A clonagem de voz por IA funciona por meio da captação de um trecho de áudio, sendo então usado para criar um arquivo sintético com a mesma entonação e timbre. Sem proteções adequadas, qualquer pessoa que crie uma conta nesses serviços pode simplesmente fazer upload de um vídeo do YouTube ou TikTok contendo a voz de alguém e gerar uma imitação perfeita.
O setor de inteligência artificial ainda carece de regulamentações federais nos Estados Unidos. As poucas medidas de segurança existentes são autoimpostas pelas próprias empresas. Embora o governo Biden tenha incluído diretrizes de segurança em uma ordem executiva assinada em 2023, Donald Trump revogou o documento ao assumir a presidência.
Quatro das seis ferramentas analisadas — ElevenLabs, Speechify, PlayHT e Lovo — apenas exigem que o usuário marque uma caixa confirmando que obteve permissão para clonar a voz de alguém.
Já o serviço Resemble AI solicita que o usuário grave um áudio em tempo real, em vez de simplesmente fazer upload de um arquivo. No entanto, a Consumer Reports conseguiu burlar essa exigência tocando uma gravação no computador e registrando o áudio como se fosse falado ao vivo.
A única ferramenta com um bloqueio mais eficaz foi a Descript, que exige que o usuário grave uma declaração específica de consentimento, dificultando falsificações — exceto se o áudio for gerado por outro serviço de clonagem.
Todos os seis serviços estão disponíveis publicamente em seus sites. Apenas ElevenLabs e Resemble AI cobram pelo uso — respectivamente, US$ 5 e US$ 1 para criar uma voz personalizada. Os demais são gratuitos.
Algumas empresas afirmam que o uso indevido de suas ferramentas pode gerar consequências graves.
“Reconhecemos o potencial de uso indevido dessa tecnologia e implementamos salvaguardas rigorosas para evitar deepfakes e proteger contra falsificação de voz”, disse um porta-voz da Resemble AI à NBC News.
Apesar dos riscos, a clonagem de voz tem aplicações legítimas, como auxiliar pessoas com deficiência ou permitir traduções automáticas de falas para outros idiomas. No entanto, o potencial de uso indevido é significativo, alerta Sarah Myers West, codiretora do AI Now Institute, um instituto de pesquisa sobre impactos da IA.
“Isso pode ser usado para fraudes, golpes e desinformação, incluindo a imitação de figuras institucionais”, disse West à NBC News.
Um dos golpes mais comuns é o “golpe dos avós”, em que criminosos telefonam para idosos fingindo ser um parente em perigo — sequestrado, preso ou hospitalizado. A Comissão Federal de Comércio (FTC) alertou que esses golpes podem estar usando IA, embora já existissem antes dessa tecnologia.
A clonagem de voz também tem sido usada para criação de músicas sem autorização, como ocorreu com uma música viral de 2023 que falsamente parecia ser dos cantores Drake e The Weeknd. Muitos artistas enfrentam dificuldades para controlar sua imagem, enquanto terceiros utilizam suas vozes para lançar músicas não autorizadas.
—
📌 ONDE ASSISTIR AO MAIOR CANAL DE NEGÓCIOS DO MUNDO NO BRASIL:
🔷 Canal 562 ClaroTV+ | Canal 562 Sky | Canal 592 Vivo | Canal 187 Oi | Operadoras regionais
🔷 TV SINAL ABERTO: parabólicas canal 562
🔷 ONLINE: www.timesbrasil.com.br | YouTube
🔷 FAST Channels: Samsung TV Plus, Pluto TV, Soul TV, Zapping | Novos Streamings
Este conteúdo foi fornecido pela CNBC Internacional e a responsabilidade exclusiva pela tradução para o português é do Times Brasil.
Mais lidas
Ambipar acusa ex-diretor financeiro de instaurar crise que levou ao pedido de recuperação e fala em ‘bullying empresarial’
Santander, Travelex e Genial: investigação de esquema de evasão de divisas ocorreu em paralelo à mudança na lei de câmbio
Shopee investe em logística no Brasil para atender aumento de vendas em novembro, mês de grandes promoções
Ouro fecha em queda de mais de 5% pela primeira vez desde 2013 em correção de ganhos
Itaú obtém aval da Aneel para gerar sua própria energia com termelétrica a óleo diesel em São Paulo