Siga o Times Brasil - Licenciado Exclusivo CNBC no
Nova ferramenta de IA do YouTube alimenta Google com dados sensíveis de criadores
Publicado 02/12/2025 • 12:12 | Atualizado há 1 hora
Startup de IA de US$ 4 bi apoiada pela Nvidia anuncia grande expansão em Londres
Ações de montadoras sul-coreanas disparam após os EUA confirmarem redução de tarifas para 15%
Costco processa Trump e pede suspensão de tarifas até decisão da Suprema Corte
Apple confirma saída do chefe de IA e nomeia ex-Google para liderar a área
Instagram passa a exigir que funcionários voltem ao regime presencial nos EUA
Publicado 02/12/2025 • 12:12 | Atualizado há 1 hora
KEY POINTS
Beata Zawrzel | Nurphoto | Getty Images
Uma ferramenta do YouTube que utiliza a biometria de criadores para ajudá-los a remover vídeos gerados por IA que exploram sua imagem também permite que o Google treine seus modelos de IA com esses dados sensíveis, disseram especialistas à CNBC.
O YouTube está expandindo sua “detecção de semelhança” (likeness detection), uma ferramenta introduzida pela empresa em outubro que sinaliza quando o rosto de um criador é usado sem sua permissão em vídeos de deepfake.
O YouTube disse à CNBC que o Google nunca usou dados biométricos de criadores para treinar modelos de IA e que está revisando a linguagem utilizada no formulário de inscrição da ferramenta para evitar confusões. No entanto, a plataforma afirmou que não alterará sua política subjacente.
A discrepância destaca uma divisão mais ampla dentro da Alphabet, na qual o Google expande agressivamente seus esforços em IA, enquanto o YouTube trabalha para manter a confiança de criadores e detentores de direitos que dependem da plataforma para seus negócios.
Leia mais:
Runway lança novo modelo de vídeo em IA que supera Google e OpenAI
A ferramenta está sendo expandida para milhões de criadores no Programa de Parcerias do YouTube, à medida que o conteúdo manipulado por IA se torna mais prevalente nas redes sociais. O recurso verifica vídeos enviados ao YouTube para identificar onde o rosto de um criador pode ter sido alterado ou gerado por inteligência artificial.
Os criadores podem, então, decidir se solicitam a remoção do vídeo. Contudo, para usar a ferramenta, o YouTube exige que eles enviem um documento de identidade oficial e um vídeo biométrico de seu rosto. A biometria consiste na medição de características físicas para verificar a identidade de uma pessoa.
Especialistas afirmam que, ao vincular a ferramenta à Política de Privacidade do Google, o YouTube abriu margem para o uso indevido da biometria dos criadores no futuro. A política declara que conteúdos públicos, incluindo informações biométricas, podem ser usados “para ajudar a treinar os modelos de IA do Google e criar produtos e recursos”.
“A detecção de semelhança é um recurso totalmente opcional, mas requer uma referência visual para funcionar”, disse Jack Malon, porta-voz do YouTube, em comunicado à CNBC. “Nossa abordagem em relação a esses dados não mudou. Como nossa Central de Ajuda declara desde o lançamento, os dados fornecidos para a ferramenta de detecção de semelhança são usados apenas para fins de verificação de identidade e para alimentar esse recurso de segurança específico.”
O YouTube informou à CNBC que está “considerando maneiras de tornar a linguagem dentro do produto mais clara”. A empresa não disse quais mudanças específicas serão feitas no texto ou quando entrarão em vigor.
Especialistas permanecem cautelosos, afirmando que levantaram preocupações sobre a política ao YouTube meses atrás.
“Enquanto o Google corre para competir em IA e os dados de treinamento se tornam ouro estratégico, os criadores precisam pensar cuidadosamente se querem que seu rosto seja controlado por uma plataforma em vez de ser propriedade deles mesmos”, disse Dan Neely, CEO da Vermillio, empresa que ajuda indivíduos a protegerem sua imagem contra uso indevido e facilita o licenciamento seguro de conteúdo autorizado. “Sua imagem será um dos ativos mais valiosos na era da IA e, uma vez que você entrega esse controle, pode nunca mais recuperá-lo.”
A Vermillio e a Loti são empresas terceirizadas que trabalham com criadores, celebridades e empresas de mídia para monitorar e fazer valer direitos de imagem na internet. Com os avanços na geração de vídeo por IA, a utilidade dessas empresas aumentou para os detentores de propriedade intelectual.
O CEO da Loti, Luke Arrigoni, disse que os riscos da atual política biométrica do YouTube “são enormes”.
“Como a versão atual permite que alguém consiga vincular esse nome à biometria real do rosto, eles poderiam criar algo mais sintético que se pareça com essa pessoa”, disse Arrigoni.
Tanto Neely quanto Arrigoni disseram que não recomendariam atualmente que nenhum de seus clientes se inscrevesse na detecção de semelhança no YouTube.
Amjad Hanif, chefe de produtos para criadores do YouTube, disse que a plataforma construiu sua ferramenta de detecção para operar “na escala do YouTube”, onde centenas de horas de novas filmagens são postadas a cada minuto. A ferramenta deve ser disponibilizada para os mais de 3 milhões de criadores no Programa de Parcerias do YouTube até o final de janeiro, segundo Hanif.
“Nós vamos bem quando os criadores vão bem”, disse Hanif à CNBC. “Estamos aqui como guardiões e apoiadores do ecossistema de criadores, e por isso estamos investindo em ferramentas para apoiá-los nessa jornada.”
O lançamento ocorre em um momento em que ferramentas de vídeo geradas por IA melhoram rapidamente em qualidade e acessibilidade, levantando novas preocupações para criadores cuja imagem e voz são centrais para seus negócios.
O criador do YouTube Mikhail Varshavski, um médico que atende por “Doctor Mike” na plataforma de vídeo, disse que usa a ferramenta de detecção de semelhança do serviço para revisar dezenas de vídeos manipulados por IA por semana. Varshavski está no YouTube há quase uma década e acumulou mais de 14 milhões de inscritos na plataforma. Ele faz vídeos reagindo a dramas médicos da TV, respondendo a perguntas sobre modismos de saúde e desmistificando mitos. Ele depende de sua credibilidade como médico certificado para informar seus espectadores.
Avanços rápidos na IA facilitaram para agentes mal-intencionados copiarem seu rosto e voz em vídeos deepfake que poderiam dar a seus espectadores conselhos médicos enganosos, disse Varshavski. Ele encontrou pela primeira vez um deepfake de si mesmo no TikTok, onde um sósia gerado por IA promovia um suplemento “milagroso” do qual Varshavski nunca tinha ouvido falar.
“Isso obviamente me assustou, porque passei mais de uma década investindo para conquistar a confiança do público, dizendo a verdade e ajudando-os a tomar boas decisões de saúde”, disse ele. “Ver alguém usar minha imagem para enganar uma pessoa e fazê-la comprar algo de que não precisa ou que pode potencialmente prejudicá-la, assustou tudo em mim naquela situação.”
Ferramentas de geração de vídeo por IA, como o Veo 3 do Google e o Sora da OpenAI, tornaram significativamente mais fácil criar deepfakes de celebridades e criadores como Varshavski. Isso ocorre porque suas imagens frequentemente figuram nos conjuntos de dados usados pelas empresas de tecnologia para treinar seus modelos de IA.
O Veo 3 é treinado em um subconjunto dos mais de 20 bilhões de vídeos enviados ao YouTube, informou a CNBC em julho. Isso poderia incluir várias centenas de horas de vídeo de Varshavski.
Os deepfakes “tornaram-se mais difundidos e proliferativos”, disse Varshavski. “Já vi canais inteiros criados transformando esses tipos de deepfakes de IA em armas, seja para enganar as pessoas para comprar um produto ou estritamente para intimidar alguém.”
No momento, os criadores não têm como monetizar o uso não autorizado de sua imagem, ao contrário das opções de compartilhamento de receita disponíveis através do sistema Content ID do YouTube para material protegido por direitos autorais, que é tipicamente usado por empresas que detêm grandes catálogos de direitos autorais.
Hanif, do YouTube, disse que a empresa está explorando como um modelo semelhante poderia funcionar para o uso de imagem gerada por IA no futuro. No início deste ano, o YouTube deu aos criadores a opção de permitir que empresas de IA terceirizadas treinassem em seus vídeos. Hanif disse que milhões de criadores aderiram a esse programa, sem promessa de compensação.
Hanif afirmou que sua equipe ainda está trabalhando para melhorar a precisão do produto, mas os testes iniciais foram bem-sucedidos, embora ele não tenha fornecido métricas de precisão.
Quanto à atividade de remoção na plataforma, Hanif disse que permanece baixa, em grande parte porque muitos criadores optam por não excluir os vídeos sinalizados.
“Eles ficam felizes em saber que [o vídeo] está lá, mas não sentem realmente que merece ser removido”, disse Hanif. “De longe, a ação mais comum é dizer: ‘Eu olhei, mas estou bem com isso’.”
Agentes e defensores de direitos disseram à CNBC que os baixos números de remoção se devem mais provavelmente à confusão e à falta de conscientização do que ao conforto com o conteúdo de IA.
🔷 Canal 562 ClaroTV+ | Canal 562 Sky | Canal 592 Vivo | Canal 187 Oi | Operadoras regionais
🔷 TV SINAL ABERTO: parabólicas canal 562
🔷 ONLINE: www.timesbrasil.com.br | YouTube
🔷 FAST Channels: Samsung TV Plus, LG Channels, TCL Channels, Pluto TV, Roku, Soul TV, Zapping | Novos Streamings
Este conteúdo foi fornecido pela CNBC Internacional e a responsabilidade exclusiva pela tradução para o português é do Times Brasil.
Mais lidas
1
Telefone retrô conectado por Bluetooth viraliza e rende US$ 120 mil em três dias
2
Banco Master: o que falta para os pagamentos começarem?
3
Indústria de defesa brasileira cresce 114% em dois anos
4
Quais os próximos jogos do Flamengo? Veja datas e horários
5
Entenda a crise do Grupo Mateus por trás de erro bilionário no balanço