Siga o Times Brasil - Licenciado Exclusivo CNBC no
Derrotas judiciais da Meta acendem alerta sobre riscos da pesquisa em IA e segurança do usuário
Publicado 29/03/2026 • 17:20 | Atualizado há 2 horas
Carta de Pokémon vendida por Logan Paul por mais de R$ 84 milhões atrai atenção de investidores
Eli Lilly fecha acordo bilionário para levar medicamentos desenvolvidos por IA ao mercado global
Preocupado com a inflação vinda do Estreito de Ormuz? A economia global tem uma palavra para você: plásticos
O que vem a seguir? Três cenários de ataque enquanto EUA enviam milhares de tropas ao Oriente Médio
Como os CEOs das gigantes de petróleo e gás veem os impactos da guerra no Irã sobre o fornecimento global
Publicado 29/03/2026 • 17:20 | Atualizado há 2 horas
KEY POINTS
Há mais de uma década, a Meta (então Facebook) passou a contratar pesquisadores das ciências sociais para analisar como suas plataformas impactavam os usuários, em uma tentativa de demonstrar preocupação com benefícios e riscos de seus produtos.
No entanto, as derrotas judiciais recentes da empresa indicam que esse tipo de pesquisa pode se transformar em um passivo jurídico. Segundo Brian Boland, ex-executivo do Facebook que testemunhou nos dois casos – em Novo México e Los Angeles –, os resultados internos contradiziam a imagem pública da companhia. Os júris concluíram que a empresa não protegeu adequadamente os usuários, especialmente crianças.
A empresa de Mark Zuckerberg começou a reduzir suas equipes de pesquisa após o episódio envolvendo a ex-funcionária Frances Haugen, que se tornou denunciante ao divulgar documentos internos. Em paralelo, empresas mais recentes como OpenAI e Anthropic passaram a investir em estudos sobre os impactos da inteligência artificial.
Leia também: Pequim intervém em negócio da Meta e muda rota de startups chinesas de IA
Com o avanço da IA e o aumento das preocupações sobre seus efeitos negativos, cresce o dilema entre manter pesquisas internas ou limitar sua divulgação. “Houve um período em que equipes tinham mais liberdade para investigar o que acontecia nesses produtos”, afirmou Boland, ao destacar que esse espaço hoje parece mais restrito.
Apesar de tratarem de casos distintos, os dois julgamentos tiveram um ponto em comum: a conclusão de que a Meta não divulgou ao público o que sabia sobre os riscos de seus produtos.
Os jurados analisaram milhões de documentos corporativos, incluindo e-mails, apresentações e pesquisas internas, que apontavam problemas como avanços sexuais indesejados contra adolescentes no Instagram. Também houve estudos indicando que reduzir o uso do Facebook poderia diminuir ansiedade e depressão, pesquisa posteriormente interrompida.
Leia também: Meta amplia investimento em data center de IA no Texas para US$ 10 bilhões
Embora os advogados dos autores tenham utilizado diversas evidências, as pesquisas internas reforçaram as acusações. A defesa da Meta argumentou que parte dos dados era antiga, fora de contexto ou distorcida.
“O júri ouviu ambos os lados e teve uma apresentação justa dos fatos”, disse Boland. “E ambos chegaram a veredictos claros”, acrescentou, referindo-se aos dois julgamentos.
A Meta e o YouTube, do Google, também envolvido em um dos casos, informaram que pretendem recorrer das decisões.
Para Lisa Strohman, psicóloga e advogada que atuou como consultora, empresas podem ter acreditado que a pesquisa interna traria ganhos de imagem, mas subestimaram a independência dos pesquisadores. “Essas pessoas não seriam compradas”, afirmou.
Leia também: Meta intensifica uso de ações para reter executivos e correr atrás na IA
O impacto mais significativo ocorreu em 2021, quando Haugen vazou documentos indicando que a empresa tinha conhecimento dos riscos de suas plataformas. O episódio foi considerado um marco global para pesquisadores, reguladores e o público, segundo Kate Blocker, da organização Children and Screens.
Após os vazamentos, a Meta e outras empresas passaram a reduzir equipes e estudos que poderiam gerar riscos reputacionais ou legais. Algumas também limitaram o acesso de pesquisadores externos a dados e ferramentas.
Especialistas defendem que, apesar dos riscos, a pesquisa independente deve ser mantida. “As empresas podem ver a pesquisa como um passivo, mas ela precisa continuar sendo apoiada”, disse Blocker.
Leia também: Meta é condenada a pagar US$ 375 milhões por violar lei de proteção infantil nos EUA
Segundo Sacha Haworth, do Tech Oversight Project, os julgamentos trouxeram à tona e-mails, apresentações e documentos internos que ajudaram a contextualizar informações já conhecidas.
Com a corrida por novos produtos de IA, empresas como Meta, OpenAI e Google estariam priorizando desenvolvimento em detrimento de pesquisa e segurança, o que preocupa especialistas diante da falta de transparência sobre os impactos dessas tecnologias.
“Há uma lacuna significativa de estudos sobre o impacto de chatbots e assistentes digitais no desenvolvimento infantil”, alertou Blocker, defendendo maior transparência e acesso às informações sobre essas plataformas.
—
🔷 Canal 562 ClaroTV+ | Canal 562 Sky | Canal 592 Vivo | Canal 187 Oi | Operadoras regionais
🔷 TV SINAL ABERTO: parabólicas canal 562
🔷 ONLINE: www.timesbrasil.com.br | YouTube
🔷 FAST Channels: Samsung TV Plus, LG Channels, TCL Channels, Pluto TV, Roku, Soul TV, Zapping | Novos Streamings
Este conteúdo foi fornecido pela CNBC Internacional e a responsabilidade exclusiva pela tradução para o português é do Times Brasil.
Mais lidas
1
Quem é Anita Harley, herdeira da Pernambucanas que está há 10 anos em coma
2
Shell Select deve ser afetada pela crise da Raízen? Entenda
3
Tiger Woods paga fiança e deixa prisão oito horas após se envolver em acidente por ’embriaguez’
4
Milhões devem ir às ruas nos EUA em atos contra Trump em todos os estados
5
Gargalos globais: além de Ormuz, veja outros canais que podem ser impactados pelos conflitos