Siga o Times Brasil - Licenciado Exclusivo CNBC no
Derrotas judiciais da Meta acendem alerta sobre riscos da pesquisa em IA e segurança do usuário
Publicado 29/03/2026 • 17:20 | Atualizado há 1 mês
CEO da Allegiant defende modelo de baixo custo após conclusão da compra da Sun Country
Jamie Dimon alerta que JP Morgan pode repensar nova sede em Londres caso Starmer deixe cargo de premiê do Reino Unido
Juros dos Treasuries recuam após inflação acima do esperado nos EUA
SoftBank registra ganho de US$ 46 bilhões com aposta bilionária na OpenAI
Google acelera integração do Gemini ao Android antes de nova ofensiva de IA da Apple
Publicado 29/03/2026 • 17:20 | Atualizado há 1 mês
KEY POINTS
Há mais de uma década, a Meta (então Facebook) passou a contratar pesquisadores das ciências sociais para analisar como suas plataformas impactavam os usuários, em uma tentativa de demonstrar preocupação com benefícios e riscos de seus produtos.
No entanto, as derrotas judiciais recentes da empresa indicam que esse tipo de pesquisa pode se transformar em um passivo jurídico. Segundo Brian Boland, ex-executivo do Facebook que testemunhou nos dois casos – em Novo México e Los Angeles –, os resultados internos contradiziam a imagem pública da companhia. Os júris concluíram que a empresa não protegeu adequadamente os usuários, especialmente crianças.
A empresa de Mark Zuckerberg começou a reduzir suas equipes de pesquisa após o episódio envolvendo a ex-funcionária Frances Haugen, que se tornou denunciante ao divulgar documentos internos. Em paralelo, empresas mais recentes como OpenAI e Anthropic passaram a investir em estudos sobre os impactos da inteligência artificial.
Leia também: Pequim intervém em negócio da Meta e muda rota de startups chinesas de IA
Com o avanço da IA e o aumento das preocupações sobre seus efeitos negativos, cresce o dilema entre manter pesquisas internas ou limitar sua divulgação. “Houve um período em que equipes tinham mais liberdade para investigar o que acontecia nesses produtos”, afirmou Boland, ao destacar que esse espaço hoje parece mais restrito.
Apesar de tratarem de casos distintos, os dois julgamentos tiveram um ponto em comum: a conclusão de que a Meta não divulgou ao público o que sabia sobre os riscos de seus produtos.
Os jurados analisaram milhões de documentos corporativos, incluindo e-mails, apresentações e pesquisas internas, que apontavam problemas como avanços sexuais indesejados contra adolescentes no Instagram. Também houve estudos indicando que reduzir o uso do Facebook poderia diminuir ansiedade e depressão, pesquisa posteriormente interrompida.
Leia também: Meta amplia investimento em data center de IA no Texas para US$ 10 bilhões
Embora os advogados dos autores tenham utilizado diversas evidências, as pesquisas internas reforçaram as acusações. A defesa da Meta argumentou que parte dos dados era antiga, fora de contexto ou distorcida.
“O júri ouviu ambos os lados e teve uma apresentação justa dos fatos”, disse Boland. “E ambos chegaram a veredictos claros”, acrescentou, referindo-se aos dois julgamentos.
A Meta e o YouTube, do Google, também envolvido em um dos casos, informaram que pretendem recorrer das decisões.
Para Lisa Strohman, psicóloga e advogada que atuou como consultora, empresas podem ter acreditado que a pesquisa interna traria ganhos de imagem, mas subestimaram a independência dos pesquisadores. “Essas pessoas não seriam compradas”, afirmou.
Leia também: Meta intensifica uso de ações para reter executivos e correr atrás na IA
O impacto mais significativo ocorreu em 2021, quando Haugen vazou documentos indicando que a empresa tinha conhecimento dos riscos de suas plataformas. O episódio foi considerado um marco global para pesquisadores, reguladores e o público, segundo Kate Blocker, da organização Children and Screens.
Após os vazamentos, a Meta e outras empresas passaram a reduzir equipes e estudos que poderiam gerar riscos reputacionais ou legais. Algumas também limitaram o acesso de pesquisadores externos a dados e ferramentas.
Especialistas defendem que, apesar dos riscos, a pesquisa independente deve ser mantida. “As empresas podem ver a pesquisa como um passivo, mas ela precisa continuar sendo apoiada”, disse Blocker.
Leia também: Meta é condenada a pagar US$ 375 milhões por violar lei de proteção infantil nos EUA
Segundo Sacha Haworth, do Tech Oversight Project, os julgamentos trouxeram à tona e-mails, apresentações e documentos internos que ajudaram a contextualizar informações já conhecidas.
Com a corrida por novos produtos de IA, empresas como Meta, OpenAI e Google estariam priorizando desenvolvimento em detrimento de pesquisa e segurança, o que preocupa especialistas diante da falta de transparência sobre os impactos dessas tecnologias.
“Há uma lacuna significativa de estudos sobre o impacto de chatbots e assistentes digitais no desenvolvimento infantil”, alertou Blocker, defendendo maior transparência e acesso às informações sobre essas plataformas.
—
🔷 Canal 562 ClaroTV+ | Canal 562 Sky | Canal 592 Vivo | Canal 187 Oi | Operadoras regionais
🔷 TV SINAL ABERTO: parabólicas canal 562
🔷 ONLINE: www.timesbrasil.com.br | YouTube
🔷 FAST Channels: Samsung TV Plus, LG Channels, TCL Channels, Pluto TV, Roku, Soul TV, Zapping | Novos Streamings
Este conteúdo foi fornecido pela CNBC Internacional e a responsabilidade exclusiva pela tradução para o português é do Times Brasil.
Mais lidas
1
BC multa Banco Topázio em R$ 16,2 milhões, veta operações com cripto e põe outras instituições no radar
2
Linha do tempo: como os sócios da Naskar abandonaram a sede e sumiram com o dinheiro de investidores
3
Rombo contábil de R$ 5 bilhões na Aegea afeta Itaúsa e adia planos de IPO
4
Como gigantes do e-commerce pressionaram o Elo7? Entenda o que aconteceu
5
Ex-jogador de vôlei e ex-ESPN está entre sócios da Naskar, fintech que sumiu com quase R$ 1 bilhão de clientes