CNBC
O primeiro-ministro da Índia, Narendra Modi (à esquerda), tira uma foto em grupo com líderes de empresas de IA, incluindo o CEO da OpenAI, Sam Altman (ao centro), e o CEO da Anthropic, Dario Amodei (à direita), na Cúpula de Impacto da IA, em Nova Délhi, em 19 de fevereiro de 2026.

CNBCClima tenso: CEOs de OpenAI e Anthropic evitam dar as mãos em cúpula de IA na Índia

Notícias do Brasil

Apple é processada nos EUA por suposta falha em impedir material ilegal no iCloud e iOS

Publicado 19/02/2026 • 12:42 | Atualizado há 2 horas

KEY POINTS

  • A Apple enfrenta um novo processo judicial do estado da Virgínia Ocidental, que alega que a empresa não conseguiu conter a disseminação de material de abuso sexual infantil em dispositivos iOS e nos serviços do iCloud.
  • A ação de proteção ao consumidor foi movida pelo procurador-geral republicano da Virgínia Ocidental, John “JB” McCuskey.
  • O estado busca indenizações legais e punitivas, além de uma liminar para obrigar a Apple a implementar uma detecção eficaz de CSAM (abusivo de conteúdo sexual explícito).
Logo da Apple em uma vitrine

Reprodução

O procurador-geral da Virgínia Ocidental entrou com uma ação judicial de proteção ao consumidor contra a Apple, alegando que a empresa não conseguiu impedir que materiais de abuso sexual infantil fossem armazenados e compartilhados por meio de dispositivos iOS e serviços do iCloud.

John “JB” McCuskey, um republicano, acusou a Apple de priorizar sua imagem de privacidade e seus próprios interesses comerciais em detrimento da segurança infantil, enquanto outras grandes empresas de tecnologia, incluindo Google, Microsoft e Dropbox, têm sido mais proativas ao utilizar sistemas como o PhotoDNA para combater esse tipo de material.

Leia também: Apple adiciona agentes da Anthropic e da OpenAI à sua ferramenta de programação

Tecnologias de detecção da Apple e debate sobre privacidade

O PhotoDNA, desenvolvido pela Microsoft em parceria com o Dartmouth College em 2009, utiliza técnicas de “hash e correspondência” para identificar e bloquear automaticamente imagens de abuso sexual infantil (CSAM, na sigla em inglês) que já foram reconhecidas e denunciadas às autoridades.

Em 2021, a Apple testou seus próprios recursos de detecção de CSAM, capazes de localizar e remover automaticamente imagens de exploração infantil, além de reportar conteúdos carregados no iCloud, nos Estados Unidos, ao Centro Nacional para Crianças Desaparecidas e Exploradas.

No entanto, a empresa recuou após críticas de defensores da privacidade, que alertaram para o risco de a tecnologia abrir precedentes para vigilância governamental ou ser adaptada para censurar outros tipos de conteúdo em dispositivos iOS.

Leia também: Apple desafia YouTube e Spotify com nova aposta em podcasts em vídeo

Críticas crescentes à Apple e impactos legais

Desde então, as iniciativas da Apple não têm atendido às expectativas de diversos críticos. Em 2024, a Sociedade Nacional para a Prevenção da Crueldade contra Crianças (NSPCC), com sede no Reino Unido, afirmou que a empresa não monitorou, registrou nem reportou adequadamente casos de abuso infantil às autoridades.

No mesmo ano, milhares de sobreviventes de abuso sexual infantil entraram com uma ação judicial no Distrito Norte da Califórnia contra a Apple. Eles alegam que a empresa não deveria ter abandonado seus planos de detecção de CSAM e que, ao permitir a circulação desse conteúdo, contribuiu para que vítimas revivessem traumas.

Desde que seu CEO, Tim Cook, publicou uma carta aberta sobre o tema em 2014, a Apple se posiciona como uma das empresas de tecnologia mais comprometidas com a privacidade dos usuários.

Se a ação da Virgínia Ocidental avançar, a Apple poderá ser obrigada a alterar o design de seus produtos ou suas políticas de segurança de dados. O estado busca indenizações legais e punitivas, além de uma liminar que obrigue a empresa a implementar mecanismos eficazes de detecção de CSAM.

Leia também: Apple recua em projeto de “coach de saúde” de IA; entenda por que

Em comunicado enviado por e-mail à CNBC, um porta-voz da Apple afirmou que “proteger a segurança e a privacidade de nossos usuários, especialmente crianças, é fundamental para o que fazemos”.

A empresa destacou ferramentas de controle parental e recursos como o Communication Safety, que “intervém automaticamente nos dispositivos das crianças quando detecta nudez em mensagens, fotos compartilhadas, AirDrop e até mesmo em chamadas FaceTime ao vivo”, como evidência de seu compromisso com segurança e privacidade.

“Estamos inovando todos os dias para combater ameaças em constante evolução e manter a plataforma mais segura e confiável para as crianças”, acrescentou o porta-voz.

📌 ONDE ASSISTIR AO MAIOR CANAL DE NEGÓCIOS DO MUNDO NO BRASIL:


🔷 Canal 562 ClaroTV+ | Canal 562 Sky | Canal 592 Vivo | Canal 187 Oi | Operadoras regionais

🔷 TV SINAL ABERTO: parabólicas canal 562

🔷 ONLINE: www.timesbrasil.com.br | YouTube

🔷 FAST Channels: Samsung TV Plus, LG Channels, TCL Channels, Pluto TV, Roku, Soul TV, Zapping | Novos Streamings

Siga o Times Brasil - Licenciado Exclusivo CNBC no

Este conteúdo foi fornecido pela CNBC Internacional e a responsabilidade exclusiva pela tradução para o português é do Times Brasil.

MAIS EM Notícias do Brasil

;