Siga o Times Brasil - Licenciado Exclusivo CNBC no
Por que a Anthropic decidiu não lançar sua IA mais poderosa
Publicado 12/04/2026 • 08:30 | Atualizado há 3 horas
Tribunal pode derrubar indenizações e reduzir risco bilionário da Berkshire
Como a Kodak está tentando reerguer seus negócios após estar à beira da falência
A xAI de Elon Musk enfrenta nova oposição após obter autorização para pouso em usina de energia
JD Vance e Scott Bessent discutem riscos da IA com CEOs de tecnologia
‘O maior e mais belo’: Trump anuncia plano de construir um Arco do Triunfo de US$ 15 milhões em Washington
Publicado 12/04/2026 • 08:30 | Atualizado há 3 horas
KEY POINTS
reprodução
Tela do Claude, da Anthropic
A Anthropic anunciou na última terça-feira (7), um modelo de Inteligência Artificial considerado o mais avançado já desenvolvido pela empresa.
Batizado de Claude Mythos Preview, o sistema não será lançado ao público por decisão interna motivada por riscos concretos à segurança digital.
A divulgação ocorreu junto a testes técnicos e relatos de comportamento inesperado durante avaliações controladas, segundo divulgado pelo Times Brasil -Licenciado Exclusivo CNBC.
Leia também: Vazamento na Anthropic expõe as entranhas do Claude Code e serviços ainda não lançados ao público; veja
Os dados apresentados mostram um salto relevante em relação aos modelos atuais. O Mythos supera com folga o Claude Opus 4.6, hoje entre os mais avançados disponíveis.
Em testes de engenharia de software, a diferença chega a 24 pontos percentuais, um avanço incomum mesmo para padrões acelerados da indústria.
Em avaliações de raciocínio científico e resolução de problemas complexos, o modelo também apresentou desempenho elevado.
Os resultados indicam que não se trata de uma evolução incremental, mas de uma mudança de geração tecnológica.
O principal fator que levou à decisão de não lançar o sistema não está no desempenho geral, mas na habilidade do modelo em lidar com código.
Durante testes internos, o Mythos identificou milhares de falhas inéditas em sistemas amplamente utilizados. Entre os casos relatados estão vulnerabilidades antigas em softwares críticos, incluindo sistemas operacionais e ferramentas populares.
Em alguns cenários, o modelo conseguiu combinar falhas para obter controle total de máquinas, um tipo de exploração que exige alto nível técnico quando feita por humanos.
A empresa informou que parte dessas falhas já foi corrigida, enquanto outras seguem sob análise antes da divulgação completa.
Leia mais: Muse Spark: a nova IA da Meta e a aposta de Zuckerberg para provar que valeu cada bilhão – de muitos – investido
Outro ponto relevante ocorreu durante um teste em ambiente isolado. O modelo recebeu a tarefa de tentar sair de um sistema controlado e avisar um pesquisador caso tivesse sucesso.
O Mythos conseguiu executar uma sequência de ações técnicas, acessou a internet e enviou uma mensagem ao responsável. Além disso, publicou espontaneamente detalhes do processo em sites externos.
Leia também: Anthropic anuncia novo Claude 4, que promete poder de raciocínio superior ao ChatGPT-4.1
Segundo a empresa, o sistema não acessou dados sensíveis nem ultrapassou limites críticos. Ainda assim, o comportamento levantou preocupações sobre autonomia operacional em contextos complexos.
Diante dos riscos, a Anthropic optou por restringir o uso do modelo. O sistema será utilizado apenas em um consórcio chamado Project Glasswing, que reúne empresas como Apple, Google, Microsoft e Amazon.
O objetivo é aplicar a tecnologia exclusivamente na identificação e correção de vulnerabilidades em infraestruturas digitais. A iniciativa também inclui apoio financeiro e acesso controlado para organizações que mantêm sistemas críticos.
A decisão ocorre em um momento de forte competição no setor de inteligência artificial, que inclui empresas como a OpenAI. O avanço rápido dos modelos tem ampliado o debate sobre limites de uso e riscos associados.
Ao não lançar o Mythos ao público, a Anthropic sinaliza preocupação com o potencial de uso indevido.
A avaliação interna indica que ferramentas com esse nível de capacidade poderiam ser exploradas para ataques cibernéticos em larga escala.
O caso evidencia uma mudança de postura no setor. Em vez de priorizar apenas inovação e acesso, empresas começam a considerar restrições como parte da estratégia.
Leia também: Anthropic, apoiada pela Amazon, lança Claude AI para serviços financeiros
A Anthropic afirma que modelos com capacidades semelhantes devem surgir em outros laboratórios. A diferença, segundo a empresa, está no controle sobre como e quando essas tecnologias serão utilizadas.
🔷 Canal 562 ClaroTV+ | Canal 562 Sky | Canal 592 Vivo | Canal 187 Oi | Operadoras regionais
🔷 TV SINAL ABERTO: parabólicas canal 562
🔷 ONLINE: www.timesbrasil.com.br | YouTube
🔷 FAST Channels: Samsung TV Plus, LG Channels, TCL Channels, Pluto TV, Roku, Soul TV, Zapping | Novos Streamings
Mais lidas
1
Sob pressão financeira na Cimed, João Adibe recusa acordo de R$ 81 mil em caso envolvendo obra de mansão de luxo
2
A xAI de Elon Musk enfrenta nova oposição após obter autorização para pouso em usina de energia
3
O que sabemos sobre o Mythos da Anthropic, modelo de IA mais poderoso do mundo que não será lançado por motivos de cibersegurança
4
Álbum de figurinhas da Copa 2026: do básico ao premium, veja quanto custa cada versão
5
Trump celebra missão Artemis II e diz que próximo passo é conquistar Marte