CNBC

CNBCYouTube concorda em pagar R$ 131 mi a Trump para encerrar processo sobre suspensão de conta

Tecnologia & Inovação

DeepSeek da China lança modelo de IA de nova geração

Publicado 30/09/2025 • 06:48 | Atualizado há 4 horas

KEY POINTS

  • A DeepSeek anunciou na segunda-feira o lançamento de uma versão experimental do seu modelo atual DeepSeek-V3.1-Terminus.
  • Apesar das especulações sobre a formação de uma bolha, a IA continua no centro da competição geopolítica, com os EUA e a China disputando o lugar vencedor.
  • “Essa é a proposta de valor da DeepSeek em todos os aspectos: a eficiência está se tornando tão importante quanto a potência bruta”, de acordo com Nick Patience, vice-presidente e líder de práticas de IA no The Futurum Group.
Deepseek

Nikolas Kokovlis/NurPhot via Reuters

A nova versão experimental da startup chinesa DeepSeek promete aumentar a eficiência e melhorar a capacidade da inteligência artificial de lidar com grandes volumes de informação a uma fração do custo. Ainda assim, permanecem dúvidas sobre a eficácia e a segurança da arquitetura.

A DeepSeek surpreendeu o Vale do Silício no ano passado ao lançar do nada seu primeiro modelo, o R1, mostrando que era possível treinar grandes modelos de linguagem (LLMs) de forma rápida, em chips menos potentes e com menos recursos.

Na segunda-feira, a empresa lançou o DeepSeek-V3.2-Exp, uma versão experimental de seu modelo atual, o DeepSeek-V3.1-Terminus, avançando em sua missão de tornar os sistemas de IA mais eficientes, segundo publicação no fórum de IA Hugging Face.

“O DeepSeek V3.2 mantém o foco em eficiência, redução de custos e compartilhamento em código aberto”, disse à CNBC Adina Yakefu, líder da comunidade chinesa no Hugging Face. “A grande melhoria é um novo recurso chamado DSA (DeepSeek Sparse Attention), que torna a IA melhor em lidar com documentos e conversas longas. Ele também reduz pela metade o custo de operação em relação à versão anterior.”

“Isso é significativo porque deve tornar o modelo mais rápido e econômico sem uma queda perceptível de desempenho”, afirmou Nick Patience, vice-presidente e líder de práticas de IA no The Futurum Group. “Isso torna a IA avançada mais acessível a desenvolvedores, pesquisadores e pequenas empresas, podendo impulsionar uma onda de novos aplicativos inovadores.”

Os prós e contras da sparse attention

Um modelo de IA toma decisões com base nos dados de treinamento e em novas informações, como um comando. Imagine que uma companhia aérea deseja encontrar a melhor rota de A a B. Apesar das muitas opções, nem todas são viáveis. Ao eliminar rotas menos práticas, reduz-se drasticamente o tempo, o combustível e, em última instância, o dinheiro necessário para a viagem. Isso é o que a sparse attention faz: considera apenas os dados que julga relevantes para a tarefa, em vez de processar todo o conjunto de informações do modelo, como fazem as arquiteturas tradicionais.

“Basicamente, você corta o que acha que não é importante”, explicou Ekaterina Almasque, cofundadora e sócia-gerente do novo fundo de capital de risco BlankPage Capital.

A sparse attention é vantajosa em termos de eficiência e escalabilidade, já que exige menos recursos. Mas há uma preocupação: isso pode reduzir a confiabilidade do modelo, justamente porque falta supervisão sobre como e por que certas informações são descartadas.

“A realidade é que esses modelos perdem muitas nuances”, disse Almasque, que foi uma das primeiras apoiadoras da Dataiku e da Darktrace, além de investidora na Graphcore. “A questão é: eles têm o mecanismo certo para excluir dados realmente irrelevantes ou estão deixando de fora informações importantes, o que torna o resultado muito menos relevante?”

Essa limitação pode ser especialmente problemática em questões de segurança e inclusão na IA. A investidora destacou que talvez não seja “o modelo mais adequado ou mais seguro” em comparação a concorrentes ou arquiteturas tradicionais.

A DeepSeek, no entanto, afirma que o modelo experimental tem desempenho equivalente ao do V3.1-Terminus. Apesar das especulações sobre uma possível bolha no setor, a IA segue no centro da disputa geopolítica entre China e Estados Unidos. Yakefu ressaltou que os modelos da DeepSeek funcionam “prontos para uso” com chips chineses de IA, como os da Ascend e da Cambricon, podendo rodar localmente em hardware doméstico sem configuração adicional.

A empresa também disponibilizou o código-fonte e as ferramentas necessárias para usar o modelo experimental.

“Isso significa que outras pessoas podem aprender com ele e criar suas próprias melhorias”, disse Yakefu.

Para Almasque, porém, essa abertura pode comprometer a defensabilidade da tecnologia.

“A abordagem não é totalmente nova”, observou, lembrando que a indústria fala de sparse models desde 2015. Além disso, por ser de código aberto, a DeepSeek não pode patentear sua tecnologia. Sua vantagem competitiva, portanto, estaria em como define quais informações incluir.

No próprio post no Hugging Face, a empresa reconheceu que o V3.2-Exp é “um passo intermediário em direção à nossa arquitetura de próxima geração”.

Como destacou Patience, “essa é a proposta de valor da DeepSeek: a eficiência está se tornando tão importante quanto a potência bruta”.

“A DeepSeek está pensando no longo prazo, mantendo a comunidade engajada em seu progresso”, acrescentou Yakefu. “As pessoas sempre vão preferir o que for barato, confiável e eficaz.”

📌 ONDE ASSISTIR AO MAIOR CANAL DE NEGÓCIOS DO MUNDO NO BRASIL:


🔷 Canal 562 ClaroTV+ | Canal 562 Sky | Canal 592 Vivo | Canal 187 Oi | Operadoras regionais

🔷 TV SINAL ABERTO: parabólicas canal 562

🔷 ONLINE: www.timesbrasil.com.br | YouTube

🔷 FAST Channels: Samsung TV Plus, LG Channels, TCL Channels, Pluto TV, Roku, Soul TV, Zapping | Novos Streamings

Siga o Times Brasil - Licenciado Exclusivo CNBC no

Este conteúdo foi fornecido pela CNBC Internacional e a responsabilidade exclusiva pela tradução para o português é do Times Brasil.

MAIS EM Tecnologia & Inovação

;