Siga o Times Brasil - Licenciado Exclusivo CNBC no
DeepSeek da China lança modelo de IA de nova geração
Publicado 30/09/2025 • 06:48 | Atualizado há 2 meses
Câmara aprova por ampla maioria projeto que libera arquivos de Jeffrey Epstein
Príncipe herdeiro da Arábia Saudita vai aos EUA em primeira visita desde assassinato de jornalista opositor
Aposta de Buffett no Google vem duas décadas após fundadores dizerem que IPO foi “inspirado” pelo bilionário
Diretor do Fed defende corte de juros e cita preocupação com mercado de trabalho
CEO da Nvidia, Jensen Huang, surpreende com previsão de “meio trilhão” às vésperas de balanço
Publicado 30/09/2025 • 06:48 | Atualizado há 2 meses
KEY POINTS
Nikolas Kokovlis/NurPhot via Reuters
A nova versão experimental da startup chinesa DeepSeek promete aumentar a eficiência e melhorar a capacidade da inteligência artificial de lidar com grandes volumes de informação a uma fração do custo. Ainda assim, permanecem dúvidas sobre a eficácia e a segurança da arquitetura.
A DeepSeek surpreendeu o Vale do Silício no ano passado ao lançar do nada seu primeiro modelo, o R1, mostrando que era possível treinar grandes modelos de linguagem (LLMs) de forma rápida, em chips menos potentes e com menos recursos.
Na segunda-feira, a empresa lançou o DeepSeek-V3.2-Exp, uma versão experimental de seu modelo atual, o DeepSeek-V3.1-Terminus, avançando em sua missão de tornar os sistemas de IA mais eficientes, segundo publicação no fórum de IA Hugging Face.
“O DeepSeek V3.2 mantém o foco em eficiência, redução de custos e compartilhamento em código aberto”, disse à CNBC Adina Yakefu, líder da comunidade chinesa no Hugging Face. “A grande melhoria é um novo recurso chamado DSA (DeepSeek Sparse Attention), que torna a IA melhor em lidar com documentos e conversas longas. Ele também reduz pela metade o custo de operação em relação à versão anterior.”
“Isso é significativo porque deve tornar o modelo mais rápido e econômico sem uma queda perceptível de desempenho”, afirmou Nick Patience, vice-presidente e líder de práticas de IA no The Futurum Group. “Isso torna a IA avançada mais acessível a desenvolvedores, pesquisadores e pequenas empresas, podendo impulsionar uma onda de novos aplicativos inovadores.”
Um modelo de IA toma decisões com base nos dados de treinamento e em novas informações, como um comando. Imagine que uma companhia aérea deseja encontrar a melhor rota de A a B. Apesar das muitas opções, nem todas são viáveis. Ao eliminar rotas menos práticas, reduz-se drasticamente o tempo, o combustível e, em última instância, o dinheiro necessário para a viagem. Isso é o que a sparse attention faz: considera apenas os dados que julga relevantes para a tarefa, em vez de processar todo o conjunto de informações do modelo, como fazem as arquiteturas tradicionais.
“Basicamente, você corta o que acha que não é importante”, explicou Ekaterina Almasque, cofundadora e sócia-gerente do novo fundo de capital de risco BlankPage Capital.
A sparse attention é vantajosa em termos de eficiência e escalabilidade, já que exige menos recursos. Mas há uma preocupação: isso pode reduzir a confiabilidade do modelo, justamente porque falta supervisão sobre como e por que certas informações são descartadas.
“A realidade é que esses modelos perdem muitas nuances”, disse Almasque, que foi uma das primeiras apoiadoras da Dataiku e da Darktrace, além de investidora na Graphcore. “A questão é: eles têm o mecanismo certo para excluir dados realmente irrelevantes ou estão deixando de fora informações importantes, o que torna o resultado muito menos relevante?”
Essa limitação pode ser especialmente problemática em questões de segurança e inclusão na IA. A investidora destacou que talvez não seja “o modelo mais adequado ou mais seguro” em comparação a concorrentes ou arquiteturas tradicionais.
A DeepSeek, no entanto, afirma que o modelo experimental tem desempenho equivalente ao do V3.1-Terminus. Apesar das especulações sobre uma possível bolha no setor, a IA segue no centro da disputa geopolítica entre China e Estados Unidos. Yakefu ressaltou que os modelos da DeepSeek funcionam “prontos para uso” com chips chineses de IA, como os da Ascend e da Cambricon, podendo rodar localmente em hardware doméstico sem configuração adicional.
A empresa também disponibilizou o código-fonte e as ferramentas necessárias para usar o modelo experimental.
“Isso significa que outras pessoas podem aprender com ele e criar suas próprias melhorias”, disse Yakefu.
Para Almasque, porém, essa abertura pode comprometer a defensabilidade da tecnologia.
“A abordagem não é totalmente nova”, observou, lembrando que a indústria fala de sparse models desde 2015. Além disso, por ser de código aberto, a DeepSeek não pode patentear sua tecnologia. Sua vantagem competitiva, portanto, estaria em como define quais informações incluir.
No próprio post no Hugging Face, a empresa reconheceu que o V3.2-Exp é “um passo intermediário em direção à nossa arquitetura de próxima geração”.
Como destacou Patience, “essa é a proposta de valor da DeepSeek: a eficiência está se tornando tão importante quanto a potência bruta”.
“A DeepSeek está pensando no longo prazo, mantendo a comunidade engajada em seu progresso”, acrescentou Yakefu. “As pessoas sempre vão preferir o que for barato, confiável e eficaz.”
🔷 Canal 562 ClaroTV+ | Canal 562 Sky | Canal 592 Vivo | Canal 187 Oi | Operadoras regionais
🔷 TV SINAL ABERTO: parabólicas canal 562
🔷 ONLINE: www.timesbrasil.com.br | YouTube
🔷 FAST Channels: Samsung TV Plus, LG Channels, TCL Channels, Pluto TV, Roku, Soul TV, Zapping | Novos Streamings
Este conteúdo foi fornecido pela CNBC Internacional e a responsabilidade exclusiva pela tradução para o português é do Times Brasil.
Mais lidas
1
O que acontece agora com quem tem CDBs do Banco Master?
2
Embraer faz acordos com empresas dos Emirados Árabes no setor de defesa
3
Banco Master: crise expõe risco que investidores, empresas e até aposentados correm quando ultrapassam limite do FGC
4
Um mercado de bilhões: Boticário lança departamento de pesquisa após disparada de vendas de hair care; conheça
5
Como a crise de Ambipar e Braskem explica o derretimento dos COEs e as perdas expressivas dos investidores de XP e BTG