Siga o Times Brasil - Licenciado Exclusivo CNBC no
DeepSeek diz ter treinado modelo de IA por apenas US$ 294 mil
Publicado 19/09/2025 • 09:18 | Atualizado há 4 meses
Ford prepara elétrico acessível que dirige sozinho para 2028
Google adiciona recursos do Gemini, como resumos de conversas, ao Gmail
Venezuela vai comprar apenas produtos americanos com dinheiro do petróleo, diz Trump
Google chega a um acordo com plataforma de IA sobre suicídios de menores; entenda o caso
A nova função do ChatGPT que deve mudar sua relação com a saúde
Publicado 19/09/2025 • 09:18 | Atualizado há 4 meses
KEY POINTS
Pexels
DeepSeek é um modelo de IA avançado desenvolvido na China com baixo custo.
A chinesa DeepSeek gastou US$ 294 mil no treinamento de seu modelo R1, valor inferior aos reportados por concorrentes dos Estados Unidos. A informação foi publicada na quarta-feira (17) na revista científica Nature.
Segundo o estudo, que listou o fundador Liang Wenfeng como um dos coautores, o modelo R1 foi treinado ao longo de 80 horas utilizando 512 chips Nvidia H800. Esta é a primeira vez que a empresa, sediada em Hangzhou, divulga estimativas de custos de treinamento de seus sistemas. O dado não constava em versão anterior do artigo, publicada em janeiro.
O lançamento, em janeiro, de sistemas de IA que a DeepSeek classificou como de baixo custo levou investidores globais a vender ações de tecnologia, diante do receio de que os novos modelos pudessem ameaçar o domínio de líderes do setor, como a Nvidia.
Em 2023, Sam Altman, CEO da OpenAI, afirmou que a criação de modelos fundacionais havia custado “muito mais de US$ 100 milhões”, sem detalhar valores.
Leia também:
Com a OpenAI na mira, DeepSeek lança discretamente atualização da inteligência artificial R1
DeepSeek afirma que novos modelos de chips chineses serão equivalentes a análogos americanos
Sucesso da DeepSeek, da China, faz Nvidia desvalorizar US$ 600 bilhões em 1 dia
O artigo também trouxe detalhes sobre o uso de chips da Nvidia em meio a restrições impostas pelos Estados Unidos. Embora o treinamento principal tenha utilizado H800, criados especificamente para o mercado chinês, a empresa reconheceu pela primeira vez possuir A100 e disse que esses foram usados em fases preparatórias de experimentos.
Outra controvérsia gira em torno do processo de “destilação de modelos”, técnica em que um sistema aprende a partir de outro, reduzindo custos. Autoridades e empresas norte-americanas já questionaram se a DeepSeek teria se apropriado de tecnologias da OpenAI. A companhia defende que a prática melhora o desempenho e amplia o acesso à IA, destacando ainda que parte de seus modelos utilizou o Llama, da Meta, como base.
No artigo, a empresa admitiu que dados usados no treinamento de seu modelo V3 incluíam páginas da web com respostas geradas por sistemas da OpenAI, mas afirmou que isso ocorreu de forma incidental.
A OpenAI não comentou o caso até o momento.
—
🔷 Canal 562 ClaroTV+ | Canal 562 Sky | Canal 592 Vivo | Canal 187 Oi | Operadoras regionais
🔷 TV SINAL ABERTO: parabólicas canal 562
🔷 ONLINE: www.timesbrasil.com.br | YouTube
🔷 FAST Channels: Samsung TV Plus, LG Channels, TCL Channels, Pluto TV, Roku, Soul TV, Zapping | Novos Streamings
Mais lidas
1
Banco Master: FGC trava R$ 41 bilhões e acende alerta regulatório
2
Novas ações da Azul passam a ser negociadas nesta quinta (8) mas despencam após leilão
3
Labubu lidera ranking do Google com produtos mais desejados do ano; veja top 50
4
Cimed sacode o mercado fitness e estreia nos suplementos com a marca Urso
5
Banco Master: por que o FGC ainda não iniciou os pagamentos?