Siga o Times Brasil - Licenciado Exclusivo CNBC no
Google revela chips para treinamento e uso de IA em nova investida contra a Nvidia
Publicado 22/04/2026 • 13:30 | Atualizado há 3 horas
Exclusivo CNBC: Trump diz que vai mudar estratégia após decisão da Suprema Corte sobre tarifas
Ações da Moncler caem apesar de resultados acima do esperado e menor impacto no Oriente Médio
Juros dos Treasuries ficam estáveis após investidores avaliarem extensão de trégua entre EUA e Irã
Dois navios são atacados no Estreito de Ormuz, diz Reino Unido, após EUA estenderem cessar-fogo com o Irã
Musk pode comprar a Cursor ainda neste ano por US$ 60 bilhões ou pagar US$ 10 bilhões pelo “trabalho conjunto”
Publicado 22/04/2026 • 13:30 | Atualizado há 3 horas
KEY POINTS
Após anos produzindo chips capazes de executar tanto o treinamento de modelos de inteligência artificial quanto tarefas de inferência, o Google decidiu dividir essas funções entre processadores distintos, em seu mais recente movimento para competir com a Nvidia no mercado de hardware para IA.
A companhia informou nesta quarta-feira (22) que a mudança será implementada na oitava geração da TPU (Tensor Processing Unit). Os dois novos chips estarão disponíveis ainda neste ano.
“Com o avanço dos agentes de IA, entendemos que a comunidade se beneficiaria de chips especializados individualmente para treinamento e operação”, afirmou Amin Vahdat, vice-presidente sênior do Google e diretor de tecnologia para IA e infraestrutura, em publicação no blog da empresa.
Em março, a Nvidia promoveu seus próximos processadores voltados à rápida resposta de modelos de IA aos usuários, com tecnologia adquirida em sua compra de US$ 20 bilhões (R$ 99,6 bilhões) da startup Groq.
Leia também: xAI de Elon Musk: como a empresa tenta competir com OpenAI e Google
Embora seja grande cliente da Nvidia, o Google também oferece as TPUs como alternativa para empresas que utilizam seus serviços de computação em nuvem.
A maior parte das gigantes globais de tecnologia está investindo em semicondutores próprios para IA, buscando mais eficiência e soluções adaptadas a usos específicos.
A Apple inclui há anos componentes de IA chamados Neural Engine em chips próprios do iPhone. A Microsoft anunciou sua segunda geração de chip de IA em janeiro. Já a Meta informou na semana passada que trabalha com a Broadcom no desenvolvimento de múltiplas versões de processadores para inteligência artificial.
O Google foi pioneiro nesse movimento. Em 2015, a empresa começou a usar chips próprios para rodar modelos de IA e, em 2018, passou a alugá-los para clientes de nuvem.
Leia também: Google amplia parceria com a Intel para chips personalizados; entenda o movimento
A Amazon Web Services (AWS) lançou em 2018 o chip Inferentia, voltado a requisições de IA, e apresentou em 2020 o Trainium, destinado ao treinamento de modelos.
Analistas da DA Davidson estimaram em setembro que o negócio de TPUs, somado à divisão Google DeepMind, teria valor aproximado de US$ 900 bilhões (R$ 4,5 trilhões).
Apesar do avanço, nenhuma das gigantes conseguiu desalojar a Nvidia da liderança do setor. O próprio Google evitou comparar diretamente seus novos chips com os da rival.
Ainda assim, a empresa afirmou que o chip voltado a treinamento entrega 2,8 vezes mais desempenho que a TPU de sétima geração Ironwood, anunciada em novembro, pelo mesmo preço.
Leia também: Google adiciona recursos contra crises de saúde mental, automutilação e outros casos ao Gemini
Já o processador voltado à inferência apresenta performance 80% superior.
Memória reforçada para milhões de agentes
A Nvidia informou que seu futuro hardware Groq 3 LPU utilizará grandes volumes de SRAM (memória estática de acesso aleatório), tecnologia também usada pela Cerebras, fabricante de chips de IA que entrou com pedido para abrir capital neste mês.
O novo chip de inferência do Google, batizado de TPU 8i, também utiliza SRAM. Cada unidade traz 384 megabytes de SRAM, o triplo da quantidade presente no modelo Ironwood.
Segundo Sundar Pichai, CEO da controladora Alphabet, a arquitetura foi projetada para “entregar a alta capacidade e a baixa latência necessárias para operar milhões de agentes simultaneamente com eficiência de custos”.
O Google afirmou que a adoção de seus chips de IA vem acelerando.
Leia também: Google Maps com Gemini embarcado promete engolir aplicativos como Booking e TripAdvisor; entenda
A Citadel Securities desenvolveu software de pesquisa quantitativa baseado nas TPUs do Google, enquanto os 17 laboratórios nacionais do Departamento de Energia dos EUA utilizam softwares científicos de IA construídos com esses chips.
Além disso, a startup Anthropic se comprometeu a utilizar múltiplos gigawatts em capacidade de TPUs do Google.
—
🔷 Canal 562 ClaroTV+ | Canal 562 Sky | Canal 592 Vivo | Canal 187 Oi | Operadoras regionais
🔷 TV SINAL ABERTO: parabólicas canal 562
🔷 ONLINE: www.timesbrasil.com.br | YouTube
🔷 FAST Channels: Samsung TV Plus, LG Channels, TCL Channels, Pluto TV, Roku, Soul TV, Zapping | Novos Streamings
Este conteúdo foi fornecido pela CNBC Internacional e a responsabilidade exclusiva pela tradução para o português é do Times Brasil.
Mais lidas
1
USA Rare Earth compra brasileira Serra Verde por US$ 2,8 bilhões para desafiar domínio da China em terras raras
2
Raízen: credores apresentam plano de reestruturação e pressionam por acordo
3
Escassez de mão de obra no Brasil eleva salários e dificulta retenção no setor de serviços
4
Flórida abre investigação criminal sobre ChatGPT após tiroteio fatal em universidade
5
Trégua na guerra: dólar perde força, petróleo se acomoda e Ibovespa pode alcançar 200 mil pontos, avalia especialista