CNBC

Exclusivo CNBC: Trump diz que vai mudar estratégia após decisão da Suprema Corte sobre tarifas

Tecnologia & Inovação

Google revela chips para treinamento e uso de IA em nova investida contra a Nvidia

Publicado 22/04/2026 • 13:30 | Atualizado há 3 horas

KEY POINTS

  • Google separou tarefas de IA em dois processadores distintos, um para treinamento de modelos e outro para inferência.
  • Amazon, Microsoft e Meta também desenvolvem chips próprios, em tentativa de reduzir dependência da Nvidia.
  • Novos chips TPU chegam ainda este ano e reforçam a disputa no mercado global de hardware para inteligência artificial.

Após anos produzindo chips capazes de executar tanto o treinamento de modelos de inteligência artificial quanto tarefas de inferência, o Google decidiu dividir essas funções entre processadores distintos, em seu mais recente movimento para competir com a Nvidia no mercado de hardware para IA.

A companhia informou nesta quarta-feira (22) que a mudança será implementada na oitava geração da TPU (Tensor Processing Unit). Os dois novos chips estarão disponíveis ainda neste ano.

Com o avanço dos agentes de IA, entendemos que a comunidade se beneficiaria de chips especializados individualmente para treinamento e operação”, afirmou Amin Vahdat, vice-presidente sênior do Google e diretor de tecnologia para IA e infraestrutura, em publicação no blog da empresa.

Disputa direta com Nvidia

Em março, a Nvidia promoveu seus próximos processadores voltados à rápida resposta de modelos de IA aos usuários, com tecnologia adquirida em sua compra de US$ 20 bilhões (R$ 99,6 bilhões) da startup Groq.

Leia também: xAI de Elon Musk: como a empresa tenta competir com OpenAI e Google

Embora seja grande cliente da Nvidia, o Google também oferece as TPUs como alternativa para empresas que utilizam seus serviços de computação em nuvem.

A maior parte das gigantes globais de tecnologia está investindo em semicondutores próprios para IA, buscando mais eficiência e soluções adaptadas a usos específicos.

A Apple inclui há anos componentes de IA chamados Neural Engine em chips próprios do iPhone. A Microsoft anunciou sua segunda geração de chip de IA em janeiro. Já a Meta informou na semana passada que trabalha com a Broadcom no desenvolvimento de múltiplas versões de processadores para inteligência artificial.

Google saiu na frente

O Google foi pioneiro nesse movimento. Em 2015, a empresa começou a usar chips próprios para rodar modelos de IA e, em 2018, passou a alugá-los para clientes de nuvem.

Leia também: Google amplia parceria com a Intel para chips personalizados; entenda o movimento

A Amazon Web Services (AWS) lançou em 2018 o chip Inferentia, voltado a requisições de IA, e apresentou em 2020 o Trainium, destinado ao treinamento de modelos.

Analistas da DA Davidson estimaram em setembro que o negócio de TPUs, somado à divisão Google DeepMind, teria valor aproximado de US$ 900 bilhões (R$ 4,5 trilhões).

Ganho de desempenho

Apesar do avanço, nenhuma das gigantes conseguiu desalojar a Nvidia da liderança do setor. O próprio Google evitou comparar diretamente seus novos chips com os da rival.

Ainda assim, a empresa afirmou que o chip voltado a treinamento entrega 2,8 vezes mais desempenho que a TPU de sétima geração Ironwood, anunciada em novembro, pelo mesmo preço.

Leia também: Google adiciona recursos contra crises de saúde mental, automutilação e outros casos ao Gemini

Já o processador voltado à inferência apresenta performance 80% superior.

Memória reforçada para milhões de agentes

A Nvidia informou que seu futuro hardware Groq 3 LPU utilizará grandes volumes de SRAM (memória estática de acesso aleatório), tecnologia também usada pela Cerebras, fabricante de chips de IA que entrou com pedido para abrir capital neste mês.

O novo chip de inferência do Google, batizado de TPU 8i, também utiliza SRAM. Cada unidade traz 384 megabytes de SRAM, o triplo da quantidade presente no modelo Ironwood.

Segundo Sundar Pichai, CEO da controladora Alphabet, a arquitetura foi projetada para “entregar a alta capacidade e a baixa latência necessárias para operar milhões de agentes simultaneamente com eficiência de custos”.

Adoção cresce

O Google afirmou que a adoção de seus chips de IA vem acelerando.

Leia também: Google Maps com Gemini embarcado promete engolir aplicativos como Booking e TripAdvisor; entenda

A Citadel Securities desenvolveu software de pesquisa quantitativa baseado nas TPUs do Google, enquanto os 17 laboratórios nacionais do Departamento de Energia dos EUA utilizam softwares científicos de IA construídos com esses chips.

Além disso, a startup Anthropic se comprometeu a utilizar múltiplos gigawatts em capacidade de TPUs do Google.

📌 ONDE ASSISTIR AO MAIOR CANAL DE NEGÓCIOS DO MUNDO NO BRASIL:


🔷 Canal 562 ClaroTV+ | Canal 562 Sky | Canal 592 Vivo | Canal 187 Oi | Operadoras regionais

🔷 TV SINAL ABERTO: parabólicas canal 562

🔷 ONLINE: www.timesbrasil.com.br | YouTube

🔷 FAST Channels: Samsung TV Plus, LG Channels, TCL Channels, Pluto TV, Roku, Soul TV, Zapping | Novos Streamings

Siga o Times Brasil - Licenciado Exclusivo CNBC no

Este conteúdo foi fornecido pela CNBC Internacional e a responsabilidade exclusiva pela tradução para o português é do Times Brasil.

MAIS EM Tecnologia & Inovação