Siga o Times Brasil - Licenciado Exclusivo CNBC no
OpenAI aposta em múltiplos parceiros de chips de IA e mira crescimento bilionário
Publicado 16/01/2026 • 17:55 | Atualizado há 3 horas
Trump ameaça impor novas tarifas para pressionar negociação sobre a Groenlândia
Mitsubishi, do Japão, vai adquirir ativos de gás de xisto nos EUA por US$ 7,5 bilhões
Dono do Los Angeles Rams se torna o maior proprietário privado de terras dos EUA
OpenAI alerta investidores para declarações “absurdas” de Elon Musk; entenda
Cloudflare adquire mercado de dados de inteligência artificial
Publicado 16/01/2026 • 17:55 | Atualizado há 3 horas
KEY POINTS
REUTERS/Dado Ruvic/Illustration/File Photo
Laptop com logo da OpenAI
Em novembro, após os últimos resultados positivos da Nvidia, o CEO Jensen Huang se gabou para os investidores sobre a posição de sua empresa na inteligência artificial e disse sobre a startup mais quente do setor: “Tudo o que a OpenAI faz roda na Nvidia hoje.”
Embora seja verdade que a Nvidia mantém uma posição dominante em chips de IA e agora seja a empresa mais valiosa do mundo, a concorrência está surgindo, e a OpenAI está fazendo tudo o que pode para se diversificar enquanto persegue um plano de expansão historicamente agressivo.
Na quarta-feira, a OpenAI anunciou um acordo de US$ 10 bilhões (aproximadamente R$ 53,8 bilhões) com a fabricante de chips Cerebras, um jogador relativamente novo no setor, mas que está mirando o mercado público. Foi o mais recente de uma série de acordos entre a OpenAI e as empresas que produzem os processadores necessários para construir grandes modelos de linguagem e executar cargas de trabalho cada vez mais sofisticadas.
Leia mais:
Ações de Nvidia, AMD e Broadcom sobem após resultados positivos da TSMC
No ano passado, a OpenAI comprometeu mais de US$ 1,4 trilhão (R$ 7,532 trilhões) em acordos de infraestrutura com empresas como Nvidia, Advanced Micro Devices (AMD) e Broadcom, a caminho de alcançar uma avaliação privada de mercado de US$ 500 bilhões (R$ 2,69 trilhões).
À medida que a OpenAI corre para atender à demanda antecipada por sua tecnologia de IA, sinalizou ao mercado que quer o máximo de poder de processamento que conseguir. Aqui estão os principais acordos de chips que a OpenAI assinou até janeiro, e parceiros potenciais para ficar de olho no futuro.
Desde os primeiros dias de desenvolvimento de grandes modelos de linguagem, muito antes do lançamento do ChatGPT e do boom da IA generativa, a OpenAI depende das unidades de processamento gráfico (GPUs) da Nvidia.
Em 2025, essa relação evoluiu para outro nível. Após um investimento na OpenAI no final de 2024, a Nvidia anunciou em setembro que se comprometeria a investir US$ 100 bilhões (R$ 538 bilhões) para apoiar a OpenAI na construção e implantação de pelo menos 10 gigawatts de sistemas Nvidia.
Um gigawatt é uma medida de potência, e 10 gigawatts são aproximadamente equivalentes ao consumo anual de energia de 8 milhões de residências nos EUA, segundo análise da CNBC com dados da Energy Information Administration. Huang disse em setembro que 10 gigawatts equivaleriam a entre 4 milhões e 5 milhões de GPUs.
“Este é um projeto gigante”, disse Huang à CNBC na época.
A OpenAI e a Nvidia afirmaram que a primeira fase do projeto deve entrar em operação na segunda metade deste ano na plataforma Vera Rubin da Nvidia. No entanto, durante a teleconferência de resultados trimestrais da Nvidia em novembro, a empresa disse que não há “garantia” de que o acordo com a OpenAI avançará além de um anúncio para um contrato oficial.
O primeiro investimento da Nvidia de US$ 10 bilhões (R$ 53,8 bilhões) será aplicado quando o primeiro gigawatt estiver concluído, e os investimentos serão feitos com base nas avaliações vigentes, conforme relatado anteriormente pela CNBC.
Em outubro, a OpenAI anunciou planos de implantar 6 gigawatts de GPUs da AMD ao longo de vários anos e gerações de hardware.
Como parte do acordo, a AMD emitiu à OpenAI um warrant de até 160 milhões de ações ordinárias da AMD, o que poderia representar aproximadamente 10% da empresa. O warrant inclui metas de aquisição ligadas tanto ao volume de implantação quanto ao preço das ações da AMD.
As empresas afirmaram que planejam lançar o primeiro gigawatt de chips na segunda metade de 2026 e acrescentaram que o acordo vale bilhões de dólares, sem divulgar um valor específico.
“Você precisa de parcerias como essa, que realmente unem o ecossistema para garantir que possamos obter as melhores tecnologias disponíveis”, disse a CEO da AMD, Lisa Su, à CNBC na época do anúncio.
O CEO da OpenAI, Sam Altman, plantou as sementes para o acordo em junho, quando apareceu no palco ao lado de Su em um evento de lançamento da AMD em San Jose, Califórnia. Ele disse que a OpenAI planejava usar os chips mais recentes da AMD.
No final daquele mês, OpenAI e Broadcom revelaram publicamente uma colaboração que estava em andamento há mais de um ano.
A Broadcom chama seus chips de IA personalizados de XPUs, e até agora dependia de poucos clientes. Mas sua carteira de acordos potenciais gerou tanto entusiasmo em Wall Street que a Broadcom agora é avaliada em mais de US$ 1,6 trilhão (R$ 8,608 trilhões).
A OpenAI disse que está projetando seus próprios chips e sistemas de IA, que serão desenvolvidos e distribuídos pela Broadcom. As empresas concordaram em implantar 10 gigawatts desses aceleradores de IA personalizados.
No comunicado de outubro, as empresas disseram que a Broadcom pretende começar a implantar racks dos aceleradores de IA e sistemas de rede na segunda metade deste ano, com o objetivo de concluir o projeto até o final de 2029.
Mas o CEO da Broadcom, Hock Tan, disse aos investidores durante a teleconferência de resultados da empresa em dezembro que não espera muita receita da parceria com a OpenAI em 2026.
“Apreciamos o fato de que é uma jornada de vários anos que se estenderá até 2029”, disse Tan. “Eu chamo isso de um acordo, um alinhamento de onde estamos indo.”
OpenAI e Broadcom não divulgaram os termos financeiros do acordo.
Na quarta-feira, a OpenAI anunciou um acordo para implantar 750 megawatts de chips de IA da Cerebras, que serão disponibilizados em várias etapas até 2028.
A Cerebras fabrica chips de grande escala (wafer-scale) que podem fornecer respostas até 15 vezes mais rápido do que sistemas baseados em GPU, segundo um comunicado. A empresa é muito menor que Nvidia, AMD e Broadcom.
O acordo da OpenAI com a Cerebras vale mais de US$ 10 bilhões (R$ 53,8 bilhões) e pode ser um grande impulso para a fabricante, à medida que ela avalia uma possível estreia no mercado público.
“Estamos muito satisfeitos em fazer parceria com a OpenAI, trazendo os modelos de IA líderes mundiais para o processador de IA mais rápido do mundo”, disse o CEO da Cerebras, Andrew Feldman, em um comunicado.
A Cerebras precisa urgentemente de clientes de grande destaque. Em outubro, a empresa retirou planos para um IPO, poucos dias após anunciar que arrecadou mais de US$ 1 bilhão (R$ 5,38 bilhões) em uma rodada de financiamento. Ela havia solicitado uma oferta pública um ano antes, mas seu prospecto revelou forte dependência de um único cliente nos Emirados Árabes Unidos, a G42, apoiada pela Microsoft, que também é investidora da Cerebras.
Onde ficam Amazon, Google e Intel, que têm seus próprios chips de IA?
Em novembro, a OpenAI assinou um acordo de nuvem de US$ 38 bilhões (R$ 204,44 bilhões) com a Amazon Web Services (AWS). A OpenAI rodará cargas de trabalho nos data centers existentes da AWS, mas o provedor de nuvem também planeja construir infraestrutura adicional para a startup como parte do acordo.
A Amazon também está em negociações para investir potencialmente mais de US$ 10 bilhões (R$ 53,8 bilhões) na OpenAI, conforme relatado anteriormente pela CNBC.
A OpenAI poderia decidir usar os chips de IA da Amazon como parte dessas discussões de investimento, mas nada oficial foi determinado, de acordo com uma fonte que pediu anonimato.
A AWS anunciou seus chips Inferentia em 2018, e a geração mais recente dos chips Trainium no final de 2025.
O Google Cloud também fornece capacidade computacional à OpenAI graças a um acordo silenciosamente finalizado no ano passado. Mas a OpenAI disse em junho que não planeja usar os chips internos do Google, chamados Tensor Processing Units (TPUs), que a Broadcom também ajuda a produzir.
A Intel tem sido a maior atrasada entre os fabricantes de chips tradicionais, o que explica por que a empresa recentemente recebeu investimentos massivos do governo dos EUA e da Nvidia. A Reuters relatou em 2024, citando fontes próximas às discussões, que a Intel teve a chance de investir na OpenAI anos antes e potencialmente fabricar hardware para a então startup iniciante, oferecendo uma forma de não depender da Nvidia.
A Intel decidiu não seguir com o acordo, segundo a Reuters.
Em outubro, a Intel anunciou uma nova GPU para data center com codinome Crescent Island, que “foi projetada para atender às crescentes demandas de workloads de inferência de IA e oferecer alta capacidade de memória e desempenho eficiente em energia.” A empresa disse que a “amostragem para clientes” deve começar na segunda metade de 2026.
Wall Street receberá atualizações sobre os últimos esforços de IA da Intel quando a empresa iniciar a temporada de resultados de tecnologia na próxima semana.
🔷 Canal 562 ClaroTV+ | Canal 562 Sky | Canal 592 Vivo | Canal 187 Oi | Operadoras regionais
🔷 TV SINAL ABERTO: parabólicas canal 562
🔷 ONLINE: www.timesbrasil.com.br | YouTube
🔷 FAST Channels: Samsung TV Plus, LG Channels, TCL Channels, Pluto TV, Roku, Soul TV, Zapping | Novos Streamings
Este conteúdo foi fornecido pela CNBC Internacional e a responsabilidade exclusiva pela tradução para o português é do Times Brasil.
Mais lidas
1
West Ham aceita vender Paquetá ao Flamengo, mas faz uma exigência; veja qual
2
Trading controlada por grupo russo “some do mapa” e demite 344 no Brasil
3
IPVA Rio de Janeiro 2026: veja datas de pagamento, descontos e como emitir o boleto
4
Banco Master: PGR investiga fraude em fundo que investiu R$ 300 milhões no Atlético-MG
5
Flamengo x Corinthians na Supercopa Rei 2026: quanto custam os ingressos para o jogo?