CNBC

CNBCTrump ameaça impor novas tarifas para pressionar negociação sobre a Groenlândia

Empresas & Negócios

OpenAI aposta em múltiplos parceiros de chips de IA e mira crescimento bilionário

Publicado 16/01/2026 • 17:55 | Atualizado há 3 horas

KEY POINTS

  • No ano passado, a OpenAI comprometeu mais de US$ 1,4 trilhão (R$ 7,532 trilhões) em acordos de infraestrutura com empresas como Nvidia, Advanced Micro Devices (AMD) e Broadcom.
  • A OpenAI está fazendo tudo o que pode para se diversificar enquanto persegue um plano de expansão historicamente agressivo.

REUTERS/Dado Ruvic/Illustration/File Photo

Laptop com logo da OpenAI

Em novembro, após os últimos resultados positivos da Nvidia, o CEO Jensen Huang se gabou para os investidores sobre a posição de sua empresa na inteligência artificial e disse sobre a startup mais quente do setor: “Tudo o que a OpenAI faz roda na Nvidia hoje.”

Embora seja verdade que a Nvidia mantém uma posição dominante em chips de IA e agora seja a empresa mais valiosa do mundo, a concorrência está surgindo, e a OpenAI está fazendo tudo o que pode para se diversificar enquanto persegue um plano de expansão historicamente agressivo.

Na quarta-feira, a OpenAI anunciou um acordo de US$ 10 bilhões (aproximadamente R$ 53,8 bilhões) com a fabricante de chips Cerebras, um jogador relativamente novo no setor, mas que está mirando o mercado público. Foi o mais recente de uma série de acordos entre a OpenAI e as empresas que produzem os processadores necessários para construir grandes modelos de linguagem e executar cargas de trabalho cada vez mais sofisticadas.

Leia mais:
Ações de Nvidia, AMD e Broadcom sobem após resultados positivos da TSMC

No ano passado, a OpenAI comprometeu mais de US$ 1,4 trilhão (R$ 7,532 trilhões) em acordos de infraestrutura com empresas como Nvidia, Advanced Micro Devices (AMD) e Broadcom, a caminho de alcançar uma avaliação privada de mercado de US$ 500 bilhões (R$ 2,69 trilhões).

À medida que a OpenAI corre para atender à demanda antecipada por sua tecnologia de IA, sinalizou ao mercado que quer o máximo de poder de processamento que conseguir. Aqui estão os principais acordos de chips que a OpenAI assinou até janeiro, e parceiros potenciais para ficar de olho no futuro.

Nvidia

Desde os primeiros dias de desenvolvimento de grandes modelos de linguagem, muito antes do lançamento do ChatGPT e do boom da IA generativa, a OpenAI depende das unidades de processamento gráfico (GPUs) da Nvidia.

Em 2025, essa relação evoluiu para outro nível. Após um investimento na OpenAI no final de 2024, a Nvidia anunciou em setembro que se comprometeria a investir US$ 100 bilhões (R$ 538 bilhões) para apoiar a OpenAI na construção e implantação de pelo menos 10 gigawatts de sistemas Nvidia.

Um gigawatt é uma medida de potência, e 10 gigawatts são aproximadamente equivalentes ao consumo anual de energia de 8 milhões de residências nos EUA, segundo análise da CNBC com dados da Energy Information Administration. Huang disse em setembro que 10 gigawatts equivaleriam a entre 4 milhões e 5 milhões de GPUs.

“Este é um projeto gigante”, disse Huang à CNBC na época.

A OpenAI e a Nvidia afirmaram que a primeira fase do projeto deve entrar em operação na segunda metade deste ano na plataforma Vera Rubin da Nvidia. No entanto, durante a teleconferência de resultados trimestrais da Nvidia em novembro, a empresa disse que não há “garantia” de que o acordo com a OpenAI avançará além de um anúncio para um contrato oficial.

O primeiro investimento da Nvidia de US$ 10 bilhões (R$ 53,8 bilhões) será aplicado quando o primeiro gigawatt estiver concluído, e os investimentos serão feitos com base nas avaliações vigentes, conforme relatado anteriormente pela CNBC.

AMD

Em outubro, a OpenAI anunciou planos de implantar 6 gigawatts de GPUs da AMD ao longo de vários anos e gerações de hardware.

Como parte do acordo, a AMD emitiu à OpenAI um warrant de até 160 milhões de ações ordinárias da AMD, o que poderia representar aproximadamente 10% da empresa. O warrant inclui metas de aquisição ligadas tanto ao volume de implantação quanto ao preço das ações da AMD.

As empresas afirmaram que planejam lançar o primeiro gigawatt de chips na segunda metade de 2026 e acrescentaram que o acordo vale bilhões de dólares, sem divulgar um valor específico.

“Você precisa de parcerias como essa, que realmente unem o ecossistema para garantir que possamos obter as melhores tecnologias disponíveis”, disse a CEO da AMD, Lisa Su, à CNBC na época do anúncio.

O CEO da OpenAI, Sam Altman, plantou as sementes para o acordo em junho, quando apareceu no palco ao lado de Su em um evento de lançamento da AMD em San Jose, Califórnia. Ele disse que a OpenAI planejava usar os chips mais recentes da AMD.

Broadcom

No final daquele mês, OpenAI e Broadcom revelaram publicamente uma colaboração que estava em andamento há mais de um ano.

A Broadcom chama seus chips de IA personalizados de XPUs, e até agora dependia de poucos clientes. Mas sua carteira de acordos potenciais gerou tanto entusiasmo em Wall Street que a Broadcom agora é avaliada em mais de US$ 1,6 trilhão (R$ 8,608 trilhões).

A OpenAI disse que está projetando seus próprios chips e sistemas de IA, que serão desenvolvidos e distribuídos pela Broadcom. As empresas concordaram em implantar 10 gigawatts desses aceleradores de IA personalizados.

No comunicado de outubro, as empresas disseram que a Broadcom pretende começar a implantar racks dos aceleradores de IA e sistemas de rede na segunda metade deste ano, com o objetivo de concluir o projeto até o final de 2029.

Mas o CEO da Broadcom, Hock Tan, disse aos investidores durante a teleconferência de resultados da empresa em dezembro que não espera muita receita da parceria com a OpenAI em 2026.

“Apreciamos o fato de que é uma jornada de vários anos que se estenderá até 2029”, disse Tan. “Eu chamo isso de um acordo, um alinhamento de onde estamos indo.”

OpenAI e Broadcom não divulgaram os termos financeiros do acordo.

Cerebras

Na quarta-feira, a OpenAI anunciou um acordo para implantar 750 megawatts de chips de IA da Cerebras, que serão disponibilizados em várias etapas até 2028.

A Cerebras fabrica chips de grande escala (wafer-scale) que podem fornecer respostas até 15 vezes mais rápido do que sistemas baseados em GPU, segundo um comunicado. A empresa é muito menor que Nvidia, AMD e Broadcom.

O acordo da OpenAI com a Cerebras vale mais de US$ 10 bilhões (R$ 53,8 bilhões) e pode ser um grande impulso para a fabricante, à medida que ela avalia uma possível estreia no mercado público.

“Estamos muito satisfeitos em fazer parceria com a OpenAI, trazendo os modelos de IA líderes mundiais para o processador de IA mais rápido do mundo”, disse o CEO da Cerebras, Andrew Feldman, em um comunicado.

A Cerebras precisa urgentemente de clientes de grande destaque. Em outubro, a empresa retirou planos para um IPO, poucos dias após anunciar que arrecadou mais de US$ 1 bilhão (R$ 5,38 bilhões) em uma rodada de financiamento. Ela havia solicitado uma oferta pública um ano antes, mas seu prospecto revelou forte dependência de um único cliente nos Emirados Árabes Unidos, a G42, apoiada pela Microsoft, que também é investidora da Cerebras.

Potenciais parceiros

Onde ficam Amazon, Google e Intel, que têm seus próprios chips de IA?

Em novembro, a OpenAI assinou um acordo de nuvem de US$ 38 bilhões (R$ 204,44 bilhões) com a Amazon Web Services (AWS). A OpenAI rodará cargas de trabalho nos data centers existentes da AWS, mas o provedor de nuvem também planeja construir infraestrutura adicional para a startup como parte do acordo.

A Amazon também está em negociações para investir potencialmente mais de US$ 10 bilhões (R$ 53,8 bilhões) na OpenAI, conforme relatado anteriormente pela CNBC.

A OpenAI poderia decidir usar os chips de IA da Amazon como parte dessas discussões de investimento, mas nada oficial foi determinado, de acordo com uma fonte que pediu anonimato.

A AWS anunciou seus chips Inferentia em 2018, e a geração mais recente dos chips Trainium no final de 2025.

O Google Cloud também fornece capacidade computacional à OpenAI graças a um acordo silenciosamente finalizado no ano passado. Mas a OpenAI disse em junho que não planeja usar os chips internos do Google, chamados Tensor Processing Units (TPUs), que a Broadcom também ajuda a produzir.

A Intel tem sido a maior atrasada entre os fabricantes de chips tradicionais, o que explica por que a empresa recentemente recebeu investimentos massivos do governo dos EUA e da Nvidia. A Reuters relatou em 2024, citando fontes próximas às discussões, que a Intel teve a chance de investir na OpenAI anos antes e potencialmente fabricar hardware para a então startup iniciante, oferecendo uma forma de não depender da Nvidia.

A Intel decidiu não seguir com o acordo, segundo a Reuters.

Em outubro, a Intel anunciou uma nova GPU para data center com codinome Crescent Island, que “foi projetada para atender às crescentes demandas de workloads de inferência de IA e oferecer alta capacidade de memória e desempenho eficiente em energia.” A empresa disse que a “amostragem para clientes” deve começar na segunda metade de 2026.

Wall Street receberá atualizações sobre os últimos esforços de IA da Intel quando a empresa iniciar a temporada de resultados de tecnologia na próxima semana.

📌 ONDE ASSISTIR AO MAIOR CANAL DE NEGÓCIOS DO MUNDO NO BRASIL:


🔷 Canal 562 ClaroTV+ | Canal 562 Sky | Canal 592 Vivo | Canal 187 Oi | Operadoras regionais

🔷 TV SINAL ABERTO: parabólicas canal 562

🔷 ONLINE: www.timesbrasil.com.br | YouTube

🔷 FAST Channels: Samsung TV Plus, LG Channels, TCL Channels, Pluto TV, Roku, Soul TV, Zapping | Novos Streamings

Siga o Times Brasil - Licenciado Exclusivo CNBC no

Este conteúdo foi fornecido pela CNBC Internacional e a responsabilidade exclusiva pela tradução para o português é do Times Brasil.

MAIS EM Empresas & Negócios

;