CNBC

CNBC Irã responde ataque de mísseis e lança 100 drones contra Israel; mercados oscilam

Empresas & Negócios

AMD revela chips de IA de próxima geração com CEO da OpenAI, Sam Altman

Publicado 12/06/2025 • 20:16 | Atualizado há 19 horas

CNBC

Redação CNBC

KEY POINTS

  • Nesta quinta-feira, a AMD revelou novos detalhes sobre seus chips de IA de próxima geração, a série Instinct MI400, que serão lançados no próximo ano. A CEO Lisa Su apresentou os chips em um evento de lançamento em San Jose, Califórnia.
  • Os chips poderão ser usados como parte de um sistema em "escala de rack", afirmou a AMD. Isso é importante para clientes que desejam clusters "hiperescala" de computadores de IA que podem ocupar centros de dados inteiros.
  • O CEO da OpenAI, Sam Altman, apareceu no palco com Su e disse que sua empresa vai usar os chips da AMD. "Vai ser algo incrível", disse Altman.
AMD

Sede da AMD na Califórnia, EUA

Divulgação

A Advanced Micro Devices (AMD) revelou nesta quinta-feira (12) novos detalhes sobre seus chips de IA de próxima geração, a série Instinct MI400, que serão lançados no próximo ano.

Os chips MI400 poderão ser montados em um rack de servidor completo chamado Helios, disse a AMD, permitindo que milhares de chips sejam interligados de maneira a funcionarem como um único sistema em “escala de rack”.

“Pela primeira vez, projetamos cada parte do rack como um sistema unificado”, disse a CEO da AMD, Lisa Su, em um evento de lançamento em San Jose, Califórnia, na quinta-feira.

O CEO da OpenAI, Sam Altman, subiu ao palco com Su e disse que sua empresa vai usar os chips da AMD.

“Quando você começou a me contar sobre as especificações, eu pensei, não é possível, isso parece totalmente louco”, disse Altman. “Vai ser algo incrível”.

A configuração em escala de rack da AMD fará com que os chips pareçam um único sistema para o usuário, o que é importante para a maioria dos clientes de inteligência artificial, como provedores de nuvem e empresas que desenvolvem grandes modelos de linguagem. Esses clientes querem clusters “hiperescala” de computadores de IA que possam ocupar centros de dados inteiros e usar enormes quantidades de energia.

“Pense no Helios como um rack que realmente funciona como um único, gigantesco motor de computação”, disse Su, comparando-o aos racks Vera Rubin da Nvidia, que devem ser lançados no próximo ano.

Concorrência com a Nvidia

A tecnologia em escala de rack da AMD também permite que seus chips mais recentes concorram com os chips Blackwell da Nvidia, que já vêm em configurações com 72 unidades de processamento gráfico conectadas. A Nvidia é o principal e único rival da AMD em GPUs de grandes centros de dados para desenvolver e implantar aplicações de IA.

A OpenAI — um cliente notável da Nvidia — tem dado feedback à AMD sobre seu roteiro MI400, disse a empresa de chips. Com os chips MI400 e os chips MI355X deste ano, a AMD planeja competir com a Nvidia no preço, com um executivo da empresa dizendo aos repórteres na quarta-feira (11) que os chips custarão menos para operar graças ao menor consumo de energia e que a AMD está oferecendo preços “agressivos” para desbancar a Nvidia.

Até agora, a Nvidia dominou o mercado de GPUs para centros de dados, em parte porque foi a primeira empresa a desenvolver o tipo de software necessário para que desenvolvedores de IA aproveitassem chips originalmente projetados para exibir gráficos de jogos 3D. Ao longo da última década, antes do boom da IA, a AMD focou em competir contra a Intel em CPUs para servidores.

Su disse que o MI355X da AMD pode superar os chips Blackwell da Nvidia, apesar da Nvidia usar seu software “proprietário” CUDA.

“Isso mostra que temos um hardware realmente forte, o que sempre soubemos, mas também mostra que as estruturas de software abertas fizeram um progresso tremendo”, disse Su.

As ações da AMD estão estáveis até agora em 2025, sinalizando que Wall Street ainda não vê a empresa como uma grande ameaça ao domínio da Nvidia.

Leia mais:

Google Cloud e serviços de hospedagem sofrem instabilidades – ChatGPT, Shopify e outros foram afetados

Micron Technology investirá US$ 200 bilhões em indústria doméstica de chips nos EUA

Estratégia de mercado e expectativas futuras

Andrew Dieckmann, gerente geral da AMD para GPUs de centros de dados, disse na quarta-feira que os chips de IA da AMD custariam menos para operar e adquirir.

“De modo geral, existe um delta de custo de aquisição significativo que então adicionamos à nossa vantagem competitiva de desempenho, resultando em economias significativas de dois dígitos em porcentagem”, disse Dieckmann.

Nos próximos anos, grandes empresas de nuvem e países estão prestes a gastar centenas de bilhões de dólares para construir novos clusters de centros de dados em torno de GPUs para acelerar o desenvolvimento de modelos de IA de ponta. Isso inclui US$ 300 bilhões (aproximadamente R$ 1,66 trilhão, na cotação atual) apenas este ano em despesas de capital planejadas por empresas de tecnologia de grande porte.

A AMD espera que o mercado total para chips de IA ultrapasse US$ 500 bilhões (R$ 2,27 trilhões) até 2028, embora não tenha dito quanto desse mercado pode conquistar — a Nvidia detém atualmente mais de 90% do mercado, segundo estimativas de analistas.

Ambas as empresas se comprometeram a lançar novos chips de IA anualmente, em vez de bienalmente, enfatizando o quão feroz a competição se tornou e o quão importante a tecnologia de chips de IA de ponta é para empresas como Microsoft, Oracle e Amazon.

Aquisições e investimentos estratégicos

A AMD comprou ou investiu em 25 empresas de IA no ano passado, disse Su, incluindo a compra da ZT Systems no início deste ano, um fabricante de servidores que desenvolveu a tecnologia que a AMD precisava para construir seus sistemas em tamanho de rack.

“Esses sistemas de IA estão se tornando super complexos, e soluções de pilha completa são realmente críticas”, disse Su.

Atualmente, o chip de IA mais avançado da AMD sendo instalado por provedores de nuvem é o Instinct MI355X, que a empresa disse ter começado a ser enviado para produção no mês passado. A AMD afirmou que ele estará disponível para aluguel de provedores de nuvem a partir do terceiro trimestre.

Empresas que constroem grandes clusters de centros de dados para IA querem alternativas à Nvidia, não apenas para reduzir custos e oferecer flexibilidade, mas também para atender a uma crescente necessidade de “inferência”, ou seja, a potência de computação necessária para realmente implantar um chatbot ou aplicação de IA generativa, que pode usar muito mais poder de processamento do que aplicações tradicionais de servidor.

“O que realmente mudou é que a demanda por inferência cresceu significativamente”, disse Su.

Funcionários da AMD disseram na quinta-feira que acreditam que seus novos chips são superiores para inferência em comparação aos da Nvidia. Isso porque os chips da AMD são equipados com mais memória de alta velocidade, o que permite que modelos de IA maiores rodem em uma única GPU.

O MI355X tem sete vezes mais poder de computação que seu antecessor, disse a AMD. Esses chips poderão competir com os chips B100 e B200 da Nvidia, que vêm sendo enviados desde o final do ano passado.

A AMD afirmou que seus chips Instinct foram adotados por sete dos 10 maiores clientes de IA, incluindo OpenAI, Tesla, xAI e Cohere.

A Oracle planeja oferecer clusters com mais de 131 mil chips MI355X para seus clientes, disse a AMD.

Representantes da Meta disseram na quinta-feira que estavam usando clusters de CPUs e GPUs da AMD para rodar inferências para seu modelo Llama e que planejam comprar servidores de próxima geração da AMD.

Um representante da Microsoft disse que usa chips da AMD para atender seus recursos de IA Copilot.

Competindo no preço

A AMD recusou-se a dizer quanto seus chips custam — ela não vende chips sozinha, e os usuários finais geralmente os compram através de uma empresa de hardware como a Dell ou Super Micro Computer — mas a empresa está planejando que os chips MI400 compitam no preço.

A empresa de Santa Clara está combinando suas GPUs com suas CPUs e chips de rede de sua aquisição em 2022 da Pensando para construir seus racks Helios. Isso significa que uma maior adoção de seus chips de IA também deve beneficiar o restante dos negócios da AMD. Ela também está usando uma tecnologia de rede de código aberto para integrar estreitamente seus sistemas de rack, chamada UALink, em comparação com a NVLink proprietária da Nvidia.

A AMD afirma que seu MI355X pode entregar 40% mais tokens — uma medida de saída de IA — por dólar do que os chips da Nvidia, porque seus chips consomem menos energia do que os da rival.

GPUs de centros de dados podem custar dezenas de milhares de dólares por chip, e as empresas de nuvem geralmente os compram em grandes quantidades.

O negócio de chips de IA da AMD ainda é muito menor do que o da Nvidia. Ela disse que teve US$ 5 bilhões (R$ 27,75 bilhões) em vendas de IA em seu ano fiscal de 2024, mas analistas do JP Morgan esperam um crescimento de 60% na categoria este ano.

🔷 Canal 562 ClaroTV+ | Canal 562 Sky | Canal 592 Vivo | Canal 187 Oi | Operadoras regionais

🔷 TV SINAL ABERTO: parabólicas canal 562

🔷 ONLINE: www.timesbrasil.com.br | YouTube

🔷 FAST Channels: Samsung TV Plus, LG Channels, TCL Channels, Pluto TV, Roku, Soul TV, Zapping | Novos Streamings

Este conteúdo foi fornecido pela CNBC Internacional e a responsabilidade exclusiva pela tradução para o português é do Times Brasil.

Siga o Times Brasil - Licenciado Exclusivo CNBC no

MAIS EM Empresas & Negócios