Siga o Times Brasil - Licenciado Exclusivo CNBC no
Sam Altman, por quem mais o conhece: “brilhante, mentiroso e não confiável”; quem vai frear o homem mais poderoso da IA?
Publicado 11/04/2026 • 19:12 | Atualizado há 8 horas
Como a Kodak está tentando reerguer seus negócios após estar à beira da falência
A xAI de Elon Musk enfrenta nova oposição após obter autorização para pouso em usina de energia
JD Vance e Scott Bessent discutem riscos da IA com CEOs de tecnologia
‘O maior e mais belo’: Trump anuncia plano de construir um Arco do Triunfo de US$ 15 milhões em Washington
Xi encontra oposição taiwanesa e analistas veem risco limitado de conflito no Estreito de Taiwan
Publicado 11/04/2026 • 19:12 | Atualizado há 8 horas
KEY POINTS
Imagem gerada por inteligência artificial com Gemini / Times Brasil | CNBC
Sam Altman, CEO da OpenAI: mais de cem pessoas ouvidas pelo New Yorker chegaram à mesma conclusão sobre ele
Há revistas que fazem jornalismo com excelência e há revistas que fazem perfis no mesmo nível. A New Yorker pertence a uma categoria à parte pois faz as duas coisas ao mesmo tempo, mas o que a distingue há um século é a capacidade de sentar à frente de alguém poderoso, ouvir com paciência, ler o que não está sendo dito e depois escrever sobre isso com uma precisão que faz o personagem reconhecer a si mesmo no espelho, mesmo que não goste do que vê. Li nesta semana um desses perfis, assinado pelos jornalistas Ronan Farrow e Andrew Marantz, sobre Sam Altman, CEO da OpenAI, e não pude deixar de trazê-lo para o nosso espaço.
Numa tarde de novembro de 2023, Altman estava em Las Vegas assistindo a uma corrida de Fórmula 1 quando recebeu o convite para uma videochamada com o conselho da empresa que ele próprio havia ajudado a fundar e ouviu uma declaração de poucas frases: ele não era mais o CEO. Nos dias seguintes, de volta à mansão de 27 milhões de dólares em San Francisco, montou o que descreveria como "uma espécie de governo no exílio", com advogados instalados num escritório ao lado do quarto, aliados se revezando por vídeo durante horas e, nas noites de insônia, o próprio Altman vagando de pijama pelos corredores. Era teatro corporativo em escala épica e o drama não terminaria com a saída dele. Terminaria com a saída de quem o havia demitido.
Menos de cinco dias depois, Altman estava de volta. Os conselheiros que o removeram perderam seus assentos, e a investigação prometida como condição de saída foi conduzida de forma tão discreta que não gerou sequer um relatório escrito. O episódio que os funcionários passaram a chamar de "o Blip", em referência ao evento dos filmes da Marvel em que personagens desaparecem e voltam a um mundo que não reconhecem mais, foi arquivado como curiosidade corporativa, e não como um alerta.
É sobre esse alerta que Farrow e Marantz escrevem depois de dezoito meses de apuração, mais de cem entrevistas e centenas de páginas de documentos internos, entre eles os memorandos que o ex-cientista-chefe Ilya Sutskever enviou em mensagens programadas para desaparecer antes da demissão.
Leia outras colunas em AI-451.
Ao reunir cerca de setenta páginas de mensagens internas e documentos de RH sobre o comportamento de Altman, a cientista-chefe usou imagens feitas com celular para registrar os materiais, aparentemente para evitar que sistemas da empresa detectassem o que estava fazendo. Os memorandos que enviou ao conselho continham uma lista de comportamentos atribuídos ao CEO. E o primeiro item era "Mentira".
O padrão, segundo Farrow e Marantz, vinha de outros tempos. Na Loopt, primeira startup de Altman, funcionários relatavam que ele exagerava até sobre coisas triviais, incluindo proclamar ser campeão de pingue-pongue e se revelar um dos piores jogadores do escritório.
Na Y Combinator, parceiros procuraram Paul Graham para se queixar de que Altman havia investido pessoalmente nas melhores empresas da incubadora. Na OpenAI, executivos descrevem versões contraditórias de acordos, promessas feitas a duas pessoas para o mesmo cargo, que só existia uma vez, e compromissos de segurança que evaporavam sob pressão comercial.
Um episódio foi particularmente revelador quando, em 2019, a OpenAI negociava um investimento de um bilhão de dólares com a Microsoft, Dario Amodei, então à frente da equipe de segurança e hoje CEO da Anthropic, havia apresentado a Altman uma lista de exigências, colocando no topo a preservação de uma cláusula que obrigava a empresa a parar de competir e começar a cooperar se outro laboratório chegasse perto de construir uma IA verdadeiramente geral antes dela. Altman concordou, mas quando o contrato foi fechado, a cláusula havia sido substituída por uma disposição dando à Microsoft poder de bloqueio. Confrontado, Altman negou que a mudança existisse. Amodei leu o trecho em voz alta e forçou outro colega a confirmá-la diretamente a ele.
A reconstituição do "Blip" é fascinante menos pelo drama do que pelo método. Altman interrompia seu gabinete de guerra todos os dias às seis da tarde para uma rodada de Negronis e dizia aos aliados que precisavam relaxar. Os registros do seu telefone, porém, mostravam mais de doze horas diárias em chamadas.
Reid Hoffman, cofundador do LinkedIn, investidor da OpenAI e conselheiro da Microsoft, passou a telefonar para várias pessoas tentando descobrir se havia alguma falta grave que justificasse a decisão do conselho. Disse aos repórteres que estava procurando desfalque, assédio sexual, qualquer coisa nessa linha, e não encontrou nada. O conselho havia comunicado apenas que Altman "não foi consistentemente franco em suas comunicações", uma frase vaga o suficiente para não explicar nada a ninguém.
O que se encontrou foi outra coisa. A Thrive, firma de venture capital prestes a fechar um investimento que avaliaria a OpenAI em 86 bilhões de dólares, suspendeu o negócio e sinalizou que só seguiria em frente se Altman voltasse. Funcionários ameaçaram sair em massa. Mensagens de texto da época mostram Altman coordenando de perto com Satya Nadella, CEO da Microsoft. Numa das conversas relatadas pelos jornalistas, Altman teria avisado à CEO interina Mira Murati que seus aliados estavam "indo com tudo" e "procurando coisas ruins" sobre quem havia se voltado contra ele. Altman diz não se lembrar do episódio.
A investigação interna que se seguiu, contratada com o respeitado escritório WilmerHale e exigida pelos conselheiros que saíram como condição para deixar seus assentos, durou meses e não produziu relatório escrito. As conclusões foram apresentadas oralmente a dois conselheiros escolhidos após conversas próximas com o próprio Altman. Em março de 2024, a OpenAI declarou que ele estava inocentado. No site da empresa, publicou cerca de oitocentas palavras reconhecendo uma "quebra de confiança". Nada mais.
O perfil não é uma acusação formal contra o fundador da OpenAI, é algo mais difícil de contestar, um retrato construído a partir das palavras de quem esteve ao lado de Altman por anos e chegou às mesmas conclusões de forma independente.
"Ele não é constrangido pela verdade", disse à New Yorker um ex-membro do conselho. "Ele reúne duas características que quase nunca aparecem na mesma pessoa. A primeira é um desejo fortíssimo de agradar, de ser querido em qualquer interação. A segunda é uma ausência quase sociopática de preocupação com as consequências de enganar alguém." A palavra "sociopático" apareceu, segundo os jornalistas, espontaneamente em mais de uma entrevista.
A comparação com Steve Jobs surgiu naturalmente no texto, já que Jobs era famoso por projetar um campo de distorção da realidade, uma confiança inabalável de que o mundo se curvaria à sua visão. Mas, anotam Farrow e Marantz com precisão cirúrgica, nem Jobs dizia a seus clientes que, se não comprassem o tocador de MP3 da Apple, todas as pessoas que amavam morreriam.
Já Altman usou linguagem apocalíptica para convencer engenheiros, investidores e governos de que a IA poderia destruir a humanidade, e que por isso mesmo ele deveria ser justamente a pessoa encarregada de construí-la. Os repórteres chamam isso de "um movimento que nenhum outro vendedor de ideias havia aperfeiçoado".
Há ainda o capítulo dos compromissos de segurança que não se sustentaram. O prometido investimento de vinte por cento do poder computacional da empresa em pesquisa de alinhamento, anunciado publicamente com pompa, acabou representando, segundo quatro pessoas que trabalharam na área, entre um e dois por cento da capacidade real, com os melhores chips direcionados a produtos comerciais. A equipe de superalinhamento foi dissolvida. Seu líder, Jan Leike, pediu demissão e escreveu publicamente que a cultura de segurança havia ficado em segundo plano diante de produtos que brilham.
O perfil de Altman não para na parte das mentiras, ele acumula episódios que, juntos, formam um retrato de alguém que aprendeu a usar o discurso do bem coletivo como instrumento de poder individual.
Lobby secreto contra regulação. Enquanto defendia regulação da IA em discursos no Congresso americano, a OpenAI atuava nos bastidores para enfraquecer iniciativas concretas na Europa e na Califórnia. O governador Gavin Newsom vetou um projeto de lei de segurança depois de ser pressionado por aliados de Altman. Candidatos favoráveis à regulação passaram a enfrentar adversários financiados por um super PAC pró-IA cujo maior doador é Greg Brockman, com 50 milhões de dólares comprometidos.
Intimidação jurídica. Quando advogados ajudaram a redigir projetos de lei de segurança no Senado da Califórnia, a OpenAI enviou intimações para a casa deles exigindo comunicações privadas. A justificativa oficial era investigar se Elon Musk financiava os críticos. Para os entrevistados, a intenção era assustar quem ousasse questionar a empresa.
Autocracias e data centers. A OpenAI planeja construir em Abu Dhabi um campus sete vezes maior que o Central Park, com consumo de energia equivalente ao da cidade de Miami. Funcionários do governo Biden acompanhavam a aproximação de Altman com governos do Golfo Pérsico com crescente desconforto.
O contrato do Pentágono. Quando o Departamento de Defesa pressionou a Anthropic a abandonar restrições éticas e ela recusou, Altman negociava com o Pentágono havia pelo menos dois dias. Num memo interno, havia escrito que a OpenAI compartilhava os mesmos limites éticos do concorrente. Na manhã seguinte, anunciou um contrato de 50 bilhões de dólares com os militares. À noite, publicou no X que as Forças Armadas passariam a usar os modelos da empresa.
A pergunta que a reportagem deixa aberta é quem deveria assumir tanto poder e responsabilidade (na linguagem da revista "quem poderia estar com o dedo no botão")? Sutskever havia dito a um colega de conselho que não achava que Altman fosse esse homem. O conselho tentou agir sobre isso e foi atropelado. Tanto os conselheiros que tentaram saíram, tanto os que ficaram foram escolhidos em conversas próximas com o próprio Altman.
Hoje a OpenAI fecha equipes de segurança, firma contratos militares e se prepara para um IPO que pode avaliá-la em um trilhão de dólares. Altman diz estar mais otimista do que nunca. Quando Farrow e Marantz perguntaram se comandar uma empresa de IA exigia um grau mais elevado de integridade, ele inicialmente relativizou, comparando a OpenAI a qualquer outro negócio de grande impacto. Depois, enviou uma declaração adicional dizendo que sim, exige, e que sente o peso dessa responsabilidade todos os dias.
Sentir o peso e carregá-lo direito são coisas diferentes. A reportagem de Farrow e Marantz existe, em seus melhores momentos, exatamente para lembrar disso.
E a maré parece não querer mudar.
O The Verge divulgou que a empresa está numa posição mais delicada do que seu valuation de US$ 852 bilhões sugere, diante da sequência de demissões na cúpula, projetos cancelados e controvérsias públicas acumuladas num intervalo curto demais para ser coincidência.
O Sora, aplicativo de geração de vídeo que seria integrado ao ChatGPT e chegou a ser apresentado como um dos produtos mais ambiciosos da empresa, foi descontinuado sem cerimônia. A parceria com a Disney terminou tão abruptamente que a empresa teria sido informada apenas trinta minutos antes do anúncio público.
Os planos de permitir conversas de conteúdo sexual com o ChatGPT também foram arquivados. A CEO de implantação de AGI, Fidji Simo, entrou de licença médica. A diretora de marketing Kate Rouch saiu para cuidar da saúde. O COO Brad Lightcap deixou o cargo para assumir "projetos especiais" reportando diretamente a Altman, o que na linguagem corporativa costuma significar uma saída em câmera lenta.
A CFO Sarah Friar manifestou preocupação de que a empresa não está pronta para abrir capital no prazo que Altman deseja, enquanto a pressão para gerar receita nunca foi tão alta. Em dezembro, Altman declarou internamente um "código vermelho" diante da concorrência ao ChatGPT.
Num podcast, quando questionado sobre como uma empresa com US$ 13 bilhões em receita poderia assumir compromissos de US$ 1,4 trilhão, respondeu interrompendo o apresentador: se você quiser vender suas ações, eu acho um comprador.
Para fechar o ciclo, a OpenAI anunciou a aquisição de um canal de notícias viral online, com a justificativa oficial de criar espaço para uma conversa mais honesta sobre inteligência artificial, numa semana em que o que menos faltou foi conversa honesta sobre a empresa.
Mais lidas
1
Sob pressão financeira na Cimed, João Adibe recusa acordo de R$ 81 mil em caso envolvendo obra de mansão de luxo
2
A xAI de Elon Musk enfrenta nova oposição após obter autorização para pouso em usina de energia
3
O que sabemos sobre o Mythos da Anthropic, modelo de IA mais poderoso do mundo que não será lançado por motivos de cibersegurança
4
Álbum de figurinhas da Copa 2026: do básico ao premium, veja quanto custa cada versão
5
Fonseca reencontra algoz na estreia em Munique e tenta dar resposta após Monte Carlo