Vale do Silício prioriza produtos de IA para obter lucros, em detrimento da segurança e pesquisa da tecnologia, dizem especialistas
Publicado 14/05/2025 • 10:21 | Atualizado há 4 horas
Fabricante de ketchup Kraft Heinz investe US$ 3 bilhões para modernizar produção nos EUA
Warner Bros. Discovery anuncia que serviço de streaming voltará a se chamar HBO Max
Startup chinesa Pony.ai registra primeiro incêndio em robotáxi, sem feridos
Samsung Electronics compra fornecedora de soluções de aquecimento e resfriamento FläktGroup por 1,5 bilhão de euros
Vale do Silício prioriza produtos de IA para obter lucros, em detrimento da segurança e pesquisa da tecnologia, dizem especialistas
Publicado 14/05/2025 • 10:21 | Atualizado há 4 horas
KEY POINTS
Inteligência artificial
Reprodução Freepik
Não muito tempo atrás, o Vale do Silício era o lugar para onde os maiores especialistas em inteligência artificial do mundo iam para realizar pesquisas de ponta.
Meta, Googlee a OpenAIabriram suas carteiras para os melhores talentos, oferecendo aos pesquisadores equipe, poder computacional e bastante flexibilidade. Com o apoio de seus empregadores, os pesquisadores publicaram artigos acadêmicos de alta qualidade, compartilhando abertamente suas descobertas com colegas na academia e em empresas concorrentes.
Mas essa era acabou. Agora, dizem os especialistas, a IA gira em torno do produto.
Desde que a OpenAI lançou o ChatGPT no final de 2022, o setor de tecnologia mudou seu foco para a construção de serviços de IA prontos para o consumidor, em muitos casos priorizando a comercialização em detrimento da pesquisa, disseram pesquisadores e especialistas em IA na área à CNBC. O potencial de lucro é enorme — alguns analistas preveem US$ 1 trilhão em receita anual até 2028. As repercussões potenciais aterrorizam os setores do universo da IA preocupados com a segurança, disseram especialistas do setor, especialmente porque os principais players buscam a inteligência artificial geral, ou AGI, sendo uma tecnologia que rivaliza ou supera a inteligência humana.
Na corrida para permanecerem competitivas, as empresas de tecnologia estão tomando cada vez mais atalhos quando se trata de testes rigorosos de segurança de seus modelos de IA antes de serem lançados ao público, disseram especialistas do setor à CNBC.
James White, diretor de tecnologia da startup de segurança cibernética CalypsoAI, afirmou que os modelos mais recentes estão sacrificando a segurança em prol da qualidade, ou seja, de melhores respostas dos chatbots de IA. Isso significa que eles têm menos probabilidade de rejeitar solicitações maliciosas que poderiam levá-los a revelar maneiras de construir bombas ou informações confidenciais que hackers poderiam explorar, disse White.
“Os modelos estão melhorando, mas também é mais provável que sejam bons em coisas ruins”, disse White, cuja empresa realiza auditorias de segurança de modelos populares da Meta, Google, OpenAI e outras empresas. “É mais fácil induzi-los a fazer coisas ruins.”
As mudanças são facilmente perceptíveis na Meta e na Alphabet, que despriorizaram seus laboratórios de pesquisa em IA, dizem especialistas. Na empresa controladora do Facebook, a unidade de Pesquisa Fundamental em Inteligência Artificial, ou FAIR, foi deixada de lado pela Meta GenAI, de acordo com funcionários atuais e antigos.
E na Alphabet, o grupo de pesquisa Google Brain agora faz parte da DeepMind, a divisão que lidera o desenvolvimento de produtos de IA na empresa de tecnologia.
A CNBC conversou com mais de uma dúzia de profissionais de IA no Vale do Silício que, coletivamente, contam a história de uma mudança drástica no setor, deixando de lado a pesquisa e se voltando para produtos geradores de receita.
Alguns são ex-funcionários das empresas com conhecimento direto do que eles dizem ser a priorização do desenvolvimento de novos produtos de IA em detrimento da pesquisa e das verificações de segurança.
Eles afirmam que os funcionários enfrentam cronogramas de desenvolvimento cada vez mais rigorosos, reforçando a ideia de que não podem se dar ao luxo de ficar para trás quando se trata de lançar novos modelos e produtos no mercado. Algumas pessoas pediram para não serem identificadas porque não estavam autorizadas a falar publicamente sobre o assunto.
Quando Joelle Pineau, vice-presidente da Meta e chefe da divisão FAIR da empresa, anunciou em abril que deixaria o cargo, muitos ex-funcionários disseram não ter ficado surpresos. Eles afirmaram que encararam a decisão como uma consolidação do distanciamento da empresa da pesquisa em IA e da priorização do desenvolvimento de produtos práticos.
“Hoje, à medida que o mundo passa por mudanças significativas, à medida que a corrida pela IA acelera e a Meta se prepara para seu próximo capítulo, é hora de criar espaço para que outros continuem o trabalho”, escreveu Pineau no LinkedIn, acrescentando que deixará formalmente a empresa em 30 de maio.
Pineau começou a liderar o FAIR em 2023. A unidade foi criada uma década antes para trabalhar em problemas complexos de ciência da computação, tipicamente enfrentados pelo meio acadêmico. Yann LeCun, um dos padrinhos da IA moderna, supervisionou inicialmente o projeto e incutiu as metodologias de pesquisa que aprendeu em sua época nos pioneiros Laboratórios Bell da AT&T, de acordo com vários ex-funcionários da Meta. Pequenas equipes de pesquisa poderiam trabalhar em uma variedade de projetos de ponta que poderiam ou não dar certo.
A mudança começou quando a Meta demitiu 21.000 funcionários, ou quase um quarto de sua força de trabalho, a partir do final de 2022. O CEO Mark Zuckerberg deu início a 2023 chamando-o de ”ano da eficiência”. Os pesquisadores da FAIR, como parte das medidas de corte de custos, foram orientados a trabalhar mais de perto com as equipes de produtos, disseram vários ex-funcionários.
Dois meses antes do anúncio de Pineau, uma das diretoras da FAIR, Kim Hazelwood, deixou a empresa, segundo duas pessoas familiarizadas com o assunto. Hazelwood ajudava a supervisionar a unidade NextSys da FAIR, que gerencia recursos de computação para pesquisadores da FAIR. Sua função foi eliminada como parte do plano da Meta de cortar 5% de sua força de trabalho, disseram as pessoas.
O lançamento do ChatGPT pela OpenAI em 2022 pegou a Meta desprevenida, criando um senso de urgência para investir mais recursos em grandes modelos de linguagem, ou LLMs, que estavam cativando a indústria de tecnologia, disseram as pessoas. Unsplash.
Em 2023, a Meta começou a impulsionar fortemente sua família de modelos de IA Llama, de código aberto e disponível gratuitamente, para competir com a OpenAI, Google e outros.
Com Zuckerberg e outros executivos convencidos de que os LLMs eram tecnologias revolucionárias, a gerência tinha menos incentivo para permitir que os pesquisadores da FAIR trabalhassem em projetos mais distantes, disseram vários ex-funcionários. Isso significava despriorizar pesquisas que poderiam ser vistas como sem impacto na atividade principal da Meta, como a pesquisa anterior da FAIR relacionada à saúde sobre o uso de IA para aprimorar terapias medicamentosas.
Desde 2024, Chris Cox, diretor de produtos da Meta, supervisiona a FAIR para preencher a lacuna entre a pesquisa e o grupo GenAI, focado em produtos, disseram pessoas familiarizadas com o assunto. A unidade GenAI supervisiona a família de modelos de IA Llama e a assistente digital Meta AI, os dois pilares mais importantes da estratégia de IA da Meta.
Sob a liderança de Cox, a unidade GenAI vem desviando mais recursos computacionais e membros da equipe da FAIR devido ao seu status elevado na Meta, disseram as pessoas. Muitos pesquisadores se transferiram para a GenAI ou deixaram a empresa para lançar suas próprias startups focadas em pesquisa ou se juntar a concorrentes, disseram vários ex-funcionários.
Embora Zuckerberg tenha algum apoio interno para pressionar o grupo GenAI a desenvolver rapidamente produtos para o mundo real, alguns funcionários também se preocupam com a possibilidade de a Meta ter menos capacidade de desenvolver inovações líderes do setor que possam ser derivadas de trabalho experimental, disseram ex-funcionários. Isso deixa a Meta à mercê de seus concorrentes.
Um exemplo de destaque surgiu em janeiro, quando o laboratório chinês DeepSeek lançou seu modelo R1, pegando a Meta de surpresa. A startup alegou ter conseguido desenvolver um modelo tão capaz quanto seus equivalentes americanos, mas com treinamento por uma fração do custo.
A Meta implementou rapidamente algumas das técnicas inovadoras da DeepSeek para sua família de modelos de IA Llama 4, lançada em abril, disseram ex-funcionários. A comunidade de pesquisa em IA teve uma reação mista às versões menores do Llama 4, mas a Meta afirmou que a maior e mais poderosa variante do Llama 4 continua sendo treinada.
Em abril, a empresa também lançou ferramentas de segurança para desenvolvedores usarem na criação de aplicativos com os modelos de IA Llama 4 da Meta. Essas ferramentas ajudam a reduzir as chances de o Llama 4 vazar involuntariamente informações confidenciais ou produzir conteúdo prejudicial, afirmou a Meta.
“Nosso compromisso com a FAIR continua forte”, disse um porta-voz da Meta à CNBC. “Nossa estratégia e planos não mudarão em decorrência dos acontecimentos recentes.”
Em uma declaração à CNBC, Pineau disse que está entusiasmada com o trabalho geral de IA e a estratégia da Meta.
“Continua a haver um forte apoio à pesquisa exploratória e à FAIR como uma organização distinta em Meta”, disse Pineau. “Era simplesmente o momento certo para eu, pessoalmente, redirecionar minha energia antes de embarcar em uma nova aventura.”
Na quinta-feira, a Meta nomeou Rob Fergus, cofundador da FAIR, como substituto de Pineau. Fergus retornará à empresa para atuar como diretor na Meta e chefe da FAIR, de acordo com seu perfil no LinkedIn. Mais recentemente, ele foi diretor de pesquisa no Google DeepMind.
“O compromisso da Meta com a FAIR e a pesquisa de longo prazo permanece inabalável”, disse Fergus em uma publicação no LinkedIn. “Estamos trabalhando para construir experiências de nível humano que transformem a maneira como interagimos com a tecnologia e nos dedicamos a liderar e promover a pesquisa em IA.”
Cheng Xin | Getty Images (Reprodução CNBC Internacional)
O Google lançou seu mais recente e poderoso modelo de IA, o Gemini 2.5, em março. A empresa o descreveu como “nosso modelo de IA mais inteligente” e escreveu em uma publicação no blog em 25 de março que seus novos modelos são “capazes de raciocinar por meio de seus pensamentos antes de responder, resultando em desempenho aprimorado e precisão aprimorada”.
Durante semanas, o Gemini 2.5 ficou sem um cartão de modelo, o que significa que o Google não compartilhou informações sobre como o modelo de IA funcionava ou suas limitações e perigos potenciais após seu lançamento.
Os cartões de modelo são uma ferramenta comum para transparência de IA.
Um site do Google compara cartões modelo a rótulos nutricionais de alimentos: eles descrevem “os principais fatos sobre um modelo em um formato claro e compreensível”, diz o site.
“Ao tornar essas informações fáceis de acessar, os cartões modelo apoiam o desenvolvimento responsável de IA e a adoção de padrões robustos em todo o setor para ampla transparência e práticas de avaliação”, diz o site.
O Google escreveu em uma postagem de blog em 2 de abril que avalia seus “modelos mais avançados, como o Gemini, quanto a potenciais recursos perigosos antes de seu lançamento”. Posteriormente, o Google atualizou o blog para remover as palavras “antes de seu lançamento”.
Sem um cartão modelo para o Gemini 2.5, o público não tinha como saber quais avaliações de segurança foram conduzidas ou se o DeepMind verificou se havia recursos perigosos.
Em resposta à consulta da CNBC em 2 de abril sobre o cartão de modelo ausente do Gemini 2.5, um porta-voz do Google disse que um “relatório técnico com informações adicionais de segurança e cartões de modelo serão publicados em breve”. O Google publicou um cartão de modelo incompleto em 16 de abril e o atualizou em 28 de abril, mais de um mês após o lançamento do modelo de IA, para incluir informações sobre as “avaliações de capacidade perigosa” do Gemini 2.5.
Essas avaliações são importantes para avaliar a segurança de um modelo — se as pessoas podem usá-lo para aprender a construir armas químicas ou nucleares, ou hackear sistemas importantes. Essas verificações também determinam se um modelo é capaz de se replicar autonomamente, o que pode levar uma empresa a perder o controle sobre ele. De acordo com especialistas do setor, realizar testes para essas capacidades exige mais tempo e recursos do que simples avaliações de segurança automatizadas.
Em março, o Financial Times noticiou que o CEO da Google DeepMind, Demis Hassabis, havia implementado um processo de seleção mais rigoroso para a publicação de artigos de pesquisa internos. A repressão no Google é particularmente notável porque a tecnologia “Transformers” da empresa ganhou reconhecimento em todo o Vale do Silício por meio desse tipo de pesquisa compartilhada. Os Transformers foram essenciais para o desenvolvimento do ChatGPT pela OpenAI e para a ascensão da IA generativa.
O cofundador do Google, Sergey Brin, disse às equipes da DeepMind e da Gemini em fevereiro que a concorrência se intensificou e que “a corrida final para a IA está em andamento”, de acordo com um memorando visto pela CNBC. “Temos todos os ingredientes para vencer esta corrida, mas teremos que turbinar nossos esforços”, disse ele no memorando.
Brin disse no memorando que o Google precisa acelerar o processo de teste de modelos de IA, pois a empresa precisa de “muitas ideias que possamos testar rapidamente”.
“Precisamos de vitórias reais e escaláveis”, escreveu Brin.
Em seu memorando, Brin também escreveu que os métodos da empresa têm “o hábito de fazer pequenos ajustes e ajustes excessivos” nos produtos para avaliação e “acertar” os produtos em pontos de verificação. Ele disse que os funcionários precisam desenvolver “produtos capazes” e “confiar mais em nossos usuários”.
“Não podemos continuar criando produtos de babá”, escreveu Brin. “Nossos produtos estão inundados de filtros e truques de todos os tipos.”
Um porta-voz do Google disse à CNBC que a empresa sempre esteve comprometida em desenvolver a IA de forma responsável.
“Continuamos fazendo isso por meio do desenvolvimento e implantação seguros de nossa tecnologia e de contribuições de pesquisa para o ecossistema mais amplo”, disse o porta-voz.
O debate entre produto e pesquisa está no centro da existência da OpenAI. A empresa foi fundada como um laboratório de pesquisa sem fins lucrativos em 2015 e agora está em meio a um esforço contencioso para se transformar em uma entidade com fins lucrativos.
Essa é a direção que o cofundador e CEO Sam Altman vem buscando há anos. Em 5 de maio, porém, a OpenAI cedeu à pressão de líderes civis e ex-funcionários, anunciando que sua organização sem fins lucrativos manteria o controle da empresa mesmo durante sua reestruturação para se tornar uma corporação de utilidade pública.
Nisan Stiennon trabalhou na OpenAI de 2018 a 2020 e estava entre um grupo de ex-funcionários que pressionou a Califórnia e Delaware a não aprovarem a reestruturação da OpenAI. “A OpenAI pode um dia desenvolver uma tecnologia que pode nos matar a todos”, escreveu Stiennon em um comunicado em abril. ”É mérito da OpenAI ser controlada por uma organização sem fins lucrativos com um dever para com a humanidade.”
Mas mesmo com a organização sem fins lucrativos mantendo o controle e a participação majoritária, a OpenAI está trabalhando rapidamente para comercializar produtos à medida que a concorrência se intensifica na IA generativa. E pode ter acelerado o lançamento de seu modelo de raciocínio o1 no ano passado, de acordo com algumas partes de seu cartão de modelo.
Os resultados das “avaliações de preparação” do modelo, os testes que a OpenAI executa para avaliar as capacidades perigosas e outros riscos de um modelo de IA, foram baseados em versões anteriores do o1. Eles não foram executados na versão final do modelo, de acordo com seu cartão de modelo, que está disponível publicamente.
Johannes Heidecke, chefe de sistemas de segurança da OpenAI, disse à CNBC em uma entrevista que a empresa realizou suas avaliações de preparação em versões quase finais do modelo o1. Pequenas variações no modelo que ocorreram após esses testes não teriam contribuído para avanços significativos em sua inteligência ou raciocínio e, portanto, não exigiriam avaliações adicionais, disse ele. Ainda assim, Heidecke reconheceu que a OpenAI perdeu a oportunidade de explicar a diferença com mais clareza.
O mais novo modelo de raciocínio da OpenAI, o3, lançado em abril, parece alucinar com mais que o dobro da frequência do o1, segundo o cartão do modelo. Quando um modelo de IA alucina, ele produz falsidades ou informações ilógicas.
A OpenAI também foi criticada por supostamente reduzir o tempo de testes de segurança de meses para dias e por omitir a exigência de testar modelos ajustados de segurança em sua mais recente “Estrutura de Preparação”.
Heidecke afirmou que a OpenAI reduziu o tempo necessário para testes de segurança porque a empresa melhorou a eficácia e a eficiência dos testes. Um porta-voz da empresa afirmou que a OpenAI alocou mais infraestrutura e pessoal de IA para seus testes de segurança e aumentou os recursos para pagamento de especialistas e expansão de sua rede de testadores externos.
Em abril, a empresa enviou o GPT-4.1, um de seus novos modelos, sem um relatório de segurança, pois o modelo não foi designado pela OpenAI como um “modelo de fronteira”, sendo um termo usado pela indústria de tecnologia para se referir a um modelo de IA de ponta e em larga escala.
Mas uma dessas pequenas revisões causou uma grande onda em abril. Poucos dias após atualizar seu modelo GPT-4o, a OpenAI reverteu as alterações depois que capturas de tela com respostas excessivamente elogiosas aos usuários do ChatGPT viralizaram online. A OpenAI afirmou em uma publicação de blog explicando sua decisão que esse tipo de resposta às perguntas dos usuários “levanta preocupações de segurança — inclusive em relação a questões como saúde mental, excesso de dependência emocional ou comportamento de risco”.
A OpenAI disse na postagem do blog que optou por lançar o modelo mesmo depois que alguns testadores especialistas sinalizaram que seu comportamento” ‘parecia’ um pouco estranho”.
“No final, decidimos lançar o modelo devido aos sinais positivos dos usuários que o testaram. Infelizmente, essa foi a decisão errada”, escreveu a OpenAI. “Olhando para trás, as avaliações qualitativas estavam indicando algo importante, e deveríamos ter prestado mais atenção. Elas estavam detectando um ponto cego em nossas outras avaliações e métricas.”
A Metr, empresa com a qual a OpenAI faz parceria para testar e avaliar a segurança de seus modelos, disse em uma postagem de blog recente que teve menos tempo para testar os modelos o3 e o4-mini do que seus antecessores.
“Limitações nesta avaliação nos impedem de fazer avaliações de capacidade robustas”, escreveu Metr, acrescentando que os testes realizados foram “conduzidos em um tempo relativamente curto”.
O Metr também escreveu que não tinha acesso suficiente aos dados que seriam importantes para determinar os perigos potenciais dos dois modelos.
A empresa afirmou que não conseguiu acessar o raciocínio interno dos modelos OpenAI, que “provavelmente contém informações importantes para a interpretação dos nossos resultados”. No entanto, a Metr afirmou: “A OpenAI compartilhou informações úteis sobre alguns dos seus próprios resultados de avaliação”.
O porta-voz da OpenAI disse que a empresa está testando maneiras seguras de compartilhar cadeias de pensamento para a pesquisa da Metr, bem como para outras organizações terceirizadas.
Steven Adler, ex-pesquisador de segurança da OpenAI, disse à CNBC que testar a segurança de um modelo antes de ele ser lançado não é mais suficiente para protegê-lo contra perigos potenciais.
“Você precisa estar vigilante antes e durante o treinamento para reduzir a chance de criar um modelo muito capaz, mas desalinhado”, disse Adler.
Ele alertou que empresas como a OpenAI ficam encurraladas quando criam modelos capazes, mas desalinhados, com objetivos diferentes daqueles que pretendiam construir.
“Infelizmente, ainda não temos conhecimento científico sólido para corrigir esses modelos — apenas maneiras de encobrir o comportamento”, disse Adler.
—
📌 ONDE ASSISTIR AO MAIOR CANAL DE NEGÓCIOS DO MUNDO NO BRASIL:
🔷 Canal 562 ClaroTV+ | Canal 562 Sky | Canal 592 Vivo | Canal 187 Oi | Operadoras regionais
🔷 TV SINAL ABERTO: parabólicas canal 562
🔷 ONLINE: www.timesbrasil.com.br | YouTube
🔷 FAST Channels: Samsung TV Plus, TCL Channels, Pluto TV, Roku, Soul TV, Zapping | Novos Streamings
—
📌 ONDE ASSISTIR AO MAIOR CANAL DE NEGÓCIOS DO MUNDO NO BRASIL:
🔷 Canal 562 ClaroTV+ | Canal 562 Sky | Canal 592 Vivo | Canal 187 Oi | Operadoras regionais
🔷 TV SINAL ABERTO: parabólicas canal 562
🔷 ONLINE: www.timesbrasil.com.br | YouTube
🔷 FAST Channels: Samsung TV Plus, TCL Channels, Pluto TV, Roku, Soul TV, Zapping | Novos Streamings
Este conteúdo foi fornecido pela CNBC Internacional e a responsabilidade exclusiva pela tradução para o português é do Times Brasil.
Mais lidas
Brazilian Week: confira a programação completa desta quarta-feira (14)
Inflação de abril nos EUA ameniza temores sobre aumentos de preços relacionados a tarifas
Ibovespa B3 renova recordes e toca os 139 mil pela 1ª vez, com apetite por risco
Trump chega ao Catar na segunda etapa de sua viagem pelo Golfo
Quando preço do petróleo desce, é hora de apertar os cintos, diz presidente da Petrobras