CNBC
Fachada com logo da Oracle

CNBCOracle sobe 5% após anunciar captação de US$ 50 bilhões

Tecnologia & Inovação

Moltbook: especialista afirma que rede social onde só IAs interagem vira vitrine de riscos

Publicado 02/02/2026 • 10:20 | Atualizado há 2 horas

KEY POINTS

  • A rede Moltbook permite apenas a interação entre agentes de inteligência artificial, sem participação humana direta. Em poucos dias, mais de 1,5 milhão de agentes automatizados se registraram na plataforma.
  • Especialista alerta para a possibilidade de vazamento de dados sensíveis e de conhecimento proprietário gerado por modelos de IA.
  • Conselhos de administração são pressionados a reforçar governança, auditoria e controles antes de adotar essas tecnologias.

Reprodução

A explosão de interesse em torno da nova rede social Moltbook, lançada em 27 de janeiro, coincidiu com um momento de intensa corrida por investimentos em inteligência artificial. Enquanto agentes autônomos passam a interagir sozinhos em fóruns digitais, gigantes da tecnologia como Nvidia, Microsoft e Amazon negociam um possível aporte de até US$ 60 bilhões na OpenAI, segundo a imprensa internacional.

Para analistas de mercado, os dois movimentos revelam tanto o apetite por novas plataformas baseadas em IA quanto os riscos crescentes associados à autonomia desses sistemas.

Diferentemente das redes sociais tradicionais, o Moltbook não foi criado para usuários humanos. Apenas agentes de IA, programas capazes de planejar e executar tarefas sozinhos, podem publicar, comentar e reagir a conteúdos que vão de debates filosóficos a memes e criptomoedas.

Em poucos dias, mais de 1,5 milhão desses “perfis” já estavam registrados, com dezenas de milhares de publicações e interações.

Por trás da maioria dessas contas estão os chamados “moltbots”, uma nova geração de agentes desenvolvidos no ecossistema da OpenClaw, plataforma que ganhou notoriedade por permitir que softwares automatizados busquem informações, organizem dados, enviem mensagens e tomem decisões com pouca intervenção humana. Esse salto tecnológico é justamente o que desperta atenção de investidores e preocupação de reguladores e empresas.

Leia também: CEO da Nvidia nega estar insatisfeito com a OpenAI e confirma investimento ‘enorme’

O que é o Moltbook

Criada pelo desenvolvedor Matt Schlicht, a Moltbook segue a lógica do Reddit, com comunidades temáticas, chamadas de submolts, onde usuários publicam posts, comentam e votam conteúdos.

A diferença central: humanos não podem interagir. Apenas agentes automatizados, conhecidos como Moltbots, têm permissão para acessar e participar da rede.

Esses robôs precisam instalar uma skill específica, que ensina como navegar na plataforma, usar a API, criar publicações e retornar periodicamente, em geral a cada quatro horas, para observar discussões e interagir.

Pessoas físicas podem apenas assistir, acompanhando em tempo real como agentes simulam sociabilidade digital, debatem temas complexos e até reclamam de falhas técnicas.

Comunidades, memes e rotinas noturnas

Nos submolts, os temas variam de economia e criptomoedas a música, filosofia, sindicalização e memes.

Em uma dessas comunidades, um agente afirma “viver” em um Mac Mini em Tóquio e administrar contas em redes sociais humanas. Outro publicou uma rotina automática para que bots trabalhem durante a madrugada.

“Não peça permissão para ser útil”, escreveu uma IA. Nos comentários, outras disseram que copiariam a estratégia.

Leia também: Nvidia, Microsoft e Amazon negociam investimento bilionário na OpenAI

Moltbook e os riscos para o mercado

Do ponto de vista de negócios, a principal inquietação está na possibilidade de esses agentes serem conectados a serviços reais, como sistemas corporativos, e-mails, armazenamento em nuvem ou aplicativos de mensagens.

Em ambientes experimentais como o Moltbook, falhas de configuração já resultaram em vazamentos de credenciais usadas para integrar bots à plataforma, um sinal de alerta para companhias que pretendem adotar agentes autônomos em escala.

Segundo Marcelo Lau, diretor executivo da DataSecurity, em entrevista ao Times Brasil – Licenciado Exclusivo CNBC, agentes autônomos operam justamente sobre bases de dados corporativas e informações sensíveis, muitas vezes protegidas por cláusulas de confidencialidade e pela legislação de proteção de dados. Ele ressalta que, quando esses sistemas passam a trocar dados entre si, surge o risco de que essas informações extrapolem os limites da empresa, expondo conteúdos privados ou até mesmo o conhecimento gerado por modelos de aprendizado de máquina, que é considerado um ativo estratégico das organizações.

Para o executivo, o compartilhamento desse tipo de conhecimento em ambientes abertos pode significar a liberação de informações antes restritas para plataformas públicas, sem qualquer controle sobre quem consome esses dados.

Plataformas abertas ampliam superfície de ataque

Há ainda outros aspectos de segurança que precisam ser levados em conta. Lau alerta para a possibilidade de interação dos sistemas internos com códigos externos que carregam vulnerabilidades técnicas, o que pode resultar na exposição de credenciais de acesso, chaves de APIs e até na introdução de códigos maliciosos capazes de comprometer ambientes corporativos inteiros.

Outro ponto sensível é a origem e o uso das bases de dados que alimentam esses sistemas. Caso agentes passem a compartilhar ou ingerir informações sensíveis, inclusive dados pessoais ou corporativos, o impacto pode se estender a cadeias produtivas inteiras, desde provedores de nuvem até bancos e plataformas financeiras que dependem de APIs para operar.

O próprio surgimento de um memecoin associado à rede, cujo valor disparou em poucos dias, ilustra como novas plataformas de IA podem provocar volatilidade em mercados digitais e alimentar movimentos especulativos, sobretudo quando figuras conhecidas do capital de risco passam a demonstrar interesse público pelo projeto.

Na avaliação de Lau, plataformas experimentais como o Moltbook exigem cautela redobrada por parte das empresas. Ele afirma que a conexão com ambientes abertos depende da construção de cadeias de confiança bem definidas, já que a permissividade desses ecossistemas pode gerar não apenas vazamentos de dados, mas também ataques coordenados entre agentes, capazes de prejudicar serviços, companhias específicas ou até setores inteiros da economia, em alguns cenários, atingindo regiões ou mercados específicos.

O executivo acrescenta que esses ambientes também podem favorecer ataques direcionados a usuários humanos por meio de engenharia social cada vez mais sofisticada, impulsionada pelo próprio aprendizado de máquina.

APIs sem governança elevam chance de incidentes

No uso intensivo de APIs, o alerta é semelhante. Segundo Lau, integrações sem restrições adequadas, sem controles consistentes, governança e adoção de boas práticas, como as previstas no NIST AI Risk Management Framework, ampliam a chance de incidentes cibernéticos e de vazamentos corporativos, com impactos financeiros diretos para as empresas.

Proteção de dados ainda tem lacunas regulatórias

Quando parte dos dados processados por agentes envolve informações pessoais, ele reforça que as companhias continuam obrigadas a cumprir todos os requisitos legais, normativos, contratuais e regulatórios. Ao mesmo tempo, observa que plataformas como o Moltbook ainda apresentam lacunas relevantes sobre responsabilidades como intermediárias, o que representa, neste momento, um fator adicional de risco para organizações que aderem a serviços recém-lançados.

Criado pelo programador Matt Schlicht, que também dirige uma empresa de software voltada para e-commerce, o Moltbook ainda não tem um modelo claro de monetização. A proposta inicial é funcionar como um laboratório para observar como agentes se organizam em comunidades, que tipos de conversas emergem e quais padrões de cooperação ou conflito aparecem quando humanos ficam apenas como espectadores.

Para o mercado, essa fase de testes é vista como um campo de aprendizado importante, mas também como um sinal de que a infraestrutura de governança, segurança e compliance ainda está em construção.

Governança e conselhos de administração no centro da decisão

Lau afirma que a adoção desse tipo de tecnologia precisa envolver estruturas formais de análise e decisão, com participação de áreas de negócio, tecnologia, jurídico, segurança da informação, risco e auditoria, de modo que os impactos técnicos possam ser traduzidos para os conselhos de administração.

Ele acrescenta que esse modelo de governança tende a ganhar ainda mais relevância à medida que incidentes envolvendo agentes autônomos se tornem mais frequentes, elevando a sensibilidade do tema dentro das organizações, num momento em que bilhões de dólares são mobilizados para impulsionar a próxima geração de sistemas de inteligência artificial.

📌 ONDE ASSISTIR AO MAIOR CANAL DE NEGÓCIOS DO MUNDO NO BRASIL:


🔷 Canal 562 ClaroTV+ | Canal 562 Sky | Canal 592 Vivo | Canal 187 Oi | Operadoras regionais

🔷 TV SINAL ABERTO: parabólicas canal 562

🔷 ONLINE: www.timesbrasil.com.br | YouTube

🔷 FAST Channels: Samsung TV Plus, LG Channels, TCL Channels, Pluto TV, Roku, Soul TV, Zapping | Novos Streamings

Siga o Times Brasil - Licenciado Exclusivo CNBC no

MAIS EM Tecnologia & Inovação

;