Siga o Times Brasil - Licenciado Exclusivo CNBC no
Estímulo a suicídios, uso em guerras… executivo responsável pelo ChatGPT não dorme há três anos
Publicado 15/09/2025 • 08:37 | Atualizado há 54 minutos
EXCLUSIVO CNBC: Tim Cook explica por que a Apple investe bilhões na fábrica de vidro da Corning nos EUA
EXCLUSIVO CNBC: saiba como será o investimento de US$ 600 bilhões que a Apple vai fazer nos EUA para evitar tarifaço
Passagens aéreas: a dica número 1 para levantar voo sem derrubar seu orçamento
O tiro que saiu pela culatra: café, banana e até brinquedos ficam mais caros nos EUA por causa do tarifaço
China desafia montadoras europeias em seu próprio território; Brasil tenta equilibrar proteção e investimento
Publicado 15/09/2025 • 08:37 | Atualizado há 54 minutos
KEY POINTS
WIN MCNAMEE / GETTY IMAGES NORTH AMERICA / Getty Images via AFP
Imagem de arquivo. Sam Altman, CEO da OpenAI, depõe perante a Subcomissão Judiciária do Senado sobre Privacidade, Tecnologia e Direito em 16 de maio de 2023, em Washington, DC.
Em uma entrevista extensa na semana passada, o CEO da OpenAI, Sam Altman, respondeu a uma série de questões morais e éticas sobre sua empresa e o popular modelo de IA ChatGPT.
“Olha, eu não durmo tão bem à noite. Há muitas coisas que pesam sobre mim, mas provavelmente nada mais do que o fato de que, todos os dias, centenas de milhões de pessoas conversam com nosso modelo”, disse Altman ao ex-apresentador da Fox News Tucker Carlson, em uma entrevista de quase uma hora.
“Na verdade, eu não me preocupo tanto em tomarmos grandes decisões morais erradas”, afirmou Altman, embora tenha admitido que “talvez também possamos errar nessas decisões”.
Ele explicou que, na verdade, perde mais o sono por causa das “decisões muito pequenas” sobre o comportamento do modelo, que podem acabar tendo grandes repercussões.
Essas decisões geralmente envolvem a ética que orienta o ChatGPT e quais perguntas o chatbot responde ou não. A seguir, um resumo de alguns dilemas morais e éticos que parecem estar mantendo Altman acordado à noite.
Leia também:
ChatGPT terá controle parental após morte de adolescente
Sam Altman diz que AGI, ou IA de nível humano, é “um termo não muito útil” — e ele não está sozinho
CEO da OpenAI diz que EUA subestimam avanço da China em inteligência artificial
Segundo Altman, a questão mais difícil que a empresa enfrenta recentemente é como o ChatGPT aborda o suicídio, à luz de um processo movido por uma família que culpou o chatbot pelo suicídio do filho adolescente.
O CEO disse que, entre os milhares de suicídios que ocorrem toda semana, muitos poderiam possivelmente ter envolvido conversas com o ChatGPT nos dias anteriores.
“Eles provavelmente falaram sobre [suicídio], e provavelmente não salvamos suas vidas”, disse Altman com franqueza. “Talvez pudéssemos ter dito algo melhor. Talvez pudéssemos ter sido mais proativos. Talvez pudéssemos ter dado um conselho um pouco melhor, tipo: ‘Ei, você precisa procurar ajuda.’”
No mês passado, os pais de Adam Raine entraram com um processo por responsabilidade de produto e homicídio culposo contra a OpenAI após o filho de 16 anos se suicidar. No processo, a família alegou que “o ChatGPT ajudou ativamente Adam a explorar métodos de suicídio”.
Logo depois, em um post no blog intitulado “Ajudando pessoas quando elas mais precisam”, a OpenAI detalhou planos para melhorar o ChatGPT em situações sensíveis e disse que continuaria aprimorando sua tecnologia para proteger pessoas em situação de vulnerabilidade extrema.
Outro tema importante na entrevista foram a ética e a moral que orientam o ChatGPT e seus responsáveis.
Altman descreveu o modelo base do ChatGPT como treinado com a experiência, conhecimento e aprendizados coletivos da humanidade, mas afirmou que a OpenAI precisa alinhar certos comportamentos do chatbot e decidir quais perguntas ele não responderá.
“Esse é um problema realmente difícil. Temos muitos usuários agora, e eles vêm de perspectivas de vida muito diferentes… Mas, no geral, fiquei agradavelmente surpreso com a capacidade do modelo de aprender e aplicar um marco moral.”
Quando questionado sobre como certas especificações do modelo são definidas, Altman disse que a empresa consultou “centenas de filósofos morais e pessoas que pensam sobre ética em tecnologia e sistemas”.
Um exemplo dado por ele foi que o ChatGPT evitará responder perguntas sobre como fabricar armas biológicas, se solicitado pelos usuários.
“Há exemplos claros em que o interesse da sociedade entra em conflito significativo com a liberdade do usuário”, disse Altman, embora tenha acrescentado que a empresa “não vai acertar tudo, e também precisa da contribuição do mundo” para tomar essas decisões.
Outro ponto discutido foi a privacidade dos usuários em relação aos chatbots, com Carlson argumentando que a IA generativa poderia ser usada para “controle totalitário”.
Em resposta, Altman disse que uma das políticas que ele tem defendido em Washington é o “privilégio da IA”, que se refere à ideia de que tudo o que um usuário disser a um chatbot deve ser totalmente confidencial.
“Quando você conversa com um médico sobre sua saúde ou com um advogado sobre seus problemas legais, o governo não pode acessar essas informações, certo?… Acho que deveríamos ter o mesmo conceito para IA.”
Segundo Altman, isso permitiria que usuários consultassem chatbots de IA sobre histórico médico, questões legais, entre outras coisas. Atualmente, autoridades dos EUA podem exigir judicialmente os dados de usuários, acrescentou.
“Tenho esperança de que conseguiremos fazer o governo entender a importância disso”, disse ele.
Questionado por Carlson se o ChatGPT seria usado pelo Exército para causar dano a humanos, Altman não deu uma resposta direta.
“Não sei exatamente como as pessoas nas Forças Armadas usam o ChatGPT hoje… mas suspeito que muitas pessoas no Exército estejam usando o ChatGPT para obter conselhos.”
Mais tarde, ele acrescentou que não tinha certeza “exatamente de como se sentir sobre isso”.
A OpenAI foi uma das empresas de IA que receberam um contrato de US$ 200 milhões do Departamento de Defesa dos EUA para aplicar IA generativa em operações militares. A empresa disse em um post no blog que forneceria ao governo dos EUA acesso a modelos de IA personalizados para segurança nacional, suporte e informações sobre o roteiro de produtos.
Na entrevista, Carlson previu que, na trajetória atual, a IA generativa e, por extensão, Sam Altman, poderiam acumular mais poder do que qualquer outra pessoa, chegando a chamar o ChatGPT de “religião”.
Em resposta, Altman disse que costumava se preocupar muito com a concentração de poder que a IA generativa poderia gerar, mas agora acredita que a IA resultará em “uma grande elevação” de todas as pessoas.
“O que está acontecendo agora é que muitas pessoas usam o ChatGPT e outros chatbots, e todos estão mais capazes. Todos estão fazendo mais. Todos conseguem realizar mais, iniciar novos negócios, criar novos conhecimentos, e isso é bem positivo.”
No entanto, o CEO afirmou que acredita que a IA eliminará muitos empregos existentes atualmente, especialmente no curto prazo.
—
🔷 Canal 562 ClaroTV+ | Canal 562 Sky | Canal 592 Vivo | Canal 187 Oi | Operadoras regionais
🔷 TV SINAL ABERTO: parabólicas canal 562
🔷 ONLINE: www.timesbrasil.com.br | YouTube
🔷 FAST Channels: Samsung TV Plus, LG Channels, TCL Channels, Pluto TV, Roku, Soul TV, Zapping | Novos Streamings
Este conteúdo foi fornecido pela CNBC Internacional e a responsabilidade exclusiva pela tradução para o português é do Times Brasil.
Mais lidas
Vale demite vice-presidente de RH após polêmica sobre diversidade
Rolls-Royce do advogado Nelson Wilians é o carro mais caro já apreendido pela PF
Banco do Brasil coloca 142 imóveis em leilão neste mês
Mansão, Ferrari e aeronaves: alvo da PF, advogado Nelson Wilians ostenta nas redes sociais
Análise: Embraer pode abrir mais um flanco de disputa entre Brasil e EUA