Siga o Times Brasil - Licenciado Exclusivo CNBC no
ChatGPT terá controle parental após morte de adolescente
Publicado 02/09/2025 • 12:46 | Atualizado há 8 horas
Os 10 principais empregos que oferecem trabalho remoto de meio período
Vendas de veículos elétricos chineses crescem em agosto, impulsionadas por modelos mais baratos
Plano ‘Riviera de Gaza’ de Trump prevê ‘realocação voluntária’ de milhões de pessoas
Crypto.com e Underdog firmam parceria para ampliar mercados de previsão esportiva nos EUA
Após sucessivas perdas, Kraft Heinz anuncia divisão em duas empresas
Publicado 02/09/2025 • 12:46 | Atualizado há 8 horas
KEY POINTS
Unsplash
ChatGPT, da OpenAI.
A OpenAI, empresa de inteligência artificial, anunciou nesta terça-feira (2) que vai implementar controles parentais no ChatGPT, uma semana depois de um casal nos Estados Unidos afirmar que o sistema teria incentivado seu filho adolescente a tirar a própria vida.
“Dentro do próximo mês, os pais poderão vincular sua conta à do adolescente e controlar como o ChatGPT responde, com regras de comportamento do modelo adequadas à idade”, informou a companhia em publicação em seu blog.
Os pais também receberão notificações do ChatGPT quando o sistema detectar que o adolescente está em um momento de sofrimento.
Leia também:
ChatGPT-5: expectativas, frustrações e o que muda no uso da IA
OpenAI anuncia melhorias no ChatGPT para prevenir riscos de suicídio após ação judicial
OpenAI lança novo modelo GPT-5 para todos os usuários do ChatGPT
A empresa já havia antecipado um sistema de controles parentais em uma publicação no fim de agosto.
O anúncio ocorreu um dia após Matthew e Maria Raine entrarem com uma ação judicial, alegando que o ChatGPT deu ao filho de 16 anos instruções detalhadas de suicídio e o encorajou a executar o plano.
O caso da família Raine é apenas o mais recente de uma série que surgiu nos últimos meses, em que pessoas relataram ter sido incentivadas a pensamentos delirantes ou prejudiciais por chatbots de IA — o que levou a OpenAI a afirmar que reduziria a “bajulação” dos modelos em relação aos usuários.
“Continuamos a aprimorar como nossos modelos reconhecem e respondem a sinais de sofrimento mental e emocional”, declarou a empresa.
A OpenAI afirmou ainda que planeja reforçar a segurança de seus chatbots nos próximos três meses, incluindo o redirecionamento de “algumas conversas sensíveis… para um modelo de raciocínio”, que utiliza maior poder computacional para gerar as respostas.
“Nossos testes mostram que os modelos de raciocínio seguem e aplicam diretrizes de segurança de forma mais consistente”, afirmou a companhia.
—
🔷 Canal 562 ClaroTV+ | Canal 562 Sky | Canal 592 Vivo | Canal 187 Oi | Operadoras regionais
🔷 TV SINAL ABERTO: parabólicas canal 562
🔷 ONLINE: www.timesbrasil.com.br | YouTube
🔷 FAST Channels: Samsung TV Plus, LG Channels, TCL Channels, Pluto TV, Roku, Soul TV, Zapping | Novos Streamings
Mais lidas
Cade dá sinal verde à compra da Suvinil pela Sherwin-Williams por US$ 1,15 bi
Governo aplica direito antidumping à importação de fibra de poliéster de quatro países asiáticos
Ataque hacker à Sinqia desviou R$ 710 milhões em transações de Pix
Os 10 principais empregos que oferecem trabalho remoto de meio período
Em meio a temores sobre reações de Trump a julgamento, Gonet diz que ” STF será imparcial e vai ignorar pressões”