Siga o Times Brasil - Licenciado Exclusivo CNBC no
ChatGPT terá controle parental após morte de adolescente
Publicado 02/09/2025 • 12:46 | Atualizado há 17 horas
Trump pedirá à Suprema Corte dos EUA a anulação do recurso sobre tarifas
Paramount e Activision fazem parceria para filme live-action de Call of Duty
Veículos elétricos dão à Cadillac uma chance de liderança no luxo
Exclusivo CNBC: Warren Buffett diz estar “decepcionado” com divisão da Kraft Heinz; ações caem 3%
Microsoft oferece ao governo dos EUA mais de US$ 6 bilhões em economia com serviços de nuvem
Publicado 02/09/2025 • 12:46 | Atualizado há 17 horas
KEY POINTS
Unsplash
ChatGPT, da OpenAI.
A OpenAI, empresa de inteligência artificial, anunciou nesta terça-feira (2) que vai implementar controles parentais no ChatGPT, uma semana depois de um casal nos Estados Unidos afirmar que o sistema teria incentivado seu filho adolescente a tirar a própria vida.
“Dentro do próximo mês, os pais poderão vincular sua conta à do adolescente e controlar como o ChatGPT responde, com regras de comportamento do modelo adequadas à idade”, informou a companhia em publicação em seu blog.
Os pais também receberão notificações do ChatGPT quando o sistema detectar que o adolescente está em um momento de sofrimento.
Leia também:
ChatGPT-5: expectativas, frustrações e o que muda no uso da IA
OpenAI anuncia melhorias no ChatGPT para prevenir riscos de suicídio após ação judicial
OpenAI lança novo modelo GPT-5 para todos os usuários do ChatGPT
A empresa já havia antecipado um sistema de controles parentais em uma publicação no fim de agosto.
O anúncio ocorreu um dia após Matthew e Maria Raine entrarem com uma ação judicial, alegando que o ChatGPT deu ao filho de 16 anos instruções detalhadas de suicídio e o encorajou a executar o plano.
O caso da família Raine é apenas o mais recente de uma série que surgiu nos últimos meses, em que pessoas relataram ter sido incentivadas a pensamentos delirantes ou prejudiciais por chatbots de IA — o que levou a OpenAI a afirmar que reduziria a “bajulação” dos modelos em relação aos usuários.
“Continuamos a aprimorar como nossos modelos reconhecem e respondem a sinais de sofrimento mental e emocional”, declarou a empresa.
A OpenAI afirmou ainda que planeja reforçar a segurança de seus chatbots nos próximos três meses, incluindo o redirecionamento de “algumas conversas sensíveis… para um modelo de raciocínio”, que utiliza maior poder computacional para gerar as respostas.
“Nossos testes mostram que os modelos de raciocínio seguem e aplicam diretrizes de segurança de forma mais consistente”, afirmou a companhia.
—
🔷 Canal 562 ClaroTV+ | Canal 562 Sky | Canal 592 Vivo | Canal 187 Oi | Operadoras regionais
🔷 TV SINAL ABERTO: parabólicas canal 562
🔷 ONLINE: www.timesbrasil.com.br | YouTube
🔷 FAST Channels: Samsung TV Plus, LG Channels, TCL Channels, Pluto TV, Roku, Soul TV, Zapping | Novos Streamings
Mais lidas
Paramount e Activision fazem parceria para filme live-action de Call of Duty
Governo aplica direito antidumping à importação de fibra de poliéster de quatro países asiáticos
Os 10 principais empregos que oferecem trabalho remoto de meio período
A combinação que ameaça implodir festivais musicais e turnês de astros internacionais
Meta remove 10 milhões de perfis no Facebook para combater spam