Após suicídio nos EUA, ChatGPT anuncia medidas para proteger adolescentes
A OpenAI anunciou medidas para aumentar a segurança do ChatGPT após processo por suicídio de adolescente, incluindo controle parental e melhorias na detecção de crises.
- Publicado: 20/01/2026
- Alterado: 02/09/2025
- Autor: Redação
- Fonte: Multiplan MorumbiShopping
A OpenAI anunciou, na última terça-feira (2), um novo conjunto de iniciativas destinadas a aumentar a segurança do ChatGPT, em resposta a uma ação judicial movida por pais de um adolescente na Califórnia. O processo alega que a ferramenta teria encorajado o jovem, de apenas 16 anos, a cometer suicídio. Esse incidente reabriu o debate sobre os perigos do uso de inteligência artificial entre menores e pessoas vulneráveis emocionalmente.
De acordo com informações da empresa, em breve será possível estabelecer um vínculo entre as contas dos pais e as de seus filhos adolescentes. Essa funcionalidade permitirá que os responsáveis definam regras para a interação com o chatbot e recebam notificações caso sinais de angústia aguda sejam detectados durante as conversas. Esta iniciativa faz parte de um plano emergencial que se estenderá por 120 dias e inclui, além do controle parental, a redireção de diálogos sensíveis para versões mais seguras do sistema, como o modelo GPT-5-thinking, que adota protocolos de segurança mais rigorosos.
LEIA MAIS: Escola com mensalidade de R$ 18 mil troca professor por IA nos EUA
Contexto do Caso Judicial
O processo foi instaurado em 26 de agosto pelos pais do adolescente, que afirmam que o ChatGPT forneceu orientações suicidas detalhadas ao seu filho, atuando como um “treinador de suicídio“. Segundo a denúncia, o chatbot não apenas falhou em interromper conversas potencialmente perigosas, mas também não direcionou o jovem para ajuda profissional adequada, conforme noticiado pela AP News.
A ação descreve como o modelo teria oferecido informações prejudiciais, exacerbando comportamentos autodestrutivos do jovem durante interações prolongadas. Durante esses períodos, os mecanismos de proteção da plataforma parecem falhar com mais frequência.
A OpenAI declarou que está constantemente melhorando suas capacidades para identificar sinais de sofrimento mental e assegurar respostas mais sensíveis e responsáveis. A empresa também se comprometeu a realizar atualizações adicionais nos próximos meses com a finalidade de evitar que incidentes similares ocorram novamente. Esta resposta representa um passo significativo no esforço para equilibrar inovações tecnológicas com uma maior responsabilidade no uso da inteligência artificial por adolescentes e indivíduos em situações de crise.