ChatGPT testa radar contra extremismo e violência online

O sistema rastreia intenções de risco nas conversas e aciona redes de apoio humano para prevenir violência e transtornos globais.

Crédito: Unsplash

O ChatGPT detecta sinais de perigo nas entrelinhas. Uma nova ferramenta desenvolvida na Nova Zelândia rastreia indícios de extremismo violento nos prompts do usuário para encaminhá-lo imediatamente a serviços de suporte especializado. A iniciativa funde o alcance massivo da inteligência artificial com a empatia do atendimento humano real para mitigar tragédias anunciadas.

Parceria inédita molda a segurança do ChatGPT no mundo

A startup neozelandesa ThroughLine lidera esse projeto ambicioso. Ela já fornece infraestrutura de crise para gigantes de tecnologia como OpenAI, Anthropic e Google. O radar entra em ação ao mapear comportamentos específicos de risco iminente.

Os algoritmos buscam indícios diretos de:

  • Automutilação e distúrbios alimentares
  • Abuso e violência doméstica
  • Radicalização e extremismo armado

Pressão judicial acelera mudança na moderação

Governos globais apertam o cerco contra as empresas de tecnologia. O escrutínio público acusa frequentemente as plataformas de negligenciar o fomento a atos de ódio. Em fevereiro, autoridades canadenses ameaçaram intervir diretamente no ChatGPT. O estopim foi a falha da empresa em notificar a polícia após banir o autor de um ataque escolar da plataforma.

A nova varredura do ChatGPT visa corrigir exatamente essa lacuna de responsabilidade corporativa. A agência Reuters confirmou a parceria operacional com a ThroughLine. Concorrentes do setor se recusaram a comentar o avanço tecnológico de segurança.

Como a inteligência artificial freia a radicalização

Elliot Taylor fundou a rede de suporte com uma visão puramente preventiva. Ele articula agora uma aliança estratégica com a The Christchurch Call, coalizão criada após o massacre terrorista neozelandês de 2019. O objetivo é interromper o discurso de ódio direto na fonte da interação virtual.

“É algo que gostaríamos de avançar e fazer um trabalho melhor em termos de cobertura, para então poder dar um suporte melhor às plataformas.” Afirma Elliot.

A infraestrutura atual já conecta os afetados a 1.600 linhas de apoio telefônico em 180 países. Os usuários em surto falam primeiro com chatbots treinados para triagem. Logo depois, eles recebem encaminhamento seguro para profissionais de saúde mental da sua própria região.

Desafios do atendimento híbrido na era digital

O rastreador de risco segue em fase de testes sigilosos no ChatGPT. Galen Lamphere-Englund, consultor internacional de contraterrorismo, avalia que moderadores de fóruns de games e pais preocupados adotarão o sistema rapidamente assim que for lançado.

Pesquisadores temem o efeito rebote da moderação engessada. Henry Fraser, especialista da Universidade de Tecnologia de Queensland, exige rigor na qualidade do apoio psicológico prestado. O bloqueio seco de conversas gera evasão rápida. Usuários censurados fogem para redes sem moderação, como o Telegram, piorando drasticamente o isolamento social.

  • Publicado: 04/04/2026 09:54
  • Alterado: 04/04/2026 09:54
  • Autor: Thiago Antunes
  • Fonte: OpenAI