Quando o algoritmo amplifica a violência

Trend ‘caso ela diga não’ evidencia como algoritmos amplificam violência e desafiam a governança das plataformas digitais

Crédito: Fernando Manfrin, especialista em Compliance, Proteção de Dados e Desenvolvimento de Negócios Internacionais (Reprodução)

Nos últimos dias, uma tendência que viralizou nas redes sociais provocou forte reação pública e mobilizou autoridades brasileiras. A chamada trendcaso ela diga não” consiste em vídeos nos quais homens simulam situações de rejeição amorosa e, diante da negativa da mulher, encenam atos de agressão física ou até morte. O conteúdo, disseminado principalmente em plataformas de vídeo curto, levou a Polícia Federal a abrir investigação por possível incitação à violência contra a mulher.

O fenômeno da trend “caso ela diga não” e sua repercussão no Brasil

Reprodução/Redes sociais

À primeira vista, muitos desses vídeos são apresentados como “humor”, encenação ou exagero típico da linguagem das redes sociais. No entanto, o fenômeno levanta uma questão jurídica e social mais profunda: qual é o limite entre liberdade de expressão e a normalização simbólica da violência em ambientes digitais amplificados por algoritmos?

No Brasil, o Marco Civil da Internet estabelece que plataformas digitais podem ser responsabilizadas caso não removam conteúdos ilícitos após ordem judicial. Entretanto, à medida que sistemas automatizados passam a desempenhar papel ativo na promoção e recomendação de conteúdos, cresce no debate internacional a percepção de que o problema não se restringe ao conteúdo em si, mas também à lógica de amplificação algorítmica que sustenta a chamada economia da atenção.

Diversos estudos já demonstraram que conteúdos violentos, polarizadores ou emocionalmente extremos tendem a gerar maior engajamento nas redes sociais. Isso cria um incentivo estrutural para que tais conteúdos circulem com maior intensidade, mesmo quando podem contribuir para a normalização simbólica de comportamentos nocivos.

No caso específico da violência de gênero, essa dinâmica torna-se particularmente preocupante. A banalização da violência contra mulheres, ainda que apresentada em formato de “humor” ou encenação, pode contribuir para reforçar padrões culturais que relativizam agressões e naturalizam comportamentos abusivos.

O papel dos algoritmos e a normalização da violência nas redes sociais

violência- redes sociais
Freepik

Por essa razão, debates recentes sobre regulação digital têm enfatizado a necessidade de uma governança algorítmica mais robusta. Em vez de tratar as plataformas apenas como intermediárias passivas, esse modelo reconhece que sistemas de recomendação e curadoria automatizada exercem influência significativa sobre o ambiente informacional e, consequentemente, sobre o impacto social dos conteúdos que circulam nas redes.

Experiências internacionais mostram que essa discussão já avançou em diversas jurisdições. Na União Europeia, por exemplo, o Digital Services Act (DSA) passou a exigir que grandes plataformas adotem medidas de mitigação de riscos sistêmicos associados ao funcionamento de seus algoritmos, incluindo riscos relacionados à violência, discurso de ódio e manipulação informacional. O regulamento também impõe obrigações de transparência sobre sistemas de recomendação e mecanismos de auditoria independente.

Nos Estados Unidos, embora o modelo regulatório seja mais fragmentado, órgãos como a Federal Trade Commission (FTC) têm ampliado o escrutínio sobre práticas algorítmicas potencialmente danosas. A discussão também ganhou força no âmbito do NIST AI Risk Management Framework, que incentiva empresas a incorporar mecanismos de gestão de risco e governança responsável no desenvolvimento e uso de sistemas de inteligência artificial.

Experiências internacionais e o potencial da IA na prevenção de conteúdos nocivos

algoritmos - IA
Freepik

Outro aspecto que merece atenção é o próprio potencial das tecnologias de Inteligência Artificial para atuar na prevenção e mitigação de conteúdos potencialmente violentos. Plataformas digitais já utilizam sistemas de análise comportamental e processamento de linguagem natural capazes de identificar padrões associados a ameaças, discurso de ódio ou incitação à violência. Quando implementadas com critérios transparentes e supervisão humana adequada, essas ferramentas podem contribuir para a detecção precoce de conteúdos problemáticos, permitindo intervenções mais rápidas de moderação e a preservação de evidências digitais que auxiliem investigações conduzidas por autoridades.

A discussão provocada pela trend “caso ela diga não” revela que o problema não está apenas nos vídeos isoladamente considerados, mas no ambiente tecnológico que permite que determinados tipos de conteúdo ganhem escala e visibilidade em poucos minutos.

À medida que as redes sociais se consolidam como infraestrutura central do debate público, torna-se cada vez mais necessário discutir não apenas o que é publicado nas plataformas, mas também como seus sistemas de recomendação operam e quais responsabilidades devem acompanhar o poder tecnológico que essas empresas exercem sobre a circulação da informação.

Fernando Manfrin

Fernando Manfrin – Divulgação

Fernando Manfrin, advogado especialista em compliance e data privacy.

  • Publicado: 27/03/2026 15:45
  • Alterado: 27/03/2026 15:45
  • Autor: Redação
  • Fonte: Fernando Manfrin