Redes Sociais falham em alertar sobre vídeos de IA
Investigação do Washington Post revela que, de oito plataformas, só o YouTube sinalizou conteúdo falso.
- Publicado: 20/01/2026
- Alterado: 27/10/2025
- Autor: Redação
- Fonte: Farol Santander São Paulo
A popularização de ferramentas de inteligência artificial, como o Sora da OpenAI, capazes de criar vídeos e imagens ultrarrealistas, acendeu um alerta global sobre a autenticidade nas redes sociais. Embora empresas de tecnologia tenham prometido marcadores para identificar material gerado por IA e combater a desinformação, um problema enorme para as redes sociais, a aplicação prática ainda falha.
Plataformas como Facebook e TikTok anunciaram que exibiriam esses marcadores. Contudo, uma investigação recente do Washington Post testou oito das principais plataformas e descobriu uma realidade preocupante: apenas o YouTube, do Google, aplicou o aviso. Pior: a sinalização estava oculta na descrição do vídeo, exigindo que o usuário clicasse para expandi-la.
O mais alarmante é que todas as plataformas testadas falharam em manter o marcador digital (metadata) que indica a origem falsa do conteúdo. Essa falha técnica anula qualquer tentativa de verificação, tornando os vídeos manipulados por IA praticamente indistinguíveis dos autênticos.
LEIA MAIS: Anthropic busca estratégias diferentes na corrida das IAs
A Incapacidade de Distinguir o Real do Falso
Arosha Bandara, pesquisador da Open University no Reino Unido, destacou que os avanços recentes da IA tornaram o público incapaz de discernir o realismo dos conteúdos falsificados nas redes sociais. “Um sistema eficaz de rotulagem é crucial”, afirmou Bandara.
O estudo do Post utilizou um vídeo criado com o Sora. Em resposta, Christa Muldoon, porta-voz do Google, defendeu o padrão “Content Credentials” como parte da estratégia da empresa, mas admitiu que “sua adoção levará tempo” e está em desenvolvimento.
Enquanto isso, outras redes sociais gigantes, como Meta (dona do Facebook) e TikTok, além do Snapchat, não se pronunciaram sobre os resultados da investigação. Embora existam promessas de adotar o padrão Content Credentials, nenhuma garantiu sua aplicação efetiva até agora.

O Desafio do ‘Content Credentials’
Desenvolvido desde 2021 por empresas como Microsoft e Adobe, o padrão Content Credentials adiciona metadados invioláveis aos arquivos, detalhando o software e os equipamentos usados na criação. O problema é que sua adoção é um sistema voluntário. Sua eficácia depende totalmente da implementação por parte das redes sociais.
Os testes foram claros: nenhuma das redes sociais conseguiu preservar os metadados associados ao Content Credentials nos vídeos analisados.
Mesmo o Sora, da OpenAI, que declarou implementar os metadados, apresenta inconsistências. A empresa também menciona uma marca d’água transparente, mas já existem serviços disponíveis que podem facilmente removê-la, dificultando ainda mais o trabalho de policiamento das redes sociais. Versões do Sora para desenvolvedores, inclusive, não possuem nenhuma dessas travas.
Enquanto novas ferramentas permitem a criação rápida de vídeos falsos convincentes, as soluções de detecção existentes ainda são consideradas ineficazes e não foram adotadas em larga escala, deixando a preocupação com a manipulação e a desinformação mais latente do que nunca.