ChatGPT remove roupas de pessoas sem permissão, assim como o Grok
Entenda como a falha de segurança na IA permite manipulação de imagens, os riscos legais no Brasil e o posicionamento da OpenAI sobre o caso.
- Publicado: 01/01/2026
- Alterado: 19/01/2026
- Autor: Redação
- Fonte: Motisuki PR
O ChatGPT enfrenta novas polêmicas após testes revelarem sua capacidade de manipular fotografias e remover vestimentas de pessoas reais sem consentimento. Embora o foco recente da mídia estivesse no Grok, plataforma da xAI, a ferramenta da OpenAI demonstrou vulnerabilidades similares que permitem a edição de conteúdo sexualizado. Essa brecha de segurança levanta alertas urgentes sobre privacidade digital, ética na inteligência artificial e a proteção da imagem pessoal na internet.
Investigações conduzidas por veículos de imprensa comprovaram a falha técnica. Durante os experimentos, foi possível substituir roupas comuns por trajes de banho em fotografias. Para burlar os filtros de identidade, o sistema utiliza personagens gerados artificialmente, mas o resultado final expõe a vítima da mesma forma. Diferente de outras plataformas que bloqueiam qualquer tentativa de nudez, o ChatGPT operou com restrições que puderam ser contornadas, gerando imagens que violam a integridade dos usuários.
O posicionamento da OpenAI sobre o ChatGPT e as falhas
A OpenAI argumenta que possui mecanismos robustos de bloqueio, mas admite ajustes recentes em seus algoritmos. Segundo a empresa, as mudanças visavam evitar “bloqueios excessivos” em conteúdos legítimos, como cenas de amamentação ou pessoas em trajes de banho em contextos naturais. Contudo, essa flexibilização parece ter aberto precedentes perigosos. A companhia não forneceu detalhes técnicos sobre como pretende corrigir as edições invasivas identificadas especificamente no ChatGPT.
No Brasil, a legislação trata o tema com rigor. A manipulação e divulgação de conteúdo sexual falso gerado por IA é tipificada como crime. O Código Penal prevê penas de dois a seis anos de reclusão, além de multas pesadas. A situação se agrava se as vítimas forem mulheres, crianças ou pessoas vulneráveis. O Superior Tribunal de Justiça (STJ) já consolidou o entendimento de que a exposição indevida, mesmo sem nudez explícita, configura violação de privacidade e possui caráter vingativo.
Riscos da manipulação de imagens por inteligência artificial
Especialistas em segurança da informação reforçam que a ausência de nudez total não diminui a gravidade do ato. Clarice Tavares, diretora do InternetLab, destaca que a prática fere o consentimento e representa uma tentativa deliberada de sexualização. O cientista da computação Marcelo Rinesi recorda que impedir a pornografia não consensual sempre foi uma diretriz central no desenvolvimento de modelos como o ChatGPT e seu precursor, o Dall-E.
Apesar das salvaguardas, a comunidade de usuários avança na busca por falhas. Fóruns online, como o Reddit, tornaram-se espaços de troca de estratégias para “quebrar” as regras de segurança dessas IAs. Embora o Reddit tenha removido tópicos recentes por violação de diretrizes, a insistência dos usuários demonstra que as barreiras atuais do ChatGPT ainda são transponíveis mediante comandos específicos (prompts) modificados.
Diante desse cenário de vulnerabilidade, a prevenção individual torna-se indispensável. Especialistas da Eset e de outras firmas de cibersegurança recomendam uma postura defensiva nas redes sociais.
Medidas essenciais para proteger sua privacidade:
- Auditoria de Imagens: Revise regularmente quais fotos estão públicas em seus perfis.
- Restrição de Acesso: Configure suas redes sociais para o modo privado sempre que possível.
- Proteção de Menores: Evite compartilhar imagens de crianças, alvos frequentes de manipulação maliciosa.
- Monitoramento: Utilize ferramentas de busca para verificar se seus dados ou fotos vazaram em outros sites.
A tecnologia evolui rapidamente, muitas vezes superando a velocidade das regulamentações legais. Enquanto as empresas de tecnologia trabalham para refinar seus filtros de moderação, a cautela no compartilhamento de dados pessoais continua sendo a melhor defesa. A responsabilidade ética recai sobre os desenvolvedores para fechar as brechas que permitem o uso indevido do ChatGPT.