Eleições, IA e fake news: o que pode dar (muito) errado em 2026
A ascensão da inteligência artificial redefine as fake news e amplia riscos inéditos para o voto e a democracia em 2026
- Publicado: 15/01/2026
- Alterado: 18/08/2025
- Autor: Redação
- Fonte: Fever
As eleições de 2026 ainda estão por vir, mas já tem um barulho de fundo que preocupa — e não é de palanque. É a inteligência artificial sendo usada para fabricar mentiras bem produzidas, com jeitinho de verdade. Vídeos forjados, áudios clonados e textos personalizados demais para serem só coincidência estão circulando por aí. E tudo isso tem potencial de bagunçar a percepção do eleitor, aumentar ainda mais a polarização e colocar em xeque a transparência do processo.
O TSE, felizmente, já percebeu o tamanho do problema e agiu. Lá em fevereiro de 2024, proibiu de forma clara o uso de IA para criar ou espalhar desinformação durante o período eleitoral. A resolução deixou pouca margem para dúvidas: quem usar esse tipo de recurso para manipular o debate, está atacando diretamente o direito ao voto consciente.
Mas entre o papel e a prática, a distância ainda é grande. Um levantamento feito pelo Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP), junto com o projeto Ethics4AI e apoio do Mackenzie, analisou decisões da Justiça sobre deepfakes nas eleições municipais de 2024. E aí vem o susto: em 25% dos casos, os Tribunais Regionais Eleitorais nem reconheceram que os conteúdos manipulados com IA tinham impacto eleitoral. Em outras palavras, mesmo com regras novas, ainda tem muita gente no sistema que não sabe direito como lidar com essa nova tecnologia.
“A coisa ficou séria”, resume Victoria Luz, especialista em inteligência artificial e autora best-seller sobre o tema. “A IA colocou a desinformação em outro patamar — mais rápida, mais convincente, mais difícil de barrar. E o pior: qualquer pessoa, mesmo sem saber muito de tecnologia, já consegue criar um conteúdo falso que parece real.” Segundo ela, a ameaça não é algo do futuro. Já está aqui, no presente, rolando solta.
Quando a mentira parece verdade
A diferença entre as fake news de antes e as que estão circulando agora é gritante. Antes, uma montagem tosca ou um texto cheio de erros já acendia o sinal de alerta. Agora, é diferente. São vídeos com candidatos dizendo coisas que nunca disseram, áudios com vozes idênticas às originais e imagens criadas do zero, com realismo absurdo. Tudo isso, claro, impulsionado por robôs e automações que disparam versões diferentes da mesma mentira em segundos.
“Essas manipulações desafiam a capacidade humana de verificação em tempo real”, alerta Victoria. “A IA permite adaptar mensagens conforme o público, reforçando vieses, medos e crenças já existentes. O que se vê é um eleitor cada vez mais preso numa realidade artificial.”
O TSE, ciente disso, também tem buscado agir em outras frentes: firmou parcerias com plataformas digitais, criou mecanismos para rastrear conteúdos falsos com mais rapidez e intensificou campanhas educativas. Mas, como aponta o próprio estudo do IDP, nada disso vai funcionar de verdade se quem julga os casos — juízes, promotores, técnicos — não estiver preparado para identificar esses conteúdos.

O que já dá para perceber?
Para o cidadão comum, ainda é possível notar que algo está fora do lugar em muitos desses materiais. Alguns sinais para ficar atento:
• Vídeos com sincronia labial esquisita, iluminação que muda do nada, ou rostos que piscam menos que o normal.
• Áudios com entonação engessada, cortes mal feitos ou sem nenhum ruído ambiente.
• Textos alarmistas, sem fonte confiável, cheios de links quebrados ou imagens fora de contexto.
• Publicações que aparecem do nada e viralizam rápido, sem nenhum histórico por trás.
Mesmo assim, Victoria joga real: “Daqui a pouco, o olho humano não vai dar mais conta. Vamos ter que confiar em sistemas forenses e ferramentas especializadas para detectar manipulações.”
O que já está sendo feito (e o que ainda falta)?
Algumas soluções estão no forno. Universidades e empresas de cibersegurança vêm desenvolvendo algoritmos capazes de identificar distorções mínimas em imagens e vídeos — coisas que o olho não vê, mas a máquina detecta. Redes sociais também estão testando rótulos de aviso em conteúdos suspeitos, embora isso ainda aconteça de forma desigual e tardia.
Para Victoria, esse é um jogo de resistência. “É tipo gato e rato. Cada vez que surge uma tecnologia nova de detecção, alguém cria um jeito de burlar. Por isso, além da tecnologia, a gente precisa de regras claras, educação midiática e vigilância ativa da sociedade.”
A resolução do TSE caminha nessa direção: cobra transparência das plataformas digitais, exige que postagens eleitorais tenham rastreabilidade e dá instrumentos para remoção rápida de conteúdo falso. Mas ainda falta chão.
E a legislação, acompanha?
Hoje o país conta com o Marco Civil da Internet e com a legislação eleitoral tradicional, mas isso já está ficando velho perto dos riscos que surgem a cada novo ciclo eleitoral. O Projeto de Lei 2338/2023, que propõe diretrizes para o uso da inteligência artificial no Brasil, surge como uma tentativa de atualizar o jogo. Para a especialista, esse projeto só fará diferença se garantir:
• Regras transparentes para o uso de IA em campanhas.
• Responsabilidades claras, tanto para quem cria quanto para quem hospeda o conteúdo.
• Respostas rápidas na hora de tirar do ar o que for perigoso ou enganoso.
Além disso, ela acredita que a Justiça Eleitoral pode ir além do que já faz: fechar parcerias com plataformas, exigir que anúncios tenham origem rastreável, e investir pesado em sistemas que façam o monitoramento em tempo real do que circula por aí.

A responsabilidade também é nossa
As redes sociais são o principal palco onde essas fake news ganham força. Algumas plataformas já começaram a agir, com checagens automáticas, alertas visuais e controle maior sobre anúncios. Mas, na prática, ainda tem muito conteúdo enganoso escapando pelas brechas.
E é aí que entra o papel da sociedade. “Educação midiática não é mais luxo, é questão de sobrevivência democrática”, diz Victoria. “As pessoas precisam entender como funcionam os algoritmos, como verificar se uma informação é real e como se proteger online.”
Iniciativas como o EducaMídia e as campanhas do TSE sobre voto consciente já existem, mas ainda alcançam pouca gente.
A Justiça Eleitoral também tem apostado em campanhas educativas mais fortes, com foco em esclarecer o eleitor, combater boatos e dar espaço para agências de checagem reconhecidas — como Lupa, Aos Fatos e Agência Pública — ajudarem na filtragem daquilo que é fato e daquilo que é invenção.
IA pode jogar a favor, se usada com ética
Vale lembrar que a inteligência artificial também pode ajudar — e muito. “Ela pode agilizar a checagem de fatos, identificar comportamentos suspeitos nas redes e garantir que o conteúdo correto chegue a mais gente”, aponta Victoria. Mas, claro, isso só funciona se houver transparência, controle ético e sistemas que possam ser auditados.
Para as Eleições de 2026, ela aponta três pontos que devem ser prioridade:
• Regras firmes sobre o uso de IA nas campanhas.
• Melhoria das ferramentas que detectam manipulação digital.
• Expansão das ações educativas com apoio de escolas, empresas e poder público.
E o que você pode fazer agora?
Na prática, todo eleitor tem uma função importante: desconfiar de conteúdos muito emocionais ou radicais, evitar o compartilhamento impulsivo e sempre verificar em fontes confiáveis. Pode ser chato parar e checar, mas vale a pena. O TSE tem material oficial, e as agências de checagem estão só a um clique de distância.
A democracia não se defende sozinha. Ela precisa de um eleitor atento, informado e, acima de tudo, crítico. Em tempos de IA, essa talvez seja a habilidade mais valiosa que alguém pode ter.