Chatbot contra desinformação da USP vence desafio global de IA
Criado na USP, o projeto usa IA no WhatsApp para verificar fatos e será apresentado em Harvard e MIT após vencer o programa AI4Good.
- Publicado: 20/01/2026
- Alterado: 15/02/2026
- Autor: Redação
- Fonte: MIS Experience
Um Chatbot contra desinformação inovador, desenvolvido por estudantes da Universidade de São Paulo (USP), acaba de ganhar projeção internacional. A ferramenta, criada no Instituto de Ciências Matemáticas e de Computação (ICMC) em São Carlos, venceu o desafio AI4Good e garantiu presença na prestigiada Brazil Conference. O evento reúne lideranças em março, nos Estados Unidos.
Com o horizonte político de 2026 se aproximando, a preocupação com a integridade dos fatos cresce. Cauê Paiva Lira, Luiz Felipe Diniz Costa e Pedro Henrique Ferreira Silva, alunos de Ciência da Computação, responderam a essa demanda urgente. Eles desenvolveram o “Tá certo isso AI?“, um sistema robusto que utiliza inteligência artificial multimodal para analisar áudio, vídeo, texto e imagens diretamente no aplicativo de mensagens mais popular do país.
A solução funciona como um Chatbot contra desinformação acessível, permitindo que qualquer cidadão verifique a veracidade de conteúdos suspeitos. A vitória no programa garantiu ao trio a apresentação do projeto na 12ª edição da Brazil Conference, que ocorre entre 27 e 29 de março nos campi de Harvard e do MIT.
Como funciona o Chatbot contra desinformação no WhatsApp
A acessibilidade é o pilar central deste projeto. O usuário não precisa instalar aplicativos desconhecidos ou navegar por sites complexos. Toda a interação ocorre no ambiente familiar do WhatsApp, o que democratiza o acesso à checagem de fatos.
O Chatbot contra desinformação opera de duas maneiras distintas:
- No chat privado: Basta adicionar o número (35) 8424-8271 ou acessar o link direto do projeto. Ao encaminhar textos, áudios ou imagens suspeitas, a IA processa o conteúdo e retorna uma análise detalhada sobre a veracidade, citando as fontes utilizadas.
- Em grupos: O bot pode ser inserido em conversas coletivas. Ao identificar uma mensagem duvidosa, qualquer participante marca o bot (@) na resposta. A verificação aparece para todos os integrantes, combatendo a viralização de mentiras em tempo real.
Tecnologia de curadoria e confiança
Diferente de IAs generativas comuns que buscam dados em toda a web aberta, esta ferramenta prioriza a precisão. O grupo implementou uma curadoria rigorosa de fontes. O sistema consulta apenas bases confiáveis, como sites institucionais, veículos de jornalismo profissional e agências de fact-checking.
Luiz Felipe Costa destaca que o bot não aceita qualquer fonte. Ele filtra bases com histórico de confiabilidade, reduzindo drasticamente o risco de “alucinações” da IA e elevando a qualidade da resposta entregue ao usuário deste Chatbot contra desinformação.
Do Hackathon à aceleração internacional
O projeto nasceu durante o hackathon 2025 da Rede de Avanço em Inteligência Artificial (Raia) da USP. O desafio era criar soluções para mitigar o impacto das fake news em apenas 10 horas. Após vencerem a etapa inicial, os estudantes entraram no radar do AI4Good.
Durante seis semanas de aceleração, a equipe refinou a arquitetura do sistema. O salto de qualidade veio com a criação de uma plataforma de analytics. O protótipo inicial provava apenas o conceito, mas a mentoria permitiu transformar a ideia em um Chatbot contra desinformação escalável e tecnicamente maduro.
“O tempo de desenvolvimento no hackathon era muito curto, então a gente precisava provar a ideia, não a robustez do sistema, fator que foi aprimorado durante a aceleração”, explica Pedro Silva.
Monitoramento de tendências e impacto social
Um dos grandes diferenciais da ferramenta é sua capacidade de iluminar a “caixa preta” do compartilhamento de mensagens. O sistema alimenta um painel público que monitora tendências e temas recorrentes de boatos.
Isso permite que jornalistas e pesquisadores entendam, em tempo real, quais mentiras estão viralizando. Cauê Lira ressalta que a plataforma de analytics é vital para entender o cenário da desinformação na rede, oferecendo dados que antes eram inacessíveis.
A viagem para os EUA representa mais que uma premiação; é uma oportunidade de networking e parcerias. Os estudantes buscam colaborações com órgãos governamentais e veículos de mídia para garantir a sustentabilidade do projeto. A validação em Harvard e no MIT posiciona a ferramenta como uma solução séria para o problema global das fake news.
O sucesso do trio demonstra como a academia brasileira pode liderar a criação de tecnologias sociais. Ao simplificar a checagem de fatos, eles entregam à sociedade um poderoso Chatbot contra desinformação.