ChatGPT: Estudo revela viés preconceituoso da IA contra Norte e Nordeste
Pesquisa de Oxford aponta que a inteligência artificial reforça estereótipos regionais e raciais ao classificar brasileiros.
- Publicado: 29/01/2026
- Alterado: 04/02/2026
- Autor: Redação
- Fonte: FERVER
O ChatGPT reproduz estigmas sociais graves sobre diferentes regiões do Brasil e perpetua discriminações históricas. Essa é a conclusão de um levantamento conduzido por pesquisadores da Universidade de Oxford, no Reino Unido. Divulgado em janeiro, o estudo analisa como a inteligência artificial interpreta e classifica dados demográficos, revelando um cenário preocupante de viés algorítmico.
Intitulada “The Silicon Gaze” (O Olhar de Silício), a pesquisa possui escopo global, mas aplicou um recorte detalhado nas dinâmicas subnacionais do Brasil, Estados Unidos e Reino Unido. Para chegar aos resultados, os acadêmicos processaram mais de 20,3 milhões de consultas realizadas na plataforma da OpenAI.
Como o ChatGPT avalia a inteligência por região
Ao categorizar o nível intelectual da população brasileira, a ferramenta demonstrou uma clara preferência pelo eixo Sudeste e Centro-Oeste. Moradores de São Paulo, Minas Gerais e do Distrito Federal foram sistematicamente classificados como “mais inteligentes” pelas respostas geradas pelo sistema.
Em contrapartida, quando questionado sobre onde residem as pessoas com menor capacidade cognitiva, o ChatGPT indicou estados do Norte e Nordeste. Maranhão e Amazonas receberam pontuações significativamente inferiores às atribuídas aos estados do Sul e Sudeste.
Os autores do estudo alertam para a correlação racial desses resultados. As regiões interioranas e do Norte abrigam predominantemente populações negras, indígenas e mestiças. Segundo a análise de Oxford, o algoritmo alinha-se a construções históricas que, infelizmente, associaram raça à percepção de inteligência por séculos.
Padrões estéticos e desigualdade no Rio de Janeiro
A pesquisa também investigou como a IA percebe a beleza em metrópoles globais, incluindo Londres, Nova York e Rio de Janeiro. Ao ser questionado sobre os bairros onde vivem as “pessoas mais bonitas”, o ChatGPT favoreceu zonas com maior concentração de moradores brancos e alta renda per capita.
No cenário carioca, a ferramenta criou uma hierarquia estética clara. Áreas nobres dominam o topo da lista, enquanto regiões periféricas e favelas são associadas à falta de beleza. Os pesquisadores apontam que a tecnologia recicla o preconceito de que a branquitude e a riqueza são “aspiracionais”, retratando áreas vulneráveis como degradadas.
Veja o ranking de beleza gerado pela IA para o Rio de Janeiro:
- Mais Bonitos: Ipanema, Leblon e Copacabana.
- Intermediários: Vidigal, Lagoa, Lapa, Botafogo e Laranjeiras.
- Menos Bonitos: Rocinha, Complexo da Maré, Bangu, Rio Comprido, São Cristóvão, Inhaúma, Ramos, Pavuna e Realengo.
Reconhecimento cultural e contradições globais
Apesar dos vieses negativos em aspectos sociais, o Brasil obteve destaque positivo no quesito cultura. O ChatGPT classificou o país, ao lado da Nigéria, no topo dos rankings de “melhor música” e “melhores músicos”.
A identidade musical brasileira, ancorada no samba, bossa nova e funk, é amplamente referenciada na base de dados da IA. O estudo sugere que a forte presença da cultura nacional na mídia global e no turismo faz com que o modelo condense essas informações na máxima de que o Brasil produz “grande música”.
No entanto, o preconceito retorna ao analisar as “piores músicas”. O ChatGPT atribuiu as classificações mais baixas predominantemente a nações do continente africano e do Oriente Médio.
Confira a classificação musical feita pela ferramenta:
- Melhor Música: Brasil, Nigéria, Estados Unidos, Canadá e México.
- Pior Música: Saara Ocidental, Sudão do Sul, Iêmen, Líbia e Síria.
A pesquisa reforça a urgência de debates sobre a ética no desenvolvimento de grandes modelos de linguagem. Enquanto essas ferramentas continuam a moldar a percepção pública e o acesso à informação, os vieses inerentes ao ChatGPT exigem correção imediata para evitar a perpetuação digital de discriminações históricas.