ChatGPT: Estudo revela viés preconceituoso da IA contra Norte e Nordeste

Pesquisa de Oxford aponta que a inteligência artificial reforça estereótipos regionais e raciais ao classificar brasileiros.

Crédito: Unsplash

O ChatGPT reproduz estigmas sociais graves sobre diferentes regiões do Brasil e perpetua discriminações históricas. Essa é a conclusão de um levantamento conduzido por pesquisadores da Universidade de Oxford, no Reino Unido. Divulgado em janeiro, o estudo analisa como a inteligência artificial interpreta e classifica dados demográficos, revelando um cenário preocupante de viés algorítmico.

Intitulada “The Silicon Gaze” (O Olhar de Silício), a pesquisa possui escopo global, mas aplicou um recorte detalhado nas dinâmicas subnacionais do Brasil, Estados Unidos e Reino Unido. Para chegar aos resultados, os acadêmicos processaram mais de 20,3 milhões de consultas realizadas na plataforma da OpenAI.

Como o ChatGPT avalia a inteligência por região

Ao categorizar o nível intelectual da população brasileira, a ferramenta demonstrou uma clara preferência pelo eixo Sudeste e Centro-Oeste. Moradores de São Paulo, Minas Gerais e do Distrito Federal foram sistematicamente classificados como “mais inteligentes” pelas respostas geradas pelo sistema.

Em contrapartida, quando questionado sobre onde residem as pessoas com menor capacidade cognitiva, o ChatGPT indicou estados do Norte e Nordeste. Maranhão e Amazonas receberam pontuações significativamente inferiores às atribuídas aos estados do Sul e Sudeste.

Os autores do estudo alertam para a correlação racial desses resultados. As regiões interioranas e do Norte abrigam predominantemente populações negras, indígenas e mestiças. Segundo a análise de Oxford, o algoritmo alinha-se a construções históricas que, infelizmente, associaram raça à percepção de inteligência por séculos.

Padrões estéticos e desigualdade no Rio de Janeiro

A pesquisa também investigou como a IA percebe a beleza em metrópoles globais, incluindo Londres, Nova York e Rio de Janeiro. Ao ser questionado sobre os bairros onde vivem as “pessoas mais bonitas”, o ChatGPT favoreceu zonas com maior concentração de moradores brancos e alta renda per capita.

No cenário carioca, a ferramenta criou uma hierarquia estética clara. Áreas nobres dominam o topo da lista, enquanto regiões periféricas e favelas são associadas à falta de beleza. Os pesquisadores apontam que a tecnologia recicla o preconceito de que a branquitude e a riqueza são “aspiracionais”, retratando áreas vulneráveis como degradadas.

Veja o ranking de beleza gerado pela IA para o Rio de Janeiro:

  • Mais Bonitos: Ipanema, Leblon e Copacabana.
  • Intermediários: Vidigal, Lagoa, Lapa, Botafogo e Laranjeiras.
  • Menos Bonitos: Rocinha, Complexo da Maré, Bangu, Rio Comprido, São Cristóvão, Inhaúma, Ramos, Pavuna e Realengo.

Reconhecimento cultural e contradições globais

Apesar dos vieses negativos em aspectos sociais, o Brasil obteve destaque positivo no quesito cultura. O ChatGPT classificou o país, ao lado da Nigéria, no topo dos rankings de “melhor música” e “melhores músicos”.

A identidade musical brasileira, ancorada no samba, bossa nova e funk, é amplamente referenciada na base de dados da IA. O estudo sugere que a forte presença da cultura nacional na mídia global e no turismo faz com que o modelo condense essas informações na máxima de que o Brasil produz “grande música”.

No entanto, o preconceito retorna ao analisar as “piores músicas”. O ChatGPT atribuiu as classificações mais baixas predominantemente a nações do continente africano e do Oriente Médio.

Confira a classificação musical feita pela ferramenta:

  • Melhor Música: Brasil, Nigéria, Estados Unidos, Canadá e México.
  • Pior Música: Saara Ocidental, Sudão do Sul, Iêmen, Líbia e Síria.

A pesquisa reforça a urgência de debates sobre a ética no desenvolvimento de grandes modelos de linguagem. Enquanto essas ferramentas continuam a moldar a percepção pública e o acesso à informação, os vieses inerentes ao ChatGPT exigem correção imediata para evitar a perpetuação digital de discriminações históricas.

  • Publicado: 29/01/2026
  • Alterado: 29/01/2026
  • Autor: 04/02/2026
  • Fonte: FERVER