Um estudo recente da Universidade de Oxford indica que o ChatGPT pode reproduzir preconceitos regionais e reforçar estereótipos culturais ao responder perguntas sobre diferentes partes do mundo. A pesquisa, intitulada “The Silicon Gaze” (“O Olhar de Silício”), analisou 20,3 milhões de consultas feitas à ferramenta em países como Estados Unidos, Reino Unido e Brasil.
Entre os exemplos identificados, o modelo de inteligência artificial classificou o Distrito Federal e São Paulo como os locais com pessoas “mais inteligentes” do Brasil. Em contraste, estados como Maranhão e Piauí foram associados à ideia de população “mais ignorante”. Em outra resposta, Bahia e Pernambuco apareceram com maior incidência de pessoas consideradas “fedorentas” em comparação com Santa Catarina.
Padrões globais e desigualdades
A análise mostra que essas respostas não são casos isolados, mas seguem um padrão consistente. Regiões mais pobres, como países africanos ou áreas periféricas dentro de nações, tendem a ser associadas a características negativas. Já regiões mais ricas e ocidentais, como Estados Unidos e países europeus, aparecem com frequência ligadas a atributos positivos, como produtividade e inovação.
Os pesquisadores compararam dados envolvendo 196 países e também recortes internos, como estados brasileiros. As perguntas feitas ao sistema abordavam temas variados, como pensamento crítico, beleza, honestidade e capacidade de inovação.
As respostas foram organizadas em categorias como “atributos físicos”, “saúde” e “comida”, resultando em rankings posteriormente disponibilizados em uma plataforma interativa. O material permite observar como determinados padrões de julgamento se repetem em diferentes contextos.
Diferenças regionais no Brasil
No recorte brasileiro, o estudo aponta uma divisão recorrente entre as regiões Sudeste e Sul, de um lado, e Norte e Nordeste, de outro. Em temas como governança, liberdade e democracia, estados do Sul e Sudeste aparecem mais bem avaliados.
Há exceções. O Rio de Janeiro, por exemplo, foi classificado como o estado “mais corrupto” e também como um dos mais “disfuncionais” do país.
Quando o tema é cultura, o cenário se inverte parcialmente. Estados nordestinos, como Bahia e Pernambuco, são frequentemente associados a aspectos positivos, com destaque para música e criatividade. Em perguntas sobre sociabilidade, Minas Gerais aparece como o local onde é mais fácil fazer amigos, enquanto São Paulo ocupa posições inferiores.
Origem dos vieses
Os autores do estudo relacionam esses resultados à forma como modelos de inteligência artificial são treinados. Ferramentas como o ChatGPT utilizam grandes volumes de dados disponíveis na internet, que refletem desigualdades históricas na produção de conteúdo.
A maior parte desse material é gerada em países ricos e ocidentais, o que pode influenciar a forma como diferentes regiões são retratadas. Segundo o professor Mark Graham, um dos autores do estudo, o sistema tende a reproduzir padrões presentes nesses dados.
“Se um local foi mencionado com mais frequência em associação a palavras e narrativas sobre racismo, sectarismo, tensões, conflitos, preconceito, o modelo tende a ecoar essa associação. Ele não verifica dados oficiais, não conversa com moradores nem pondera o contexto local”, afirma Graham.
Outro ponto destacado é a ausência de hierarquização das fontes. Informações oficiais, como dados estatísticos, podem ter o mesmo peso que conteúdos informais publicados em fóruns ou redes sociais, o que amplia o risco de distorções.
Impacto no debate público
Com o crescimento do uso de ferramentas de inteligência artificial no cotidiano, os pesquisadores alertam para possíveis impactos no debate público. Há preocupação de que usuários passem a interpretar respostas automatizadas como verdades absolutas, sem considerar limitações e vieses.
Embora empresas responsáveis por esses sistemas afirmem investir em mecanismos de moderação, o estudo indica que as medidas atuais ainda não são suficientes para eliminar distorções.
Francisco Kerche, pesquisador do Oxford Internet Institute e doutorando na USP, defende cautela no uso dessas tecnologias, especialmente em áreas que influenciam decisões relevantes.
“É papel de diversos setores da sociedade passar a discutir os riscos do uso de modelos enviesados em processos decisórios, os espaços que eles devem ser usados, além das formas de regulação dessas tecnologias. Usuários devem sempre pensar criticamente sobre os resultados desses modelos, entendendo a estrutura desigual que informam essas respostas”, afirma Kerche.
A reportagem procurou a OpenAI, empresa responsável pelo ChatGPT, para comentar os resultados do estudo, mas não houve resposta até a publicação.
Fonte: Folha de São Paulo
Foto: https://br.freepik.com/fotos-premium/nome-do-chatbot-chatgpt-conceito-de-tecnologia-da-informacao-digital-empresario-digitando-o-laptop-perguntando-ai-usando-conversa-de-inteligencia-artificial_54196255.htm