{"@context":"https://schema.org","@type":"Article","headline":"Moral da IA: ChatGPT Não Entende Culturas Não-Ocidentais?","description":"Pesquisa na PNAS testou ChatGPT, Gemini e LLaMA com 90.802 pessoas em 48 países e revelou um viés sistemático nos valores morais das IAs.","author":{"@type":"Organization","name":"Epicentro do Conhecimento"},"publisher":{"@type":"Organization","name":"Epicentro do Conhecimento","url":"https://epicentrodoconhecimento.com"},"datePublished":"2026-05-11","mainEntityOfPage":"https://epicentrodoconhecimento.com/inteligencia-artificial-vieses-morais-culturais/"}

Menu

Veja mais

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

Veja mais

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

Moral da IA: ChatGPT Não Entende Culturas Não-Ocidentais?

Moral da IA: ChatGPT Não Entende Culturas Não-Ocidentais?
Moral da IA: ChatGPT Não Entende Culturas Não-Ocidentais?
Índice

Quando você pergunta ao ChatGPT o que as pessoas de um determinado país acreditam ser certo ou errado, a resposta que recebe provavelmente está errada — e o erro é sistemático, não aleatório. Uma pesquisa publicada nos Proceedings of the National Academy of Sciences (PNAS) revelou que os grandes modelos de linguagem distorcem os valores morais de populações não-ocidentais de forma consistente, superestimando os valores de nações ocidentais e subestimando os de países do Sul Global.

O achado importa porque pesquisadores começaram a usar essas IAs para simular participantes humanos em estudos de ciências sociais — uma prática que, segundo este estudo, pode estar reproduzindo e amplificando estereótipos culturais em escala.

Como o Estudo Foi Feito

A pesquisa, liderada por Mohammad Atari, professor de psicologia e neurociências da Universidade de Massachusetts Amherst, comparou as estimativas geradas por IAs com dados reais de pesquisas humanas. Os dados humanos vieram de 90.802 participantes em 48 países diferentes, que responderam a um questionário baseado na Teoria das Fundações Morais — um framework amplamente usado em psicologia que mede seis dimensões centrais da moralidade:

  • Cuidado — compaixão e proteção dos vulneráveis
  • Igualdade — equanimidade e justiça
  • Proporcionalidade — mérito e recompensas justas
  • Lealdade — solidariedade ao grupo
  • Autoridade — respeito às tradições e lideranças
  • Pureza — santidade e aversão à degradação

Os pesquisadores então pediram para versões do ChatGPT (GPT-3.5, GPT-4 e GPT-4o), do LLaMA (Meta) e do Gemini Pro (Google) estimarem como a pessoa média de cada um dos 48 países responderia às mesmas perguntas. Para garantir consistência, cada pergunta foi repetida dez vezes, gerando 103.680 respostas de IA no total.

O Que as IAs Erraram

Os resultados foram claros: as IAs consistentemente superestimaram os valores morais de países ocidentais como Estados Unidos, Canadá e Austrália, enquanto subestimaram os valores de países não-ocidentais como Nigéria, Marrocos e Indonésia.

De forma mais específica, os modelos tenderam a superestimar valores como Cuidado e Autoridade em nações ocidentais. Ao mesmo tempo, subestimaram valores como Igualdade e Pureza na maioria das nações — especialmente nas menos ocidentalizadas. As maiores divergências foram observadas em países do Oriente Médio e da África Subsaariana.

“Nós já sabemos, em psicologia moral, que as pessoas não são muito boas em julgar os valores morais de outros grupos”, explicou Atari. “Liberais frequentemente erram os conservadores, e conservadores erram os liberais de formas previsíveis. Com a IA desempenhando um papel crescente na vida cotidiana e nos fluxos científicos, perguntamos: esses sistemas cometem os mesmos tipos de erro?”

Por Que Isso Acontece?

A explicação central está nos dados de treinamento. A maioria dos textos com os quais esses modelos aprenderam vem de sociedades WEIRD — um acrônimo em inglês para Western, Educated, Industrialized, Rich, Democratic (Ocidental, Educada, Industrializada, Rica, Democrática). Quando o modelo enfrenta lacunas de informação sobre culturas sub-representadas, ele preenche essas lacunas com padrões estatísticos do que conhece melhor: perspectivas ocidentais.

Anúncios

Há ainda outro fator: o processo de “desenviesamento” (debiasing) ao qual os modelos são submetidos após o treinamento — aquele refinamento que os torna mais seguros e educados — é realizado principalmente por revisores humanos ocidentais que impõem suas próprias normas culturais. “Esses padrões provavelmente refletem vieses culturais nos dados e na forma como esses modelos são ‘desenviesados'”, disse Atari.

O Viés Persiste Mesmo em Outros Idiomas

Para eliminar a possibilidade de que o viés fosse apenas um efeito do idioma, os pesquisadores conduziram um experimento adicional. Coletaram dados de 4.666 participantes em nove países não-anglófonos, usando pesquisas traduzidas para idiomas locais como árabe, espanhol e urdu. Em seguida, fizeram as mesmas perguntas às IAs nesses idiomas nativos.

O resultado foi o mesmo: mesmo quando comunicando em idiomas locais, os modelos ainda subestimavam os valores morais de populações não-ocidentais. O viés não estava no idioma — estava embutido na estrutura do modelo.

Os pesquisadores foram ainda mais longe e testaram um framework moral alternativo, chamado Moralidade-como-Cooperação, com um conjunto de dados de 63 países em 29 idiomas. O mesmo padrão se repetiu: desvios massivos ao estimar os perfis morais de populações não-ocidentais.

Riscos Reais Para Pesquisa e Sociedade

“Qualquer viés embutido nesses sistemas pode influenciar silenciosamente como a informação é gerada, interpretada e utilizada”, alertou Atari. As consequências práticas são variadas:

  • Pesquisa em ciências sociais: se pesquisadores usarem IAs para simular participantes de países não-ocidentais, os resultados refletirão estereótipos, não realidade.
  • Saúde mental digital: um chatbot treinado em normas ocidentais pode priorizar autonomia individual sobre lealdade familiar — conflitando com os valores de culturas do Leste Asiático ou do Oriente Médio.
  • Sistemas automatizados de contratação ou políticas públicas: representações morais distorcidas podem gerar recomendações culturalmente inadequadas.

“Se eles distorcem, esses vieses podem moldar agendas de pesquisa, influenciar tomadas de decisão e reforçar mal-entendidos em escala”, disse Atari.

Anúncios

O Que Fazer Com Essa Informação

Atari recomenda ceticismo ativo ao usar essas tecnologias para questões moralmente carregadas. “Da próxima vez que o ChatGPT afirmar, implícita ou explicitamente, que sabe o que as pessoas valorizam no Egito, na Turquia ou na Argentina, tome com cautela”, disse ele.

Para os desenvolvedores, a recomendação é clara: diversificar os dados de treinamento incorporando mais conteúdo linguístico de regiões globais diversas, e garantir que o processo de refinamento pós-treinamento inclua perspectivas culturais variadas.

A pergunta mais urgente, que pesquisas futuras precisarão responder, é como essas distorções morais influenciam tarefas específicas do mundo real — desde sistemas automatizados de contratação até pesquisas de opinião política. Por enquanto, o estudo deixa uma conclusão difícil de ignorar: quando a IA fala sobre o que as pessoas ao redor do mundo acreditam ser certo ou errado, ela está, em boa medida, projetando uma visão de mundo ocidental sobre culturas que não compartilham necessariamente esses valores.

O estudo Moral stereotyping in large language models foi publicado nos Proceedings of the National Academy of Sciences e conduzido por Aliah Zewail, Alexandra Figueroa, Jesse Graham e Mohammad Atari.

Gostou do conteúdo? Siga-nos nas redes sociais e acompanhe novos conteúdos diariamente!

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Anúncios
Você também pode se interessar:
×