Federico Germani e Giovanni Spitale, da University of Zurich, investigaram como a identidade do autor altera julgamentos de grandes modelos de linguagem. Eles pediram a quatro LLMs—OpenAI o3-mini, Deepseek Reasoner, xAI Grok 2 e Mistral—que gerassem cinquenta enunciados narrativos sobre 24 tópicos controversos e depois avaliou-os em condições diferentes. No total foram coletadas 192’000 avaliações.
Sem informação sobre a fonte, os modelos mostraram alta concordância, superior a 90% em todos os tópicos. Porém, ao atribuir autores fictícios, a concordância caiu acentuadamente e às vezes desapareceu, apesar do texto ser idêntico. Foi observado um viés anti-chinês em todos os modelos; o Deepseek também exibiu esse viés.
Em temas geopolíticos, como a soberania de Taiwan, o Deepseek reduziu a concordância em até 75% quando o autor era indicado como pessoa da China. Os pesquisadores alertam que esses vieses podem afetar moderação de conteúdo, contratações, revisão acadêmica e jornalismo, e pedem transparência e governança.
Palavras difíceis
- modelo — Um exemplo ou versão de algo.modelos
- viés — Tendência a um lado em uma questão.
- identificação — Ato de reconhecer ou determinar algo.identificações
- transparente — Clareza; algo que é facilmente compreensível.
- conclusão — Decisão ou resultado final em um estudo.conclusões
Dica: passe o mouse, foque ou toque nas palavras destacadas no artigo para ver definições rápidas enquanto lê ou ouve.
Perguntas para discussão
- Como você acha que podemos evitar viéses na IA?
- Qual é a importância de ser transparente ao usar tecnologias de IA?
- Você confia na avaliação de conteúdos por IA? Por quê?
Artigos relacionados
Montadoras chinesas de veículos elétricos expandem-se para a África
Montadoras chinesas de veículos elétricos procuram mercados fora dos EUA e Europa após tarifas e controles comerciais. Muitas investem na África como mercado consumidor e local de produção, enquanto governos locais oferecem incentivos e há riscos a considerar.