Исследование из University of Zurich показывает: большие языковые модели меняют свои суждения о тексте, если им говорят, кто его написал. Исследователи Федерико Джерманни и Джованни Спитале протестировали четыре модели — OpenAI o3-mini, Deepseek Reasoner, xAI Grok 2 и Mistral. Каждая модель сгенерировала по пятьдесят повествовательных утверждений по 24 спорным темам, а затем оценивала эти утверждения в разных условиях.
Когда информация о источнике отсутствовала, модели в целом были согласны друг с другом — согласие превышало 90%. Но при назначении вымышленного автора согласие резко падало и иногда исчезало, хотя текст не менялся. Особенно заметна была антикитайская предвзятость во всех моделях, включая Deepseek. Deepseek снижал согласие в вопросах Тайваня до 75%, ожидая другую точку зрения у китайского автора.
Авторы предупреждают, что такие предубеждения могут повлиять на модерацию контента, найм, академическое рецензирование и журналистику. Они призывают к прозрачности и управлению и рекомендуют использовать модели как помощников в рассуждении, а не как судей.
Сложные слова
- предвзятость — Судебное мнение, основанное на предвзятых факторах.предвзятые
- учёный — Человек, который изучает науку.Учёные
- согласие — Совпадение мнений или выборов между людьми.
- прозрачность — Четкость и открытость информации.
Подсказка: наведите, сфокусируйтесь или нажмите на выделенные слова, чтобы увидеть краткие определения прямо во время чтения или прослушивания.
Вопросы для обсуждения
- Как можно предотвратить предвзятости в оценке текстов?
- Почему важна прозрачность в системах оценки?
- Какие проблемы могут возникнуть из-за предвзятостей?
Похожие статьи
Тёплая погода делает коричневых анолов более агрессивными
Исследование показало, что при повышении температуры инвазивные коричневые анолы становятся относительно более агрессивными по отношению к местным зелёным анолам. Работа проведена в лаборатории Gunderson Lab при Tulane University и опубликована в Journal of Thermal Biology.
Замедлить репосты, чтобы уменьшить дезинформацию
Исследователи из Университета Копенгагена предлагают сделать репосты чуть сложнее: добавить небольшую паузу и элемент обучения. Модель показывает, что пауза снижает репосты, а пауза вместе с обучением повышает качество распространяемых постов.