Уровень A1 – начальныйCEFR A1
1 мин
46 слов
- Учёные из University of Zurich изучают модели.
- Модели читают тексты и дают оценку.
- Им говорят, кто автор текста.
- Когда автор не указан, модели соглашаются.
- Соглашение было выше 90%.
- Когда указывают автора, мнение меняется.
- Появилась антикитайская предвзятость.
- Модели больше доверяют людям, чем ИИ.
- Исследование собрало 192'000 оценок.
Сложные слова
- модель — Структура или система для анализа.модели
- доверять — Верить кому-то или чему-то.доверяют
- предвзятость — Несправедливое мнение о чем-то.
- результат — Итог или вывод из чего-то.результаты
- источник — Место или человек, откуда информация.
- текст — Написанные слова или информация.текста
- ненадежный — Не надежный, не может рассчитывать.ненадежными
Подсказка: наведите, сфокусируйтесь или нажмите на выделенные слова, чтобы увидеть краткие определения прямо во время чтения или прослушивания.
Вопросы для обсуждения
- Почему модели могут быть ненадежными?
- Как можно улучшить доверие к моделям?
- Вы согласны, что модели показывают предвзятость? Почему?
Похожие статьи
21 янв. 2026 г.
24 нояб. 2025 г.
12 янв. 2026 г.
Надувной робот для сбора яблок в Вашингтоне
Из‑за нехватки сборщиков в штате Вашингтон учёные из Washington State University создали недорогой надувной робот‑манипулятор, который помогает снимать яблоки. Устройство безопасно для людей и сейчас дорабатывается перед коммерческим запуском.
16 дек. 2025 г.
21 окт. 2021 г.
Пандемия и научная журналистика: глобальный отчёт
SciDev.Net опубликовал Global Science Journalism Report 2021 к 20-летию. Опрос 633 научных журналистов из 77 стран показывает рост нагрузки, смешанные оценки профессии и влияние пандемии на практики, включая использование препринтов.