#Искусственный интеллект22
Языковые модели учатся различать правдоподобие
Учёные из Браунского университета проверили, понимают ли языковые модели свойства реального мира. Они показали, что достаточно крупные модели формируют внутренние векторы правдоподобия, согласующиеся с человеческими суждениями.
Фото: Zach M, Unsplash
Рамка для автоматизации терапевтической работы с помощью разговорного ИИ
Исследователи предложили рамку, которая разделяет автоматизацию терапевтической работы на четыре уровня и оценивает полезность и риски использования разговорного искусственного интеллекта в консультировании.
Учёные сохраняют безопасность больших языковых моделей
Исследователи из North Carolina State University изучили, как улучшить безопасность больших языковых моделей. Они предложили метод замораживания критичных нейронов при донастройке, чтобы уменьшить опасные ответы и не потерять качество работы модели.
Уязвимость VillainNet в самоуправляемых автомобилях
Исследователи обнаружили уязвимость в AI «суперсетях», которая позволяет скрыть «заднюю дверь» в подсети. При выборе такой подсети она активируется и может захватить управление автомобилем, поэтому учёные призывают усилить защиту.
ИИ предсказывает черты личности по обычной речи
Новое исследование показало, что доступные генеративные модели ИИ, как ChatGPT, Claude и LLaMa, по текстам повседневной речи могут предсказывать черты личности, эмоции и поведение с точностью, сопоставимой или лучше оценок близких людей.