Исследователи обнаружили новую уязвимость, которая может позволить злоумышленникам взять под контроль самоуправляемые автомобили. Уязвимость получила название VillainNet; её выявили специалисты по кибербезопасности Georgia Tech.
Проблема касается AI «суперсетей», которые многие системы автономного вождения используют для выбора подходящих программных модулей в разных дорожных ситуациях. Суперсети меняют небольшие подсети для выполнения задач — например при движении в дождь или в условиях плотного трафика. Команда обнаружила, что в одной из таких подсетей можно скрыть «заднюю дверь», которая остаётся неактивной до выбора очень конкретной подсети.
В эксперименте атака почти всегда срабатывала после активации: исследователи приводят 99% показатель успеха для активированных атак. Они также отмечают, что обнаружение такой «двери» потребовало бы значительно больше ресурсов и времени, и предложили добавить дополнительные меры безопасности для адаптивных AI-систем. Проект был представлен на ACM Conference on Computer and Communications Security (CCS) в October 2025.
Сложные слова
- уязвимость — слабое место в программе или системе
- злоумышленник — человек, который наносит вред системезлоумышленникам
- самоуправляемый — машина, которая едет без водителясамоуправляемые
- суперсеть — искусственная сеть, которая меняет подсетисуперсетей, Суперсети
- подсеть — часть большой сети для конкретной задачиподсети
- кибербезопасность — защита компьютерных систем и данныхкибербезопасности
- дверь — скрытый способ доступа в программу или системузаднюю дверь, двери
Подсказка: наведите, сфокусируйтесь или нажмите на выделенные слова, чтобы увидеть краткие определения прямо во время чтения или прослушивания.
Вопросы для обсуждения
- Какие дополнительные меры безопасности, по‑вашему, следует добавить в адаптивные AI‑системы и почему?
- Чем опасна скрытая «задняя дверь» в подсети автомобиля для пассажиров и других людей на дороге?
- Если бы у вас был выбор, стали бы вы пользоваться самоуправляемым автомобилем сейчас? Почему да или нет?
Похожие статьи
Искусственный интеллект для выявления причин смерти
Проект CODA, финансируемый Фондом Гейтсов на трёхлетний срок, использует искусственный интеллект для улучшения данных о причинах смерти в странах с низким доходом, где лишь 8% случаев имеют документированную причину. Система сочетает посмертные интервью и клинические данные и даёт рекомендации с уровнем уверенности.
Когнитивные игры улучшают мозг после травмы
Исследование показало, что люди с хроническими травмами головного мозга улучшили структуру мозга и когнитивные навыки, выполняя компьютерные игры для тренировки. Учёные зафиксировали изменения нейропластичности и улучшения в скорости обработки, внимании и памяти.
ИИ предсказывает черты личности по обычной речи
Новое исследование показало, что доступные генеративные модели ИИ, как ChatGPT, Claude и LLaMa, по текстам повседневной речи могут предсказывать черты личности, эмоции и поведение с точностью, сопоставимой или лучше оценок близких людей.
Отчёт: крупные компании ограничивают доступ фермеров к технологиям
25 февраля IPES-Food выпустила отчёт, в котором говорится, что союз крупных агрокорпораций и технологических компаний делает современные сельскохозяйственные инструменты недоступными для мелких фермеров. В документе обсуждаются облачные платформы, AI и контроль данных.
Женщины и онлайн-атаки на выборах в Уганде
Женщины давно участвуют в политике Уганды, и Конституция резервирует одну треть мест. На выборах в январе 2026 многие кандидатки подверглись онлайн-атакам: дипфейкам, фальшивым изображениям и сексуализированным оскорблениям. Технологии усиливают барьеры для их участия.