Команда из лаборатории Systems Software & Security Lab (SSLab) при Georgia Tech разработала Vibe Security Radar и обнаружила проблему, которую назвала «vibe coding». Радар сканирует публичные базы данных уязвимостей, определяет ошибку для каждой записи и анализирует историю кода, чтобы понять, кто ввёл баг.
Если в истории находятся подписи инструментов ИИ — теги соавторов или адреса электронной почты ботов — система помечает случай как связанный с ИИ. При этом радар не может обнаружить случаи, когда эти метаданные были удалены.
Инструмент подтвердил 74 случая уязвимостей; 14 из них классифицированы как критические, 25 — как высокие. Найденные проблемы включают инъекции команд, обход аутентификации и подделку серверных запросов (server-side request forgery). Исследователи отмечают, что модели ИИ часто повторяют одни и те же ошибки в разных проектах.
Команда работает над поведенческим обнаружением: код ИИ оставляет закономерности в названиях переменных, структуре функций и обработке ошибок. Также совершенствуют верификационный конвейер и расширяют источники данных. SSLab рекомендует тщательно проверять результаты ИИ перед выкатом в продакшен.
Сложные слова
- уязвимость — слабое место в программе или системеуязвимостей
- метаданные — информация о файле или записи
- инъекция — ввод вредного кода в программуинъекции
- аутентификация — проверка личности или доступа пользователяаутентификации
- подпись — отметка автора или источника в файлеподписи
- закономерность — повторяющийся шаблон или правильная связьзакономерности
Подсказка: наведите, сфокусируйтесь или нажмите на выделенные слова, чтобы увидеть краткие определения прямо во время чтения или прослушивания.
Вопросы для обсуждения
- Почему, по тексту, модели ИИ часто повторяют одни и те же ошибки в разных проектах?
- Какие проверки можно добавить перед выкатом в продакшен, если код частично сгенерирован ИИ?
- Какие признаки в коде, упомянутые в тексте, помогают обнаружить код, созданный ИИ?
Похожие статьи
Креативные работники Австралии требуют защиту от ИИ
Художники, журналисты и аборигенные культурные работники в Австралии запустили кампанию «Stop AI Theft», требуя защиты и компенсаций. Они жалуются, что генеративный ИИ использует их материалы без разрешения и вредит их доходам и занятости.
ИИ расширяет доступ к сексуальному и репродуктивному здоровью
В Латинской Америке исследователи и НПО используют генеративный ИИ, чтобы дать молодёжи и маргинализованным группам информацию о сексуальном и репродуктивном здоровье. Одновременно эксперты предупреждают о рисках и просят улучшить данные и контроль.