Esploristoj trovis multajn kazojn kie generativaj AI-iloj helpis krei nesekuran kodon. Ili skanis retajn sekurecajn avizojn kaj rimarkis oftajn similajn erarojn en diversaj projektoj. Inter la AI-iloj estas Claude, Gemini kaj GitHub Copilot.
La Vibe Security Radar, konstruita ĉe la Systems Software & Security Lab de Georgia Tech, markas kazojn kiam ĝi trovas AI-subskribojn en metadatenoj. Nun la teamo ankaŭ laboras pri konduta detekto, por trovi AI-kodon laŭ nomado kaj strukturo. Ili konsilas atentan revizion de generita kodo antaŭ ol uzi ĝin en produkto.
Malfacilaj vortoj
- generativa — softvara metodo kiu kreas novan enhavon aŭ kodongenerativaj
- nesekura — kiu prezentas riskon por sistemoj aŭ datumojnesekuran
- avizo — informo pri problemo aŭ rimarko pri sekurecoavizojn
- metadateno — informoj pri dosiero aŭ dokumento, ne enhavometadatenoj
- subskribo — mallonga indikilo en metadatenoj pri originoAI-subskribojn
- detekto — ago trovi ion malĝustan aŭ nekutiman
Konsilo: ŝovu la musmontrilon, fokusu aŭ tuŝu la reliefigitajn vortojn en la artikolo por vidi rapidajn difinojn dum legado aŭ aŭskultado.
Diskutaj demandoj
- Ĉu vi atendus trovi similajn erarojn en kodoj de diversaj projektoj? Kial aŭ kial ne?
- Kion vi farus por kontroli sekurecon de kodo antaŭ ol uzi ĝin en produkto?
- Ĉu vi uzus AI-helpon por verki kodon? Kion vi kontrolus post tio?
Rilataj artikoloj
AI-iloj por detekti tuberkulozon prezentitaj en Kopenhago
Dum la Union World Conference on Lung Health (18–21 novembro) esploristoj montris kvar AI-ilojn por detekti kaj monitori tuberkulozon. La Monda Organizo pri Sano taksas TB ankoraŭ la plej mortiga infekta malsano kun ĉ. 1.25 milionoj da mortoj en 2024.