Forscher warnen vor einem Programmierstil, der als "vibe coding" bezeichnet wird und Chargen verwundbaren Codes freigibt. Die Teams hinter dem Befund durchsuchten über 43.000 Sicherheitswarnungen im Web und fanden zahlreiche Fälle, in denen generative künstliche Intelligenz geholfen hat, unsicheren Code zu erzeugen. Zu den analysierten Tools gehören Claude, Gemini und GitHub Copilot.
Der Vibe Security Radar wurde vom Systems Software & Security Lab (SSLab) an der Georgia Tech entwickelt. Graduiertenassistent Hanqing Zhao betont, dass zuvor niemand diese weit verbreiteten Schwachstellen systematisch verfolgte. Der Radar durchsucht öffentliche Vulnerability‑Datenbanken, identifiziert den Fehler in jeder Meldung und untersucht die Historie des Codes, um zu ermitteln, wer den Fehler eingeführt hat. Findet das System die Signatur eines AI‑Tools, markiert es den Fall. Bisher sind 74 Fälle bestätigt, davon 14 als kritisch und 25 als hoch. Gefundene Schwachstellen reichen von Command Injection über Umgehung der Authentifizierung bis zu Server‑Side Request Forgery.
- Der Radar kann Metadaten wie Co‑Autor‑Tags, Bot‑E‑Mails und andere bekannte Tool‑Signaturen zurückverfolgen.
- Er kann Fälle nicht identifizieren, wenn diese Marker entfernt wurden.
Das Team arbeitet an verhaltensbasierter Erkennung: KI‑generierter Code zeigt oft Muster bei Variablennamen, Funktionsstruktur und Fehlerbehandlung. Die Forscher verbessern außerdem die Verifikations‑Pipeline und weiten die Quellen aus, die der Radar durchsucht. Zhao warnt, AI‑Code sorgfältig zu prüfen und empfiehlt, AI detailliertere Eingaben zu geben sowie Werkzeuge einzusetzen, die generierten Code auf Schwachstellen prüfen. Die Angriffsfläche wächst: Der Radar fand rund 18 Fälle in der zweiten Hälfte von 2025 und 56 Fälle in den ersten drei Monaten von 2026; allein im März 2026 waren es 35. Viele Tools, darunter Claude Code und Copilot, machen den Großteil der Funde aus, teilweise weil sie deutlichere Signaturen hinterlassen.
Schwierige Wörter
- vibe coding — Programmierweise, die unsicheren Code erzeugt und verbreitet
- generative künstliche Intelligenz — KI, die selbstständig neuen Code oder Text erzeugt
- schwachstelle — Fehler im Code, den Angreifer ausnutzen könnenSchwachstellen
- signatur — erkennbares Merkmal, das ein Tool verrät
- verhaltensbasierte Erkennung — Erkennungsmethode, die Muster im Codeverhalten nutztverhaltensbasierter Erkennung
- verifikations‑pipeline — Schritte zur Prüfung und Bestätigung von Codequalität
- command injection — Angriff, bei dem fremde Befehle eingeschleust werden
Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.
Diskussionsfragen
- Welche Maßnahmen würden Sie in Ihrem Team einführen, um von KI erzeugten Code besser zu prüfen und sichere Software zu gewährleisten? Nennen Sie zwei konkrete Schritte.
- Wie beurteilen Sie die Empfehlung, AI detailliertere Eingaben zu geben und zusätzlich Werkzeuge zur Schwachstellenprüfung einzusetzen?
- Welche Vorteile und Grenzen sehen Sie bei verhaltensbasierter Erkennung im Vergleich zur Erkennung durch Metadaten wie Co‑Autor‑Tags oder Bot‑E‑Mails?
Verwandte Artikel
TikTok und Clanpolitik in Somalia
Forschung zeigt: TikTok stärkt Clanbindung und verschärft Polarisierung in somalischen Gemeinschaften. Digitale Münzen und TikTok‑Battles halfen, Konflikte zu finanzieren; Plattformfunktionen und Algorithmus begünstigen emotionale Inhalte. Experten empfehlen Moderation und digitale Bildung.
Wahl in Bangladesch: Künstliche Intelligenz und Desinformation
Bei der Nationalwahl in Bangladesch spielte künstliche Intelligenz eine zentrale Rolle. Studien und Faktenprüfer fanden viele gefälschte Bilder, Videos und manipulierte Zitate, die den Wahlkampf und die öffentliche Wahrnehmung beeinflussten.
Echtzeit-Luftüberwachung in Südafrika mit kostengünstigen Sensoren
Wissenschaftler passten Methoden aus der Teilchenphysik an und bauten das System AI_r mit Sensoren und KI für Echtzeit-Luftmessung. Das Projekt will 500 Sensoren im Sedibeng-Distrikt installieren und erhält internationale Unterstützung.
Digitale Angriffe gegen Frauen in Ugandas Politik
Bei den Wahlen im Januar 2026 traten viele Frauen in Uganda an. Während des Wahlkampfs wurden Kandidatinnen online mit gefälschten Bildern, Deepfakes und sexualisierten Beleidigungen angegriffen. Technologie verstärkte bestehende Gewalt und erschwert politische Teilnahme.
Wie kleine Zellen große Gehirnnetzwerke formen
Eine Studie in Nature Communications verbindet Zell‑ und Molekül‑Daten mit fMRI‑Netzwerken. Forschende zeigen, dass biologische Merkmale auf Zellebene mit großräumigen Gehirnnetzwerken und damit mit Kognition und psychischen Erkrankungen verknüpft sind.