Des chercheurs ont analysé plus de 43 000 avis de sécurité et ont trouvé de nombreux cas de code non sécurisé créé avec l'aide d'outils d'IA. Ils appellent ce phénomène « vibe coding » et citent des outils comme Claude, Gemini et GitHub Copilot.
Le Vibe Security Radar, créé par un laboratoire de Georgia Tech, parcourt des bases publiques, identifie des erreurs et cherche qui a introduit le bug. Le radar signale aussi les signatures d'outils d'IA quand il les trouve. Les chercheurs conseillent de relire et de tester le code généré par l'IA.
Mots difficiles
- chercheur — personne qui fait des recherches scientifiqueschercheurs
- avis de sécurité — message qui parle d'un risque informatique
- outil — programme ou objet pour faire un travailoutils
- laboratoire — endroit où travaillent des scientifiques
- parcourir — lire ou visiter des données pour chercherparcourt
- signaler — dire qu'une chose est importante ou dangereusesignale
- relire — lire encore pour trouver des erreurs
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Que ferais-tu si une IA créait du code pour toi ?
- Est-ce que tu demanderais à quelqu'un de relire le code ? Pourquoi ?
- Connais-tu des outils d'IA pour le code, comme Claude ou GitHub Copilot ? Lesquels ?
Articles liés
Un nouvel appareil mesure la viscosité du sang en temps réel
Des chercheurs de l’Université du Missouri ont mis au point une technologie non invasive qui surveille la viscosité du sang avec des ondes ultrasonores et un logiciel. Elle mesure aussi la densité et pourrait devenir portable.
Un outil réduit l'animosité politique dans le fil X
Des chercheurs ont créé une extension qui réordonne le fil X pour faire descendre les messages d'animosité partisane, sans supprimer de publications. Dans des expériences, cela a rendu les participants plus chaleureux envers le parti opposé.
Une IA apprend des valeurs culturelles en observant des humains
Des chercheurs ont montré qu'une IA, entraînée à partir du comportement humain, peut apprendre des différences de valeurs entre groupes culturels. L'étude utilise le jeu Overcooked et un second test sur le partage d'argent.