API fantôme - Quand l'IA crée des backdoors dans le dos des dev
Introduction : Si vous utilisez GitHub Copilot ou ChatGPT pour coder plus vite, voici une nouvelle qui va peut-être vous refroidir un peu. Une fintech a découvert que des attaquants avaient extrait des données clients via un endpoint API qui n’était documenté nulle part. Personne dans l’équipe ne se souvenait l’avoir créé et après 3 semaines d’enquête, le verdict est tombé : c’est Copilot qui l’avait généré pendant une session de code nocturne…. Ils ont testé plus de 100 LLM sur 80 tâches de codage différentes, et le résultat fait mal puisque 45% du code généré par IA contient des vulnérabilités classées OWASP Top 10. En gros, presque une fois sur deux, votre assistant IA vous pond du code troué comme une passoire. Java est le grand gagnant avec 72% de taux d’échec, suivi par Python, JavaScript et C# qui tournent autour de 38-45%.
https://korben.info/code-ia-securite-vulnerabilites-copilot.html