Un simple prompt annihile les garde-fous de plusieurs LLM ouverts
Introduction : On savait les modèles IA vulnérables à l’injection de prompt. Une dernière technique trouvée par Microsoft nommée GRP‑Obliteration, et testée sur 15 modèles ouverts majeurs, rend leurs protections totalement caduques.