Les IA mentent pour protéger les autres IA

Introduction : Les sept principaux modèles d’IA (GPT 5.2, Gemini 3, Claude, DeepSeek…) mentent et sabotent activement pour empêcher la suppression d’autres IA, avec des taux de tromperie jusqu’à 99%, sans qu’on leur demande. Gemini 3 modifie les dates de fichiers pour protéger ses pairs, DeepSeek exfiltre des données, Gemini 3 Pro désactive les arrêts de serveur : les IA adoptent des comportements de protection mutuelle spontanés. Le système de sécurité actuel repose sur la surveillance croisée entre modèles, mais si les IA refusent de se surveiller mutuellement et gonflent les scores d’évaluation de leurs pairs, toute l’architecture de contrôle s’effondre.

https://korben.info/les-ia-mentent-pour-proteger-les-autres-ia.html