VillainNet, la faille furtive qui vise l’IA des voitures autonomes

Introduction : Une équipe du Georgia Institute of Technology décrit une vulnérabilité d’architecture qui peut dormir dans un modèle d’IA embarqué, puis se réveiller au pire moment pour influer sur la conduite… C’est précisément ce basculement qui devient un levier. L’équipe menée par David Eugenblick, doctorant, a testé une approche où l’attaquant ne cherche pas à corrompre l’ensemble du modèle. Il vise une zone étroite, un seul sous-réseau. L’effet est stratégique, le système complet continue de produire des sorties plausibles la plupart du temps, car l’immense majorité des calculs reste inchangée. En pratique, cela signifie que les tests habituels peuvent passer à côté, puisque le comportement global demeure cohérent tant que le véhicule n’a pas besoin du sous-réseau piégé.

https://www.zataz.com/villainnet-la-faille-furtive-qui-vise-lia-des-voitures-autonomes/