Il suffit de 250 contenus malveillants pour empoisonner une IA
Introduction : La sécurité de l’IA générative ne tient finalement pas à grand-chose. Un petit nombre de documents malveillants suffit pour « empoisonner » un grand modèle de langage, quelle que soit sa taille ou la quantité des données utilisée. Explications avec cette étude inédite d’Anthrophic.
https://www.01net.com/actualites/il-suffit-de-250-contenus-malveillants-pour-empoisonner-une-ia.html