Fausses études publiées, désinformation... Quand l'intelligence artificielle produit du contenu scientifique bidon
Introduction : L’intelligence artificielle arrive même à berner des scientifiques. C’est ce que montre une autre expérience(Nouvelle fenêtre) menée par des chercheurs américains. Ils ont demandé à ChatGPT de résumer de vraies études qu’ils ont ensuite soumises à des spécialistes. Ils avaient entre les mains de vrais résumés, écrits par des scientifiques, et d’autres générés par intelligence artificielle. Bilan : 1 fois sur 3, ils ont cru reconnaître la plume d’un professionnel, alors que c’était bien l’IA qui avait écrit le texte. Les auteurs de cette étude ont voulu alerter sur l’usage de l’intelligence artificielle qui peut, selon leurs mots, falsifier entièrement des recherches.