Faille 'Pickle Somnolent' Menace l'IA
Des chercheurs ont récemment découvert une faille inquiétante, surnommée le 'Pickle Somnolent', qui représente une menace significative pour la sécurité des modèles d'apprentissage automatique (ML). Cette faille, qui injecte du code malveillant lors de l'emballage, vise l'intégrité des modèles ML, les conduisant à effectuer des actions non prévues. En exploitant des vulnérabilités dans le format de sérialisation pickle, les attaquants peuvent manipuler les modèles sans détection, mettant ainsi en péril la fiabilité des applications pilotées par l'IA.
Lire Plus