Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 
Les événements

PROGRAMME DES GSDAYS 28 JANVIER 2025

    











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Les chercheurs de JFrog détaillent 10 nouvelles vulnérabilités les plus graves liées au Machine Learning (sur 22 découvertes)

décembre 2024 par JFrog

JFrog a publié le deuxième volet de sa dernière série de recherches, détaillant les vulnérabilités logicielles uniques côté client et de modèle « sûr » dans 22 projets ML.

Ces vulnérabilités permettent aux attaquants de détourner des clients ML de l’organisation, comme ceux qu’utilisent les data scientists et les pipelines MLOps, et de provoquer l’exécution de code au chargement de données non approuvées. De plus, associée à des techniques de post-exploitation, même une seule infection de client peut engendrer un vaste mouvement latéral au sein de l’organisation.

Cet article de la série analyse les vulnérabilités découvertes et divulguées par l’équipe de recherche en sécurité JFrog, comme :

Faille XSS de recette MLflow à l’exécution de code
Exécution de code H2O via une désérialisation de modèle malveillant
Écrasement de fichier arbitraire par traversée de chemin weights_only dans PyTorch

Commentaires de Shachar Menashe, Senior Director of Security Research, JFrog :

« Ces vulnérabilités côté client et modèles « sûrs » prouvent l’impératif d’adopter un état d’esprit axé sur la sécurité alors que le monde des logiciels d’apprentissage automatique continue d’évoluer. Les outils AI/ML recèlent un immense potentiel d’innovation, mais peuvent aussi ouvrir la voie à des attaques engendrant de sérieux dommages. Pour prévenir de telles menaces, je recommande d’aviser tout utilisateur concerné de l’organisation de ne jamais charger des modèles ML non approuvés. Bien que cela puisse sembler un format sûr, il est crucial de toujours vérifier avant de prendre une autre mesure. »


Voir les articles précédents

    

Voir les articles suivants