Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 

De la Théorie à la pratique











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Comment sécuriser le deep learning ?

juin 2019 par Pierre Kouliche

Pendant la journée du Salon IAParis Corp, Laurent Wlodarczyk, Directeur des Nouvelles Technologies de la société Axionable, a évoqué la construction de modèles de deep learning robustes pour assurer la sécurité des systèmes pris en charge par ces modèles lors de la dernière présentation de cet évènement.

Laurent Wlodarczyk rappelle avant tout que le deep learning connait un essor de plus en plus prononcé ces dernières années. De ce fait, il faut avant tout vérifier les vulnérabilités potentielles de ce nouveau moyen d’apprentissage autonome de ces machines. Pour cela, il a d’abord présenté différents types d’attaques permettant de perturber ce système de deep learning parmi lesquelles les « attaques adverses ».

Il poursuit ensuite avec les différentes méthodes ayant pour but de se défendre ou de prévoir ces attaques. Malheureusement, il explique que ces défenses sont spécifiques à certains types d’attaques et ne peuvent être reproductibles pour d’autres cas. Si on veut protéger efficacement le système de deep learning, il faut prévoir et utiliser les bons moyens de défenses.

Quels sont les différents types d’attaques adverses ?

Il existe plusieurs types d’attaques adverses pouvant perturber le deep learning que ce soit des attaques ciblés ou non ciblés.
- L’empoisonnement des données consiste à brouiller les données pendant leur entraînement.
- La perturbation physique consiste à se faire passer pour quelqu’un d’autre (en ajoutant des lunettes de soleil devant une caméra de sécurité par exemple).
- Les attaques adverses audio permettent de changer un son sans changer sa représentation.
- Les attaques adverses image consiste, par exemple, à changer un seul pixel lors de l’entraînement des données afin de changer complètement la reconnaissance des éléments de l’image.

Quels sont les moyens de se défendre contre ces attaques adverses ?

Il existe bien sûr des moyens de se défendre contre les différentes attaques adverses mais qui ont toutes des inconvénients par rapport aux autres types d’attaques.

- La technique du débruitage des données
- Le système à gradient masqués
- La détection des exemples adverses
- L’utilisation de réseaux spécialisés
- L’entraînement adverse.

Laurent Wlodarczyk a conclu sa conférence en présentant un exemple concret : une attaque adverse qu’il a réalisée lui-même en proposant le moyen le plus efficace de se défendre.




Voir les articles précédents

    

Voir les articles suivants