Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Cybersécurité et IA : je t’aime moi non plus !

juin 2019 par Marc Jacob

Dans le cadre sur Salon IAParis Corp. Vincent Strubel, sous-directeur expertise de l’ANSSI a présenté la vision étatique de la cybersécurité face à l’Intelligence Artificielle (IA). Si cette technologie en fait rêver plus d’un, pour l’ANSSI elle est source de problème parfois difficile à résoudre, même si sous certains aspects elle semble prometteuse.

Enguérand Renault, rédacteur en Chef du Figaro animait la conférence de Vincent Strubel, sous-directeur expertise de l’ANSSI sur le thème cybersécurité et Intelligence Artificielle. En préambule, Vincent Strubel a rappelé que l’IA représente depuis 60ans ce que l’on a jamais fait en informatique. Pour cette conférence, il a focalisé son propos sur les techniques d’apprentissage.

Pour Vincent Strubel, l’IA permet de mieux détecter les traces d’une attaque. Ainsi, les éditeurs pourraient s’affranchir de la détection par signature. Par contre, le problème est très complexe, car l’IA d’aujourd’hui, répond à des questions fermées plutôt qu’ouvertes. Il estime qu’il y a encore trop de faux positifs du fait des techniques utilisées par l’IA. Ainsi, il a montré que les taux de faux positif pouvait aller dans certains contextes jusqu’à un par seconde. Enfin, il considère que l’exploitation des informations est assez complexe.

Par contre, l’IA peut servir à faire de la détection partielle, mais aussi des évaluations de la sécurité dans le développement pour améliorer le code. L’IA a aussi des atouts dans le cadre de la réponse à incident.

En revanche, il note des difficultés récurrentes comme les faux positifs encore trop nombreux. Sans compter que les attaquants s’adaptent sans cesse pour contourner les contre-mesures.

Enfin, selon Vincent Strubel ce qui fonctionne le mieux en matière d’IA, reste en faveur des attaquants. En effet, les attaquants étant moins exigeants, ils se satisfont des imperfections de l’IA pour développer leurs codes malveillants et générer des attaques. Pour l’instant, il n’y a pas d’attaque avérée qui s’est servie d’IA, mais cela ne devrait pas tardé...

En fait comment sécuriser l’IA ?

Les risques liés à l’IA sont en premier lieu la surestimation des performances qui pourrait donner une illusion de sécurité. De plus, on peut introduire des biais dans les critères d’IA afin de tordre les décisions prises par les calculateurs. On ne peut pas aussi s’empêcher de penser qu’un attaquant pourrait empoisonner l’IA lors de son apprentissage ou son fonctionnement.

Comment évaluer l’IA ?

Les méthodes d’évaluation des technologies liées as a l’IA sont très compliquées. En effet, il y a peu de spécifications mais des données qui permettent l’apprentissage et il n’y a pas de possibilité par la suite d’évaluer les comportements. Pour lui, l’accès à des données pertinentes pour la cybersécurité devient un enjeu de souveraineté. Pour le moment, il considère qu’il y a peu de données fiables, actualisées et de qualités disponibles. Sans compter qu’aujourd’hui, il y une concentration des technologies entre trop peu d’acteurs.

En conclusion, Vincent Strubel considère qu’il faut que les équipes d’IA et de sécurité communiquent. Une montée en compétence des équipes de l’ANSSI doit être entreprise. Il faut aussi valoriser les données de l’Etat en termes de data lakes semi-privatives.


Voir les articles précédents

    

Voir les articles suivants