Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 

De la Théorie à la pratique











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

McAfee contourne avec succès le système de reconnaissance faciale grâce à l’IA du "model hacking"

août 2020 par McAfee

McAfee, l’entreprise de cybersécurité device-to-cloud publie de nouvelles recherches qui démontrent comment les chercheurs de chez McAfee ont réussi à contourner un système de reconnaissance faciale grâce à un processus baptisé le "model hacking" (piratage de modèle) donnant l’impression au système de "voir" une personne entièrement différente.

McAfee s’est penché sur la technologie de reconnaissance faciale, en examinant la difficulté pour un individu de le contourner. L’entreprise a alors conçu une méthode de reconnaissance faciale de pointe, reflétant étroitement les types de systèmes de vérification de passeports présent dans les aéroports et déployés dans le monde réel.

En fin de compte, McAfee a pu "modeler" le système de reconnaissance faciale, lui permettant de classer à tort un individu comme une personne différente tout en conservant l’apparence réaliste de l’individu original.

Parfois connu sous le nom de "Adversarial Machine Learning" ou AML, le "model hacking" est l’étude et la conception d’attaques ciblant des modèles d’intelligence artificielle (IA). Le modèle est formé en permanence pour comprendre les nouvelles menaces et s’assurer que le modèle peut se défendre contre les attaques en cours et futures.

Les implications de cette recherche sont importantes :

Comme c’est le cas pour de nombreuses technologies, en développant davantage la reconnaissance faciale, l’industrie développe également de nouveaux vecteur d’attaque ; il est impératif d’identifier et d’atténuer les problèmes de sécurité de manière proactive.

Les résultats de cette recherche représentent une opportunité de partenariat entre la communauté de recherche sur les menaces, les développeurs et les fournisseurs afin d’étudier en profondeur la technologie de reconnaissance faciale, de sensibiliser aux failles de sécurité et de construire des systèmes résistants à ce type d’attaques.

Cette recherche vise à approfondir la discussion sur les problèmes de sécurité inhérents aux applications de "machine learning". Si la science des données offre d’incroyables possibilités de progrès, il est impératif d’être proactif en ce qui concerne les préoccupations de sécurité qui l’accompagnent.

"La reconnaissance faciale s’est adaptée et transformée, rapidement, et quelque fois radicalement. Cela est dû en partie à la réémergence et à l’expansion de l’intelligence artificielle et du machine learning - une coalescence de logiciels qui a connu des percées importantes, de pair avec l’évolution du matériel informatique qui a élargi le champ des possibles.

Avec le temps, au lieu d’être utilisée comme simple outil de vérification ou d’authentification d’identité, la reconnaissance faciale a émergé sur de nouveaux marchés. Si la reconnaissance faciale se positionnait initialement comme la réponse à divers problèmes, la réalité s’est avérée beaucoup plus compliquée et plus sujette à l’erreur. De nombreux articles et études ont aujourd’hui montré des biais dans les données de formation collectées.

Cette évolution de l’utilisation est courante dans le domaine de la technologie. Il est donc impératif d’examiner objectivement les faiblesses et les implications de sa mise en œuvre, d’imaginer les différents scénarios, mais aussi l’éthique, par exemple, l’utilisateur, et non le fournisseur, a-t-il demandé ou fourni un consentement explicite ?

De nombreuses technologies fondamentales relèvent encore de ce cadre. Parmi elles, les scanners faciaux et la vérification des images utilisés pour déverrouiller les smartphones, mais encore la vérification d’identité utilisée pour authentifier les détenteurs de billets de train, de bus et d’autres moyens de transport, ou les systèmes de passeport utilisés pour vérifier les passagers dans les aéroports, et bien d’autres encore. Pour la reconnaissance faciale, une option de refus doit être proposée, ou l’utilisateur doit pouvoir simplement décider de ne pas acheter ou utiliser le produit ou le service," explique Steve Polvony, Head of McAdee Advanced Threat Research.




Voir les articles précédents

    

Voir les articles suivants