Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Les deepfakes, un risque majeur pour les élections

juin 2024 par Jean-Christophe Vitu, Vice President Solution Engineer, chez CyberArk

Les 30 juin et 7 juillet prochains auront lieu les deux tours des élections législatives anticipées en France, suite à la décision du président de la République, Emmanuel Macron, de dissoudre l’Assemblée nationale. Avec une campagne très courte, il convient pour les électeurs de s’informer tout en prenant garde aux fausses informations qui circulent. En effet, aujourd’hui, les deepfakes, de faux media générés par l’Intelligence Artificielle (IA) et créés à partir de media existants d’une personne (images, vidéos, sons…), prolifèrent et sont autant de risques de tomber dans le piège de la désinformation ou de la compromission de données.

Pour Jean-Christophe Vitu, VP Solutions Engineer chez CyberArk, il convient de prendre conscience des risques que représentent les deepfakes, à la fois dans la désinformation, mais aussi dans la compromission de données, afin de s’en prémunir et ne pas tomber dans le piège des cybercriminels.

« Alors que la campagne pour les législatives anticipées bat son plein en France, les deepfakes sont un risque à prendre en compte, puisque les acteurs malveillants les utilisent à la fois dans l’objectif de perpétrer des cyberattaques, mais aussi pour désinformer la population. Dans le cadre d’élections, si l’utilisation de l’IA pour créer des deepfakes n’est pas contrôlée, elle peut donner lieu à des contenus dangereux pour la démocratie et l’opinion publique, par exemple avec la création de fausses vidéos de candidats avec de faux discours.

En outre, il existe un certain paradoxe entre la confiance des individus à reconnaître un deepfake, et leurs capacités réelles à le faire. Nos dernières recherches, ont mis en avant que les deepfakes peuvent et vont impacter les entreprises, mais vont aussi être utilisés dans d’autres buts, notamment le vol d’identité. En effet, 79 % des responsable de la sécurité des systèmes d’information (RSSI) français sont confiants dans le fait que les employés de leur entreprise pourraient reconnaître un deepfake vidéo de leur PDG en train d’échanger de l’argent liquide avec des criminels. Pour une vidéo du responsable RH demandant aux employés de mettre à jour leurs information de paiement, le pourcentage de confiance diminue mais reste à 69 %. Toutefois, selon une étude réalisée par l’Ifop, 94 % des individus testés se trompent au moins une fois lorsqu’ils sont confrontés à cinq deepfakes, malgré une information toujours plus grande sur le sujet. En plus de partager de fausses informations, ces outils, de la même manière que le phishing, peuvent aussi conduire à des compromissions d’identités afin de dérober des données sensibles ou confidentielles.

C’est pourquoi il convient de former la population à ce type de risques. Comme cela a été fait pour les dangers de l’hameçonnage et du clic sur des liens dont l’utilisateur ne connait pas la provenance, il est nécessaire de se poser les mêmes questions lorsque l’on voit une vidéo ou reçoit un audio : est-ce que la personne qui partage ce media est légitime ? Est-ce que le media semble véritable ? Est-ce que cette personne me demanderait ce type d’informations ? Après s’être posé ces questions, les utilisateurs peuvent évaluer le risque et limiter les conséquences d’actes malveillants.

Enfin, la régulation de l’IA par les instances publiques pourrait permettre de limiter les actions des cybercriminels. L’IA est désormais partout et il semble peu probable que celle-ci disparaisse, il est donc essentiel de travailler avec elle, en connaissant les risques qu’elle induit. Ainsi, les gouvernements doivent prendre des mesures fortes afin de limiter la dangerosité de ces outils, à la fois pour les individus, mais aussi les entreprises. »


Voir les articles précédents

    

Voir les articles suivants