Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Utilisateurs d’applications Photo IA : ce que vous devez savoir sur la sécurité de vos données

janvier 2023 par NordVPN

Fin 2022, les réseaux sociaux ont été inondés d’un nouveau genre de photos : Nombreux sont ceux qui, par effet de mode, ont commencé à utiliser des applications de photo créatives alimentées par L’IA (intelligence artificielle) de type PhotoDirector, Lensa AI, Starryai, Dawn AI et bien d’autres. Mais alors que ces applications continuent de gagner en popularité, de nouveaux risques de cybersécurité et de mise en danger des données sont apparus.

"Problèmes de confidentialité, manipulation des données, manque de transparence et vulnérabilités des logiciels : les applis photo alimentées par l’Intelligence Artificielle ont révolutionné la façon dont nous prenons et partageons nos photos, mais elles s’accompagnent également de nouveaux risques qui doivent être pris en compte", déclare Daniel Markuson, expert en cybersécurité chez NordVPN. "Les utilisateurs doivent être conscients de ces risques et prendre des mesures pour protéger leurs informations et données personnelles lorsqu’ils utilisent ces applications."

Les risques inhérents aux applications Photo IA :

Protection de la vie privée. Ces apps ont la capacité d’analyser et de traiter de grandes quantités de données personnelles, telles que bien entendu des images mais aussi des données de localisation. Ces données peuvent être utilisées pour créer des profils détaillés des utilisateurs, notamment leurs centres d’intérêts, leurs habitudes et leurs déplacements. Si ces données ne sont pas correctement protégées et sécurisées, elles peuvent être consultées et utilisées par des annonceurs ou des hackers. Cela peut entraîner des violations de la vie privée, des vols d’identité et d’autres formes de préjudice. En outre, les applications de photos alimentées par l’IA peuvent utiliser la technologie de reconnaissance faciale, qui peut être détournées à des fins néfastes comme la surveillance par exemple.

"Il est important que les développeurs de ces applications mettent en œuvre de solides mesures de protection des données et que les utilisateurs soient conscients des risques potentiels et prennent des mesures pour protéger leurs informations personnelles. Ne pas partager sa localisation quand cela n’est pas nécessaire est la première mesure qu’ils peuvent prendre d’ailleurs", commente Daniel Markuson.

Manipulation des données. Les applications photo IA stockent souvent des images et des vidéos sur des serveurs externes, ce qui les rend vulnérables aux attaques de hackers. Ces derniers peuvent accéder aux images et aux vidéos stockées sur ces serveurs et les modifier ou les manipuler à des fins malveillantes : diffamation, désinformation, manipulation de l’opinion publique, violation de la vie privée, etc.

Deepfake : le risque de fraude ou désinformation. D’après le chercheur américain en intelligence artificielle Alex Champandard, "Le principal danger est de voir arriver le moment où les humains ne pourront plus déterminer si ce qui se trouve sur une vidéo correspond à la vérité ou non".

En effet, ces applications peuvent être utilisées pour créer des images ou des vidéos deepfake. Et, en raison du réalisme toujours plus bluffant des images générées, les deepfakes peuvent constituer un puissant outil de désinformation destiné à nuire à l’adversaire, via la diffusion de fausses informations toujours plus convaincantes. Par exemple, peu après l’invasion de l’Ukraine par la Russie en février 2022, plusieurs vidéos deepfake sont apparues en ligne, montrant le président ukrainien en train de capituler. Plus la technologie deepfake sera sophistiquée, plus ces contenus deviendront difficiles à détecter.

Les deepfakes peuvent également être utilisés par les cybercriminels dans le but d’inciter les victimes à partager leurs informations personnelles. Par exemple, si vous recevez un simple message Facebook provenant d’un ami expliquant qu’il a besoin d’une aide financière urgente, cela peut éveiller vos soupçons. En revanche, une vidéo conçue pour imiter le visage et la voix de cette personne sera bien plus convaincante, et pourra rendre toujours plus efficaces les techniques d’ingénierie sociale.

Manque de transparence. Certaines apps peuvent ne pas être transparentes sur la façon dont elles utilisent et stockent les données des utilisateurs, ce qui peut rendre difficile pour les utilisateurs de comprendre les risques liés à l’utilisation de l’app et de pouvoir les atténuer.

"Je recommande d’utiliser des applications de développeurs connus et de maintenir vos applications à jour pour vous protéger contre les vulnérabilités déjà identifiées", indique Daniel Markuson. "Les utilisateurs doivent également lire les conditions de service et la politique de confidentialité avant de télécharger et d’utiliser une application."


Voir les articles précédents

    

Voir les articles suivants