Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Protection des données – une prise de conscience nécessaire sur les usages de l’IA

janvier 2024 par Jérémie Schram, expert cybersécurité de WatchGuard Technologies

Le 28 janvier 2024 se tenait la journée européenne de la protection des données. L’occasion de faire le point sur les progrès de l’intelligence artificielle et les préoccupations qu’ils soulèvent. L’IA génère indéniablement des avantages et des progrès importants mais également des dangers inquiétants. Compte tenu de la prolifération généralisée des outils d’IA au cours de l’année écoulée, il est essentiel de sensibiliser le plus grand nombre et d’approfondir la compréhension des risques émergents de l’IA pour nos données. Au fur et à mesure que l’IA s’intégrera dans notre vie quotidienne - et y portera atteinte - elle aura des conséquences réelles sur nos droits en matière de données.

« Si c’est gratuit, c’est vous le produit »

L’une des règles de base qu’il ne faut pas oublier est que si un service est « gratuit », il est probable que vous et vos données en soyez le produit. Cette règle s’applique également aux outils d’IA. De nombreux services et outils d’IA, dont ChatGPT, utilisent un modèle similaire aux services de réseaux sociaux tels que Facebook et TikTok. Bien que vous ne payiez pas pour utiliser ces plateformes, vous les rémunérez en partageant vos données privées, que ces entreprises exploitent et monétisent par le biais du ciblage publicitaire.

De même, un service d’IA gratuit peut collecter des données à partir de vos appareils et stocker vos messages, puis utiliser ces données pour entraîner son propre modèle. Cela ne semble pas malveillant à première vue, mais c’est précisément la raison pour laquelle il est essentiel d’analyser les conséquences sur la vie privée du traitement des données récupérées pour former des algorithmes d’IA génératifs. Supposons par exemple que l’une de ces entreprises soit victime d’une cyberattaque ; les cybercriminels pourraient alors obtenir l’accès à vos données et les utiliser contre vous…

Comprendre ses risques et mettre en place une politique IA adaptée

Bien entendu, l’IA présente des avantages potentiels. En fait, de nombreux outils d’IA sont très puissants et peuvent être utilisés en toute sécurité moyennant des précautions appropriées. Les risques auxquels votre entreprise est confrontée dépendent donc des missions et des besoins spécifiques de votre organisation, ainsi que des données que vous utilisez.

Pour sécuriser les usages de l’IA dans l’entreprise, l’essentiel est de mettre en place une politique IA afin de définir les cas d’utilisation nécessaires dans votre organisation et de les encadrer. Une fois votre politique définie, l’étape suivante consiste à la communiquer, de même que les risques associés aux outils d’IA, aux employés. Mais il est important de continuer à réviser ou à modifier cette politique si nécessaire pour garantir la conformité avec les réglementations changeantes - et de s’assurer de la rediffuser régulièrement en interne.


Voir les articles précédents

    

Voir les articles suivants