Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 
Les événements

PROGRAMME DES GSDAYS 28 JANVIER 2025

    











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Entrée en vigueur de la loi européenne sur l’Intelligence Artificielle - Commentaire de CyberArk

août 2024 par Shaked Reiner, chercheur principal en sécurité au CyberArk Labs

Aujourd’hui, le jeudi 1er août 2024, marque l’entrée en vigueur de la loi européenne sur l’Intelligence Artificielle ou IA. Cette nouvelle réglementation a pour but de réguler l’utilisation de l’IA sur l’ensemble du territoire européen. A cette occasion, Shaked Reiner, chercheur principal en sécurité au CyberArk Labs, livre l’analyse suivante :

« Même si la nouvelle loi encourage les pratiques fiables et sûres en matière d’IA, elle ne l’applique pas techniquement et n’élimine pas non plus tous les risques de sécurité que la technologie entraîne. Oui, les nouvelles lignes directrices offrent des conseils éthiques précieux, mais malheureusement les fournisseurs ne les suivront pas toujours, et les criminels agiront toujours en dehors des contraintes éthiques et légales. Les utilisateurs de l’IA ne peuvent pas compter uniquement sur les cadres réglementaires pour se protéger contre les cyberattaques, et ils ne peuvent pas non plus accorder trop de confiance aux systèmes d’IA qu’ils utilisent.

La politique d’OpenAI, par exemple, stipule que ChatGPT recueille presque toutes les informations possibles auprès des utilisateurs pour aider à maintenir et à améliorer les services en affinant les modèles existants. Cependant, en raison de la nature complexe de ChatGPT et de notre compréhension limitée des raisons pour lesquelles les LLM en général fonctionnent comme ils le font, il est presque impossible d’identifier comment un certain élément d’information est utilisé. Cette opacité signifie que même si OpenAI sera désormais soumise à la loi européenne sur l’IA et aux règles éthiques qui l’accompagnent, les utilisateurs ne peuvent pas vraiment faire confiance à OpenAI pour ce qui est de leurs données privées. Les LLM sont très susceptibles d’être manipulés, les utilisateurs doivent donc rester extrêmement prudents et ne jamais partager d’informations secrètes telles que des mots de passe, des informations financières ou des identifiants personnels avec ces outils. »


Voir les articles précédents

    

Voir les articles suivants