Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Kaspersky plaide pour une utilisation responsable de l’IA : principes pour un développement et une utilisation éthiques de l’IA dans la cybersécurité

octobre 2023 par Marc Jacob

Kaspersky présente aujourd’hui ses principes concernant l’éthique dans le développement et l’utilisation de systèmes employant l’intelligence artificielle (IA) ou le machine learning (ML, apprentissage automatique), renforçant ainsi son engagement en faveur d’une approche transparente et responsable de l’innovation technologique. Les algorithmes basés sur l’IA jouent aujourd’hui un rôle de plus en plus important dans la cybersécurité, et c’est pourquoi Kaspersky cherche à s’assurer de la fiabilité de ses technologies basées sur l’IA.

Le livre blanc de Kaspersky sur le sujet vise à renforcer cette vision et à fournir des conseils aux autres acteurs de l’industrie concernant l’atténuation des risques associés à l’utilisation d’algorithmes IA et ML. Cette réflexion a été initiée par Kaspersky dans le cadre du Forum des Nations unies sur la gouvernance de l’internet, qui se tient actuellement au Japon.

Kaspersky utilise des algorithmes ML, qui sont un sous-ensemble de l’IA, dans ses solutions depuis près de 20 ans. La combinaison de la puissance de l’intelligence artificielle et de l’expertise humaine a permis aux solutions Kaspersky de détecter et de déjouer efficacement une multitude de nouvelles menaces émergeant chaque jour, avec l’aide du ML permettant d’améliorer considérablement la précision de l’identification des logiciels malveillants. Afin de stimuler le développement d’innovations éthiques, Kaspersky formule des principes éthiques concernant le développement et l’utilisation de l’IA et du ML, à destination de l’industrie pour encourager un dialogue multilatéral et s’assurer que l’IA est utilisée à bon escient.

Selon Kaspersky, le développement et l’utilisation transparents des technologies IA et ML doivent tenir compte des six principes suivants :

La transparence ;

La sécurité ;

Le contrôle par l’homme ;

La protection de la vie privée ;

L’engagement en faveur de la cybersécurité ;

L’ouverture au dialogue.

Le principe de transparence correspond à la conviction de Kaspersky que les entreprises doivent informer leurs clients de l’utilisation des technologies d’IA/ML dans les produits et services qu’elles leur proposent. Chez Kaspersky, nous respectons ce principe en développant des programmes d’IA/ML aussi interprétables que possible, et en partageant avec nos parties prenantes des informations sur la manière dont nos solutions fonctionnent et exploitent les technologies IA/ML.

Les considérations concernant la sécurité se reflètent dans un large éventail de mesures rigoureuses que Kaspersky met en œuvre pour garantir la qualité de ses systèmes d’IA/ML. Certaines de ces mesures comprennent des audits de sécurité spécifiques au ML et à l’IA, des étapes visant à limiter le rôle des données tierces dans le processus de formation des solutions pilotées par l’IA, et à favoriser les technologies ML basées sur le cloud avec les garanties nécessaires plutôt que les modèles préinstallés sur les ordinateurs des clients.

L’importance du maintien d’un contrôle par l’homme s’explique par la nécessité de calibrer le travail des systèmes d’IA/ML lorsqu’il s’agit d’analyser des menaces complexes, en particulier les menaces persistantes avancées (APT). Pour assurer une protection efficace contre des menaces en constante évolution, Kaspersky s’engage à maintenir le contrôle humain comme élément essentiel de tous ses systèmes d’IA/ML.

Un autre principe crucial est la garantie du droit au respect de la vie privée dans l’utilisation éthique de l’IA/ML. Le big data jouant un rôle essentiel dans le processus de formation de ces systèmes, les entreprises travaillant avec l’IA/ML doivent prendre en compte la vie privée des individus de manière globale. Engagée à respecter ce droit, Kaspersky applique un certain nombre de mesures techniques et organisationnelles pour assurer la protection des données et des systèmes, et veiller à ce que les droits de ses utilisateurs à la vie privée soient exercés de manière significative.

Le cinquième principe éthique traduit l’engagement de Kaspersky à uniquement utiliser les systèmes d’IA/ML à des fins défensives. En se concentrant exclusivement sur les technologies défensives, l’entreprise mène de front sa mission pour la construction d’un monde numérique plus sûr.

Enfin, le dernier principe fait référence à l’ouverture de Kaspersky au dialogue avec toutes les parties prenantes dans le but de partager les meilleures pratiques en matière d’utilisation éthique de l’IA. À cet égard, Kaspersky est prête à discuter avec toutes les parties intéressées, car l’entreprise estime que seule une collaboration durable entre toutes les parties prenantes permet de surmonter les obstacles, de stimuler l’innovation et d’ouvrir de nouveaux horizons.

Anton Ivanov, CTO de Kaspersky, a déclaré : « L’intelligence artificielle a le potentiel de donner de nombreux avantages au secteur de la cybersécurité, en renforçant la cyber-résilience de notre société. Mais, comme toute autre technologie se trouvant à un stade précoce de son développement, l’intelligence artificielle n’est pas exempte de risques. Pour répondre aux préoccupations liées à l’IA, Kaspersky a publié ses principes éthiques afin de partager ses propres bonnes pratiques en matière d’application de l’IA et de lancer un appel à un dialogue ouvert à l’ensemble de l’industrie dans le but d’élaborer des directives claires sur les considérations à prendre en compte pour un développement éthique des solutions basées sur l’IA et le ML. »

Kaspersky a présenté ses principes éthiques dans le cadre du Forum sur la gouvernance de l’Internet des Nations Unies, qui se tient actuellement au Japon, à Kyoto, du 8 au 12 octobre. L’IA et les technologies émergentes étant l’un des sujets clés des événements de cette année, Kaspersky a organisé un atelier pour discuter des principes éthiques du développement et de l’utilisation de l’IA, et a apporté des considérations techniques et juridiques à la discussion.

La publication du livre blanc sur ces principes éthiques s’inscrit dans le prolongement de l’Initiative Mondiale pour la Transparence (GTI) de Kaspersky, qui promeut les valeurs de transparence et de responsabilité applicables aux fournisseurs de technologies, en vue d’un monde plus résilient et sécurisé. Pour en savoir plus sur l’initiative et les principes de transparence de l’entreprise, demandez à visiter un des centres de transparence de Kaspersky.


Voir les articles précédents

    

Voir les articles suivants