Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

De nouvelles données suggèrent que les responsables de l’informatique et de la sécurité ignorent les menaces générées par l’IA

octobre 2023 par ExtraHop® et Censuswide

ExtraHop® a publié The Generative AI Tipping Point, un nouveau rapport de recherche qui révèle que les entreprises ont du mal à comprendre et à résoudre les problèmes de sécurité liés à l’utilisation de l’IA générative par les collaborateurs.

Ce rapport, qui analyse les stratégies des organisations pour sécuriser et régir l’utilisation des outils d’IA générative, décrit la dissonance cognitive des responsables de la sécurité alors que la technologie devient de plus en plus un pilier du travail. Selon les résultats, 73 % des responsables informatique ou sécurité admettent que leurs collaborateurs utilisent parfois ou fréquemment des outils d’IA générative ou de grands modèles de langage (LLM) au travail, mais ils ne savent pas comment traiter les risques de sécurité de manière appropriée.

La sécurité n’est pas la priorité absolue

Lorsqu’on leur pose la question, les DSI et RSSI s’inquiètent davantage de recevoir des réponses inexactes ou absurdes (40 %) plutôt que des problèmes liés à la sécurité, comme l’exposition d’informations personnelles identifiables (PII) de clients et d’employés (36 %), l’exposition de secrets commerciaux (33 %) et les pertes financières (25 %).

Les interdictions de l’IA générative s’avèrent inefficaces

Près d’un tiers (32 %) des personnes interrogées ont déclaré que leur organisation avait interdit l’utilisation d’outils d’IA générative, une proportion similaire à celle des personnes très confiantes dans leur capacité à se protéger contre les menaces liées à l’IA (36 %). Malgré ces interdictions, seuls 5 % déclarent que les collaborateurs n’utilisent jamais ces outils au travail, ce qui indique que ces interdictions sont inefficaces.

Les organisations attendent plus de directives et de conseils - en particulier de la part du gouvernement

Bien que près des trois quarts (74 %) des entreprises interrogées aient investi ou prévoient d’investir dans des protections contre l’IA générative ou des mesures de sécurité cette année, les responsables de l’informatique et de la sécurité souhaitent davantage être guidés. Une majorité (90 %) des personnes interrogées souhaitent que le gouvernement intervienne d’une manière ou d’une autre, 60 % étant favorables à des réglementations obligatoires et 30 % soutenant des normes gouvernementales que les entreprises peuvent adopter à leur guise.

L’hygiène de base fait défaut

Plus de quatre répondants sur cinq (82 %) sont très ou assez confiants dans la capacité de leur système de sécurité actuel à se protéger contre les menaces des outils d’IA générative. Cependant, moins de la moitié ont investi dans une technologie qui aide leur organisation à surveiller l’utilisation de l’IA générative. En outre, seulement 46 % ont mis en place des politiques régissant l’utilisation raisonnable, et 42 % forment les utilisateurs à une utilisation sûre de ces outils.

Après le lancement de ChatGPT en novembre 2022, les entreprises ont eu moins d’un an pour évaluer pleinement les risques par rapport aux avantages des outils d’IA générative. Dans un contexte d’adoption rapide, il est important que les chefs d’entreprise comprennent mieux l’utilisation de l’IA générative par leurs employés afin qu’ils puissent ensuite identifier les lacunes potentielles dans leurs protections de sécurité pour s’assurer que les données ou la propriété intellectuelle ne sont pas partagées de manière inappropriée.

« Il existe une formidable opportunité pour l’IA générative d’être une technologie révolutionnaire sur le lieu de travail », a déclaré Raja Mukerji, cofondateur et Chief Scientist chez ExtraHop. « Cependant, comme pour toutes les technologies émergentes que nous avons vu devenir un élément essentiel des entreprises modernes, les dirigeants ont besoin de plus de conseils et d’éducation pour comprendre comment l’IA générative peut être appliquée dans leur organisation et les risques potentiels qui y sont associés. En associant l’innovation à de solides mesures de protection, l’IA générative continuera d’être une force qui fera évoluer des secteurs entiers dans les années à venir. »


Cette étude a été menée par Censuswide à l’automne 2023.


Voir les articles précédents

    

Voir les articles suivants