Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 
Les événements

PROGRAMME DES GSDAYS 28 JANVIER 2025

    











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

42,5 % des tentatives de fraude sont désormais basées sur l’IA : les institutions financières s’empressent de renforcer leurs défenses

octobre 2024 par Signicat

À mesure que les cybercriminels se tournent de plus en plus vers l’intelligence artificielle pour exécuter des manœuvres frauduleuses complexes, le secteur financier se retrouve dans une bataille pour protéger ses clients et ses actifs. De nouvelles données issues du rapport Battle Against AI-Driven Identity Fraud de Signicat révèlent que la fraude basée sur l’IA constitue désormais 42,5 % de toutes les tentatives de fraude détectées dans le secteur des finances et des paiements, ce qui marque un tournant décisif pour la cybersécurité dans l’industrie financière. De plus, on estime que 29 % de ces tentatives réussissent.

Ce rapport souligne l’expansion rapide de la menace que représentent les tactiques de fraude renforcées par l’IA, notamment l’utilisation de deepfakes, d’identités synthétiques et de campagnes de phishing sophistiquées. Ces techniques avancées permettent aux fraudeurs d’opérer à une échelle et à un niveau de sophistication sans précédent.

Tendances actuelles de la fraude utilisant l’IA
• 42,5 % des fraudes détectées sont liées à l’IA : près de la moitié des tentatives de fraude sont désormais basées sur l’IA, ce qui démontre la sophistication et la prévalence croissantes de ces attaques.
• Augmentation de 80 % des tentatives de fraude en général : le secteur financier a connu une augmentation de 80 % des tentatives de fraude au cours des trois dernières années, notamment en raison de l’adoption de l’IA par les cybercriminels.
• Seulement 22 % des entreprises ont mis en œuvre des défenses basées sur l’IA : Malgré la montée des risques, moins d’un quart des institutions financières ont pris des mesures pour mettre en œuvre des mesures de prévention de la fraude basées sur l’IA, exposant ainsi une vulnérabilité importante.

Une réponse faible : les institutions financières en retard dans leurs défenses contre l’IA
Face à ce paysage de menaces en constante évolution, les institutions financières sont de plus en plus conscientes que les défenses traditionnelles s’avèrent insuffisantes contre les attaques pilotées par l’IA. Le rapport, réalisé en collaboration avec Consult Hyperion, invite les entreprises à adopter des systèmes de détection basés sur l’IA, à améliorer les cadres de cybersécurité et à favoriser une plus grande collaboration au sein de l’industrie afin de garder une longueur d’avance sur les techniques de fraude en constante évolution.
Selon le rapport 2024 State of Bot Mitigation de Kasada, 87 % des personnes interrogées déclarent que leur équipe de direction est préoccupée par les attaques de bots et les fraudes basées sur l’IA. Cependant, le rapport de Signicat révèle que les trois quarts des entreprises interrogées déclarent ne pas disposer de l’expertise, des ressources et du budget nécessaires pour faire face à la fraude identitaire induite par l’IA. Cela suggère que les entreprises du secteur financier ne sont pas préparées à cette menace.

Manque de connaissances : les entreprises financières peinent à suivre le rythme
« Les entreprises mettent naturellement en place des mécanismes de défense contre les fraudes à l’identité basées sur l’IA, mais la menace ne cesse de croître. L’accélération de la numérisation à laquelle nous assistons ces dernières années a également rendu les attaques plus sophistiquées et exécutées à grande échelle. Les mécanismes qui fonctionnaient il y a quelques années ne sont plus suffisants et il est urgent que les entreprises envisagent une approche sur plusieurs niveaux, combinant, par exemple, les identités électroniques avec une analyse des risques et, si nécessaire, des mesures de renforcement. C’est la seule façon de trouver le bon équilibre entre la possibilité de laisser passer les utilisateurs légitimes avec moins de frictions et d’introduire des mesures de sécurité supplémentaires en cas de risque », déclare Pinar Alpay, Chief Product & Marketing Officer chez Signicat. « Étant donné que l’usurpation de compte est l’une des formes les plus courantes de fraude à l’identité, des solutions d’identité numérique solides et sécurisées protègent également les utilisateurs finaux et leurs comptes lorsqu’ils se connectent ou signent des documents ».

Le rapport souligne la nécessité d’une approche de cybersécurité proactive et multicouche qui intègre l’IA aux mesures de sécurité traditionnelles. Il souligne également l’importance de sensibiliser les employés et les clients aux nouvelles menaces posées par l’IA dans le paysage changeant de la cybercriminalité.


Voir les articles précédents

    

Voir les articles suivants