Akamai lance Content Protector
février 2024 par Marc Jacob
Akamai Technologies, Inc. annonce la mise en service de Content Protector, un produit qui neutralise les attaques d’extractions, sans bloquer la gestion du trafic en ligne, dont les entreprises ont besoin pour développer leurs activités.
Akamai Content Protector permet de détecter et de limiter les extracteurs de données produits volatiles, qui volent du contenu à des fins malveillantes. Il améliore les performances du site et l’expérience utilisateur et protège la propriété intellectuelle, tout en permettant des détections nettement meilleures et en réduisant le nombre de faux négatifs sans augmenter le taux de faux positifs. Le produit est conçu pour les entreprises qui ont besoin de protéger leur réputation et leurs revenus commerciaux générés par le trafic en ligne. La solution offre des détections personnalisées, et plus particulièrement :
• Une évaluation au niveau du protocole de sécurité : Protocol Fingerprinting vérifie la façon dont les visiteurs se connectent à votre site pour s’assurer de leur légitimité. Il évalue la façon dont le client établit la connexion avec le serveur au niveau des différentes couches du modèle OSI (Open Systems Interconnection), en vérifiant que les paramètres négociés correspondent à ceux attendus des navigateurs Web et des applications pour mobile les plus courants.
• Une évaluation au niveau de l’application : elle consiste à évaluer si le client peut exécuter une logique métier rédigée en JavaScript. Lorsque le client exécute JavaScript, les caractéristiques du terminal et du navigateur ainsi que les préférences de l’utilisateur sont collectées. Ces différents points de données sont comparés et recoupés avec les données au niveau du protocole pour vérifier la cohérence.
• L’interaction avec l’utilisateur : analyse les interactions des utilisateurs pour distinguer le trafic humain du trafic de bot. Évalue la façon dont les utilisateurs interagissent avec les terminaux tels que les écrans tactiles, les claviers et la souris, en identifiant les bots par leur manque d’interaction ou leurs habitudes d’utilisation anormales.
• Analyse du comportement de l’utilisateur : surveille le comportement des visiteurs sur votre site Web pour identifier les modèles inhabituels indiquant des bots.
• Capacité de classification des risques : cela consiste à fournir une classification précise et exploitable du trafic à faible, moyen ou haut risque, selon les anomalies détectées lors de l’évaluation.