Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Une étude révèle qu’il est important de disposer d’une parfaite visibilité sur les réseaux complexes actuels

mai 2014 par Emulex

Emulex Corporation annonce les résultats d’une étude conduite auprès de 150 professionnels de l’informatique évoluant dans divers secteurs d’activité. Cette étude révèle leur attitude face à l’impact des réseaux de plus en plus grands et complexes pour leur surveillance, leur visibilité, leurs performances et celles des applications, la sécurité et la conformité. Cette étude, dirigée par Enterprise Strategy Group (ESG), confirme une augmentation de la complexité des réseaux actuels due à la consolidation des data centers, la virtualisation des serveurs / cloud privés, la virtualisation des couches de calculs, les nouvelles architectures applicatives et le passage au 10Gb Ethernet (10 GbE) ou à des débits plus élevés. Tous ces éléments nécessitent d’approfondir les moyens de surveillance sur les réseaux afin d’en améliorer l’administration et la maintenance. Il est important de noter que plus des deux tiers (69%) des sondés ont déclaré qu’ils s’attendaient à ce que toutes les requêtes de capture des données du réseau (y compris les métadonnées et les données au niveau du paquet) augmentent de façon significative, pour faire face aux besoins de toutes les équipes informatiques chargées de l’architecture du réseau, de sa sécurité, de sa conformité, des applications et de l’audit.

Les 150 professionnels qui ont participé à cette étude travaillent dans des industries variées (services financiers, services commerciaux, fabrication et négoce) et ont en charge l’évaluation, l’achat et la gestion de l’infrastructure réseau ainsi que les outils de surveillance et d’administration du réseau. Ils travaillent tous dans des entreprises employant plus de 1 000 personnes.

Principaux enseignements à retenir :

 Les défis de la performance des réseaux augmentent et sont liés à la taille, la complexité et la mobilité des environnements réseaux modernes. Le défi n°1 identifié par 43% des sondés est la surveillance/administration de la performance des réseaux entre les groupes de serveurs web, applicatifs et bases de données dans le data center. Le deuxième défi le plus cité est le maintien de bout en bout de cette performance vers les appareils connectés via les réseaux publics (42%) ou les WAN (Wide Area Networks) (35%). Ces défis sont le reflet d’un rapide changement de l’environnement marqué par des data centers centralisés et la mobilité croissante des collaborateurs, facteurs qui obligent à repousser les frontières de l’administration intégrale jusqu’à celle des appareils mobiles. Parmi les autres défis mentionnés, il faut citer la mise au point du réseau (33%), la fourniture d’une Qualité de Service (QoS) d’après le trafic ou l’application (27%) et la compréhension de la latence du réseau (27%).

 Les défis sécuritaires sont en hausse lorsqu’il y a un manque de visibilité sur ce qui se passe sur le réseau pour détecter et résoudre les incidents. Les défis le plus souvent cités sont : comment capturer le comportement du réseau pour détecter les incidents (38%), comment surveiller les flux pour détecter les comportements anormaux (35%), comment capturer et analyser les logs dans le réseau et les appareils de sécurité (29%) et enfin comment établir une référence de comportement normal du réseau (27%).

 Les entreprises se battent avec de nombreux outils de surveillance réseau pour capturer le trafic, et le nombre de ces outils augmente encore en 2014. Plus des deux tiers (60%) des audités s’attendent à ce que le nombre de requêtes pour capturer les données du réseau (y compris les métadonnées et les données au niveau du paquet) augmente de façon exponentielle. Les requêtes pour capturer les données du réseau sont maintenant initiées par les équipes en charge de l’architecture réseau, de la sécurité, la conformité, l’audit et des applications.

 Plus de la moitié des outils de surveillance des entreprises ne peuvent pas suivre l’augmentation du débit réseau en 10GbE. 54% des entreprises trouvent qu’elles ne peuvent pas faire face, parfois ou fréquemment, à la progression du débit ou laissent tomber des paquets.

"Cette étude met bien en évidence la raison pour laquelle les entreprises doivent pouvoir collecter et surveiller tout le trafic réseau : pour améliorer ses performances, la sécurité, la disponibilité et maintenir la conformité réglementaire", a déclaré Mike Riley, senior vice président et general manager de la division Endace chez Emulex. "L’impact des pannes et des incidents de sécurité sur les résultats de l’entreprise est très important et n’est pas près de diminuer. En mettant en place des architectures pour assurer une bonne visibilité sur leurs réseaux, les entreprises seront mieux préparées pour en assurer la performance, la sécurité et la conformité et pour réduire de façon spectaculaire les délais de découverte et de résolution des problèmes critiques".

"Malgré les défis auxquels doivent faire face les entreprises avec la croissance et la complexité grandissantes des réseaux, la nécessité de capturer les données qui y circulent n’a jamais été aussi cruciale. Les pannes de réseau sont un vrai désastre : d’abord le coût de l’indisponibilité (qui peut se compter en millions de dollars par heure), sans omettre le montant des ressources immobilisées pour identifier la source du problème", déclare Bob Laliberté, analyste d’Enterprise Strategy Group. "Les entreprises ont besoin d’avoir des solutions de surveillance efficaces qui leur permettront de maintenir une disponibilité sans faille de leurs réseaux face à l’augmentation de la complexité des data centers".


Voir les articles précédents

    

Voir les articles suivants