Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 

De la Théorie à la pratique











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Christophe Leblanc, Radware : La latence du réseau, l’ennemi silencieux de la qualité de service des entreprises et des opérateurs de communication mobile

juin 2010 par Christophe Leblanc, directeur technique EMEA de Radware

Les nouvelles applications comme l’IPTV, la VoIP, la diffusion vidéo sur appareil mobile, etc., sont très sensibles à la latence du réseau. Toute augmentation de temps nécessaire pour délivrer les paquets nuit à la productivité et la satisfaction des utilisateurs. Ce type d’application requiert une latence inférieure à 50 millisecondes. En effet, une simple hausse de 5 millisecondes représente une hausse de 10% de la valeur maximale autorisée et peut contribuer à une dégradation du service. C’est pourquoi les opérateurs de réseaux haut débit s’efforcent actuellement de réduire la latence du réseau et d’améliorer la qualité de service.

Retour aux racines

Considérée comme un « ennemi silencieux », la latence n’est pas un problème local dû à un seul périphérique ou une application, mais plutôt le résultat d’un effet cumulé, systémique, qui peut faire des ravages sur des réseaux en cas de non-intervention. Pour comprendre les origines de la latence, il faut porter un regard global sur le flux de traitement des transactions, couvrant les serveurs, réseaux et clients.

La faute aux serveurs ?

La latence peut apparaître au niveau des applications lorsqu’un grand nombre de demandes utilisateur surchargent le processeur ou bien requièrent des accès simultanés à la mémoire et aux disques. Plus le serveur reçoit de requêtes, plus il met de temps à traiter chacune d’entre elles individuellement. Une première réponse consistait en la mise en œuvre de ferme de serveurs de manière à limiter le nombre de requêtes par serveur et à offrir une évolution en performance via l’ajout de nouveaux serveurs.

Mais avec la virtualisation des serveurs, la donne change. La virtualisation permet certes aux entreprises de bénéficier d’une meilleure utilisation du matériel, une réduction des coûts et une meilleure agilité /flexibilité dans le déploiement de nouveaux serveurs, mais elle risque en contre partie d’avoir un impact négatif sur la latence car les ressources virtuelles accèdent toutes aux même ressources physiques...

Les réseaux en cause ?

La capacité actuelle des réseaux augmente, grâce à des liaisons Internet de capacité supérieure ainsi qu’à l’essor des normes 1GE, 10GE et aux ports toujours plus rapides qu’offre l’infrastructure réseau. En termes de latence, on n’observe aucune amélioration notable car la latence dépend des caractéristiques conjuguées des périphériques de l’infrastructure réseau globale.

Et quid du mode client ?

Nous constatons aujourd’hui l’existence d’un nombre croissant d’applications Web 2.0 et autres applications avancées complexes utilisant des technologies modernes (AJAX, JSON, ATOM, etc.) et appelant des API distantes. Une transaction n’est donc pas considérée comme terminée uniquement en termes de traitement serveur, car certaines tâches s’exécutent clairement sur le client (c’est-à-dire l’ensemble de différents objets présentés à l’utilisateur) ou intègrent plusieurs cadres ou volets dans une même fenêtre de navigateur qui appellent d’autres requêtes, ce qui peut accroître le temps d’exécution de la transaction et la latence.

Les meilleures pratiques pour réduire efficacement la latence

Plutôt que de reconnaître l’importance de mettre en place des réseaux à faible latence, on pourrait penser qu’une augmentation de la bande passante du réseau serait la solution. Pourtant, il est possible de réduire efficacement la latence et raccourcir le temps de réponse.

Pour ce faire, les experts de Radware recommandent les pratiques suivantes :

Déplacer les fonctions de traitement du serveur vers des périphériques dédiés

La latence résultant du serveur d’application, du système d’exploitation ou de la pile réseau peut être réduite considérablement en déplaçant les fonctions de traitement du serveur vers des périphériques dédiés, tels qu’un contrôleur de distribution d’applications (ADC). En déchargeant le traitement SSL et en délivrant le contenu mis en cache, les ADC diminuent le nombre de demandes que doit traiter le serveur, contribuant à la baisse de la latence globale au niveau serveur.

Déployer des outils d’optimisation, d’accélération applicative et jouer sur les services de proxy

L’utilisation de services d’accélération applicative comme la compression, la mise en cache et l’optimisation TCP est vitale pour réduire le volume du trafic transmis via le réseau. En particulier, pour les sites distants d’une entreprise et les utilisateurs, il est recommandé de déployer un contrôleur d’optimisation WAN (WOC) et des réseaux de diffusion de contenu (CDN) pour une plus grande proximité du contenu avec les utilisateurs, ce qui réduit la latence. De plus, une activation intelligente de services proxy, en général déployés dans des réseaux de contenus mobiles, qui ne concernent que des types ou des parties de trafic spécifiques, est l’élément clé de régulation de la latence. Contrairement à la navigation Web, la recherche de virus dans des vidéos ne présente aucun intérêt, la désactivation de certains proxys de contrôle pouvant alors réduire la latence et garantir la qualité de service vidéo.

En outre, il est fortement recommandé de déployer des périphériques d’infrastructure réseau à faible latence (par exemple, commutateurs, routeurs, pare-feu, contrôleurs de distribution d’applications) qui assurent une latence minime même dans des cas extrêmes de pics de trafic, indépendamment du débit, du nombre de transactions par seconde ou de la simultanéité de sessions, pour garantir la latence la plus basse.

Exploiter des technologies de client intelligent

L’exploitation de technologies permettant aux navigateurs clients d’exécuter une partie de la logique applicative permet d’éviter au niveau local de communiquer avec le réseau. En outre, le cache des données des applications sur des machines clientes et l’adaptation intelligente du contenu en fonction du terminal client (notamment pour les clients lents tels que les appareils mobiles) peuvent également réduire le traitement et en conséquence la latence. De plus, l’arrivée et l’adoption de nouveaux standards tels qu’HTML 5 devraient permettre de réduire l’utilisation de code propriétaire sur le poste client et favoriser ainsi un meilleur contrôle applicatif, donc un meilleur contrôle sur la latence.

La gestion de la latence et donc de la qualité de l’expérience ressentie par l’utilisateur (QoE) est un défi capital pour les années qui viennent, notamment à cause de l’avènement de la virtualisation et du cloud computing. Il est donc essentiel pour les entreprises de mettre en œuvre dès à présent les techniques et solutions actuelles permettant de contrôler la latence et de passer d’une logique de décision orientée débit à une approche basée sur les SLA où la latence est un indicateur de performance clef.




Voir les articles précédents

    

Voir les articles suivants