Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Chris Komatas, Juniper Networks : Web 2.0, peut-on garantir la qualité de services aux utilisateurs ?

mars 2008 par Chris Komatas Directeur Marketing “Service Providers”, Juniper Networks

Véritable révolution dans le développement des applications et contenus sur Internet, le Web 2.0 a donné naissance à de multiples applications innovantes et à un contenu plus riche (vidéo, podcasts, blogs, RSS, wikis, etc.), combinables à l’infini.

Mais cette innovation technologique doit maintenant passer le test de l’expérience utilisateur, qui dépend d’un ensemble de facteurs liés au type de contenu, à l’application, aux matériels de connexion et au réseau lui-même.

Pour les fournisseurs d’applications et de contenus, leurs relations avec les utilisateurs est soumise à l’imprévisibilité des performances du réseau. Pour les opérateurs, les investissements en infrastructures réseaux pour éliminer les goulets d’étranglement sont le moyen le plus rapide d’accéder à des niveaux de performance supérieurs.

Augmenter la bande passante n’est pas la (seule) solution

L’augmentation de la bande passante reste encore insuffisante pour améliorer la qualité de service pour l’utilisateur. Si les technologies émergentes optimisent la capacité du réseau en limitant les points de congestion, elles n’offrent aucune garantie.

Une autre approche repose sur une interaction dans laquelle le réseau s’engage sur un niveau de performance en fonction des besoins de l’application. En bénéficiant d’un niveau de performance garanti, les fournisseurs de contenus et d’applications peuvent eux-mêmes garantir un niveau de qualité de service aux utilisateurs – synonyme de revenus supplémentaires et de réduction des coûts. Il est donc dans leur intérêt de collaborer avec les opérateurs de services réseaux pour optimiser l’expérience de l’utilisateur.

Théories de contes de fées

La première considère que le réseau a une capacité illimitée, conception qui se heurte à de cuisantes déceptions lorsqu’il s’agit de livrer les applications sur les réseaux réels, notamment sur Internet. La seconde estime que la performance du réseau est imprévisible. Un obstacle qui peut être contourné par des solutions reposant sur le téléchargement et le stockage de contenus (disque dur local, mémoire flash) ou sur des innovations au niveau du poste client (Flash ou AJAX).

Optimiser le réseau spécifiquement pour l’application ne donne pas toujours de résultats

Certains fournisseurs renforcent le contrôle du réseau pour des applications spécifiques (VoIP, IPTV). Cette approche ciblée reste complexe en raison de la multiplication exponentielle des applications. La conception actuelle des réseaux ne permet pas de prendre en charge les exigences spécifiques et multiples de chaque application soit en raison de la bande passante, du mode d’accès (ex : en situation de mobilité) ou des spécificités d’accès des terminaux.

Innovations sur le réseau : l’essor des réseaux « ouverts et agiles »

Une autre approche a vu le jour au cours des dernières années permettant aux réseaux IP de fournir des niveaux différenciés d’expérience en fonction de l’application grâce à l’ajout d’une couche « intelligente » – générant un « micro-SLA » pour chaque flux applicatif spécifique en fonction de multiples facteurs. Elle nécessite des interfaces ouvertes éprouvées (SOA, services Web, messages SOAP/XML ou Diameter pour IMS).

La collaboration au cœur d’une nouvelle vague d’innovation

Le traitement sélectif tend à créer des conflits entre les fournisseurs de contenus et de service réseau – et à limiter l’expérience utilisateur et les revenus associés. En permettant à n’importe quelle application de collaborer avec le réseau pour fournir une expérience appropriée, le nouveau modèle transforme ces conflits en partenariats avec un chiffre d’affaires optimisé pour tous les intervenants.

Mais il convient auparavant de régler certains détails commerciaux, notamment le recouvrement du chiffre d’affaires et sa répartition entre les fournisseurs d’applications et de contenus et les opérateurs. Différents partenariats peuvent ainsi être établis entre acteurs (ex : La Ligue Nationale de Football avec Canal+ et Orange en France ou NTTDoCoMo et l’écosystème de fournisseurs de contenus sur iMode au Japon)

Investir dans l’innovation

De multiples fournisseurs de services reconnaissent qu’il est particulièrement difficile de déterminer aujourd’hui les investissements les plus judicieux. Il s’agit de s’assurer que l’infrastructure offre des niveaux différenciés d’expérience à travers un contrôle des politiques et des identités (voir Figure 1). Pour être pérenne, cet écosystème doit inclure des partenaires très spécialisés sur différents domaines.

Figure 1. L’ajout d’un contrôle ouvert des politiques et d’identités
permet aux fournisseurs de bénéficier de performances spécifiques du réseau

Grâce à cette couche additionnelle, les opérateurs peuvent créer de nouveaux services directement ou en partenariat avec des professionnels hors Web. Le véritable challenge réside dans le passage à une collaboration « transversale ».

L’optimisation de l’expérience utilisateur profite à l’industrie toute entière

Cette approche permet aux utilisateurs de choisir parmi une large gamme de contenus et, pour une somme modique, d’augmenter temporairement leur débit (par exemple pour télécharger plus rapidement un film).

Il s’agit d’implémenter des interfaces ouvertes et une architecture SOA/services Web reliant les applications à forte valeur à la capacité du réseau, pour optimiser l’innovation, l’expérience utilisateur et les bénéfices sur toute la chaîne de création de valeur.


Voir les articles précédents

    

Voir les articles suivants