Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Tony Bishop, Equinix : Le rôle du Fog computing dans l’Internet of Things

septembre 2016 par Tony Bishop, Vice-Président Stratégie Globale et Marketing chez Equinix

Le « fog computing » est un concept qui attire de plus en plus l’attention. Aujourd’hui, et à l’heure où de plus en plus d’entreprises se rendent compte de ses avantages, une variété de solutions sont désormais présentes sur le marché. Dans son dernier rapport Stratecast baptisé « The Fog Rolls In : Network Architectures for IoT and Edge Computing », Frost & Sullivan apporte quelques éclaircissements sur le concept du fog computing, les applications s’appuyant sur cette architecture et les différentes façons de le mettre en œuvre.

Le « fog computing », ou informatique géodistribuée, est un terme introduit par Cisco en 2013 pour décrire un regroupement de ressources de calcul et réseau destinées à prendre en charge (sans s’y limiter) l’Internet des Objets (IoT). Il existe d’autres scénarios où d’importants volumes de données et des questions de latence peuvent justifier l’utilisation d’une architecture de fog computing. C’est notamment le cas lorsque des données sont censées déclencher une action locale soumise à des contraintes de temps (comme lorsque des systèmes d’extincteurs automatiques sont déclenchés par des détecteurs de chaleur).

Les charges de travail du fog computing sont réparties entre environnements locaux et cloud, où différents « objets » (des dispositifs équipés de capteurs et connectés à un réseau) transmettent des données à des nœuds déployés localement en « périphérie » (d’où le concept du brouillard, ou « fog »), au lieu de communiquer directement avec le cloud. Un sous ensemble de données (pour lesquelles la rapidité de transmission n’est pas un élément critique) est alors transféré des nœuds d’extrémité vers un cloud centralisé ou un datacentre, afin de procéder à des analyses et traitements supplémentaires. En plaçant certaines fonctionnalités analytiques à proximité de la source des données, les architectures « en brouillard » ou de périphérie peuvent réduire le volume de données circulant sur le réseau, minimisant ainsi la latence et les coûts.

Le fog computing existe avant tout en réponse à une problématique relevant de la physique. Compte tenu du trafic massif de données généré par des millions d’appareils connectés et intelligents, leur circulation jusqu’à leur point de destination (en passant par de nombreux réseaux, et via un Internet public n’offrant aucune garantie) comporte d’innombrables risques de congestion de données et de délais (latence) affectant les performances. Cette méthode ouvre également la voie à la perte de données ou aux cyberattaques. Le fog computing permet d’éviter un tel scénario en divisant les opérations de gestion de ces données entre l’extrémité du réseau et le cloud.

Différentes approches en matière de fog computing

Selon les prévisions de Stratecast, les entreprises s’appuieront sur les offres de sociétés leaders (fournisseurs de services réseau et cloud, fournisseurs de plateformes et autres éditeurs de solutions informatiques) afin de proposer des outils et services de fog computing pouvant être déployés plus facilement et de façon plus rentable. Les fournisseurs de services réseau, cloud et de systèmes travaillent main dans la main pour créer des solutions associant des équipements d’extrémité (plateformes de connectivité réseau, de traitement, de sécurité, de gestion et d’analyse) à des logiciels (de gestion, de supervision, de sécurité et d’analyse) utilisant des normes ouvertes. Cette approche permettra d’aboutir à un partage et un traitement sans accroc des données entre les équipements de périphérie et le cloud.

Le fog computing étant une infrastructure et non un produit en soi, beaucoup d’entreprises ont tenté de mettre en place le leur de par leurs propres moyens. Elles ont alors été confrontées à une grande complexité, ainsi qu’à la nécessité de se procurer des ressources supplémentaires et d’investir financièrement pour réussir leur implémentation. C’est ainsi qu’émergea le besoin de services de fog computing gérés, avec un fournisseur de services tiers déployant et gérant les nœuds pour les entreprises. Stratecast prévoit également l’émergence d’une demande en faveur d’un fog computing à « trois tiers » (ou trois niveaux), où les clients pourront choisir des serveurs et des ressources de stockage hébergés en un seul point, et réduire leurs coûts en partageant d’autres ressources (comme leurs plateformes d’analytique).
Un grand nombre de problématiques d’entreprise en matière de fog computing sont similaires à celles rencontrées lors du déploiement d’architectures de calcul et réseau performantes ne se limitant pas nécessairement à la prise en charge de l’Internet Of Things.


Voir les articles précédents

    

Voir les articles suivants