Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 

De la Théorie à la pratique











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Wieland Alge, Barracuda Networks : Les 10 prédictions 2014 d’IDC prévoient l’avènement de la troisième plateforme informatique, mais elle représente un danger pour les entreprises

janvier 2014 par Wieland Alge, Vice Président Europe chez Barracuda Networks

Comme chaque année, IDC a publié ses 10 prédictions 2014 en matière d’informatique. On y apprend sans grande surprise que la quantité globale de data va continuer d’augmenter et que les appareils mobiles (Smartphones, tablettes) se vendront toujours aussi bien. Plus marquant encore, on y voit la montée en puissance de la « troisième plateforme informatique » qui s’apprête à rencontrer un grand succès en 2014 (15% de croissance, et 29% des dépenses totales en IT de 2014). [1]

Mais ce qui peut surprendre dans ce rapport est l’appellation « Troisième plateforme informatique » qui semble plutôt vague. Elle fait référence à plusieurs notions : « cloud, mobilité, social, big data » et, comme si cela n’était pas suffisant, la notion de « marché émergent » vient rendre la situation encore plus confuse.

Comparez cela aux notions de « mainframe-terminal » et de « Lan/internet - Client/serveur » qui définissent respectivement la première et la deuxième plateforme informatique, et vous comprendrez aisément le problème. Est-ce que cela signifie qu’IDC est en train de perdre la tête ?

Pas du tout ! Diverses études récentes confirment également que nous sommes face à un grand changement dans l’approche et la vision du secteur informatique. Jusque là, nous pensions en terme d’infrastructure : les serveurs, les performances des ordinateurs, le stockage et sa capacité, les bandes passantes, les réseaux, tout cela définissait l’informatique et nous nous attelions à utiliser ces outils et leurs technologies pour le bon fonctionnement de l’entreprise.

Toutes les tâches étaient faites sur cette infrastructure, de la plus banale action informatique à la plus compliquée. Les utilisateurs se sont habitués à l’existence d’une telle infrastructure, et surtout au fait qu’elle peut être abordable et adaptable aux besoins de chacun. L’attention se porte maintenant sur des questions plus abstraites : « Quelles types d’informations pouvons-nous extraire de nos datas ? », « peut-on vraiment travailler de manière efficace à distance ? », « peut-on juste utiliser des outils au lieu de les construire et de les gérer ? »

Cette notion de « troisième plateforme informatique » a donc un sens réel et peut être vue comme la prochaine étape d’une approche plus mature de la technologie.

L’enquête récente soulève cependant une énigme... Des questions plus audacieuses mènent forcément à des réponses plus exigeantes. La demande de performance, de disponibilité et de sécurité a considérablement augmenté, mais parallèlement les organisations ont également essuyé d’un revers de la main les logiques régissant la mise en place d’une « deuxième plateforme informatique ». La structure logique du réseau utilisé par les usagers et les applications est maintenant totalement différente de la structure « physique ». Les règles de sécurité basiques ne sont donc pas toutes appliquées.

Un grand nombre (parfois même la majorité) des collaborateurs d’une entreprise sont en dehors du réseau informatique traditionnel et utilisent des outils qui ne sont pas contrôlés et administrés par l’organisation. Utiliser des offres basées dans le cloud signifie que les données et les applications internes à l’entreprise sont physiquement en dehors de celle-ci.

Les méthodes de cyber-attaques modernes permettent aux hackers de littéralement « rentrer » dans le système physique d’une entreprise. Le challenge est donc pour les architectes d’infrastructure soucieux de la sécurité d’abandonner l’idée de connecter les tâches au déploiement physique.

Deux exemples marquants : le firewall périmétrique feu et le load balancer pour les applications internes.

La place physique du firewall périmétrique reste bien sûre la transition réseau entre le LAN et internet. Logiquement, la plus grande partie des usagers accédant à des données et applications internes le font par ce point. Par conséquent, il doit être simplement vu et utilisé comme un contrôleur de livraison d’applications

La place physique du load balancer se trouve toujours entre le réseau local d’une entreprise et ses serveurs dans les datacenters. Logiquement, ils doivent sécuriser ce point comme s’il s’agissait d’un réel périmètre puisque les attaques potentielles utilisent les utilisateurs ou leurs équipements auxquels on ne peut donc plus totalement se fier.

Certains ont tenté de créer de nouveaux termes pour désigner le réseau et les équipements de sécurité comme « Les passerelles de segmentation réseau » et autres termes semblables.

Nous assisterons peut être au succès d’une de ces suggestions, mais jusque là il est plus important de reconnaitre que, pour être efficaces, tous les outils de sécurisation réseaux doivent répondre aux challenges des trois plateformes informatiques : sécuriser, protéger et optimiser l’accès aux applications et aux données au moment voulu par l’utilisateur, mais aussi depuis le lieu et l’appareil informatique désiré.


[1] http://www.idc.com/getdoc.jsp?conta...




Voir les articles précédents

    

Voir les articles suivants