Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Le rôle de la surveillance face aux principales tendances informatiques

juillet 2022 par Fabien Pereira Vaz, Technical Sales Manager France chez Paessler AG

Face à l’évolution incessante de l’informatique, et les défis ainsi engendrés pour la direction informatique, la supervision doit s’adapter en permanence pour continuer d’assurer une sécurité optimale aux entreprises.

La surveillance, indispensable au cœur de toute stratégie de sécurité

Le sujet était au cœur des échanges lors du dernier Forum de la cybersécurité à Lille : l’invasion de l’Ukraine par la Russie s’accompagne d’une nette augmentation de la cybercriminalité et du cyberharcèlement qui préoccupe l’ensemble des acteurs de l’écosystème.

Si le modèle Zero Trust est actuellement très populaire, il est pourtant évident qu’il n’est pas la réponse universelle capable de répondre à l’ensemble des problématiques de sécurité : Des systèmes complexes, des coûts élevés et, last but not least, le facteur humain empêchent - et continueront d’empêcher - de rendre les systèmes absolument sûrs.

Pour autant, toute mesure qui rend un réseau un peu plus sûr est définitivement la bienvenue. A proprement parler, un outil de surveillance ne peut pas être considéré comme un logiciel de sécurité. Il représente néanmoins une brique importante du concept de sécurité globale : en surveillant le bon fonctionnement et les actualités des pares-feux et des antivirus, la surveillance est en mesure de détecter une activité inhabituelle au sein du réseau et ainsi éventuellement découvrir des attaques de logiciels malveillants. Elle joue également un rôle important dans le concept de confiance zéro, par exemple lorsqu’il s’agit de surveiller l’état des appareils.

Le cloud ? Hybride avant tout !

La crise sanitaire et l’explosion du télétravail ont accéléré la migration qui s’était engagée vers le Cloud. Dans un premier temps, la migration attendue de services et de systèmes vers le Cloud public a bien eu lieu – sans finalement représenter la solution idéale pour les entreprises, que ce soit en raison des questions de sécurité, des doutes quant à l’accès à des données sensibles lorsque celles-ci sont stockées dans d’autres pays, mais aussi des performances du réseau, sur lequel le service informatique ne peut pas intervenir. Et finalement, c’est le Cloud hybride qui est devenu la norme.

Que l’informatique soit sur site ou dans le Cloud, les solutions de surveillance jouent leur rôle. Pour les éditeurs, l’enjeu consiste à adapter en permanence leur plateforme et d’y intégrer sans cesse de nouvelles applications ou de nouveaux fournisseurs Cloud. Ainsi, les directions informatiques sont assurées de disposer à tout moment d’une vue d’ensemble et centralisée qui leur garantit la disponibilité et la performance globale de leur informatique.

IoT, IoMT & Industrie 4.0

Souvent marginaux et séparés de l’informatique, les équipements de production, les appareils médicaux ou les outils de gestion du bâtiment génèrent de plus en plus de données et la compétence en matière de transport, de stockage et de traitement des données relève désormais de l’informatique. Cette convergence, encore peu associée à l’informatique classique, à l’exception de la sécurité, constitue pourtant un enjeu majeur et affecte le champ d’action des équipes informatique.

Prenons l’exemple d’un hôpital : le médecin qui accède, sur son ordinateur portable, aux radiographies et aux données du patient, dépend de l’informatique qui gère le réseau et les données. Mais les équipes IT ont besoin d’un accès aux équipements médicaux, par exemple à l’appareil de radiographie, mais aussi au PACS (Picture Archiving and Communication System), le système d’archivage et de traitement des images. Se pose alors la question des accès et des autorisations. Une fois ce point résolu, la surveillance globale des environnements convergés permet aux directions informatiques d’identifier immédiatement où se situe le problème en cas de panne ou de dysfonctionnement (goulot d’étranglement).

Cela ne fonctionne naturellement que si la solution de monitoring peut surveiller à la fois les infrastructures informatiques et médicales – car dans le domaine médical, il n’existe pas de système de surveillance global. D’où l’enjeux, pour une solution de supervision transversale, d’intégrer les infrastructures médicales en prenant en charge les protocoles correspondants tels que DICOM (gestion des données d’imagerie) ou HL7 (gestion des données des patients).
Dans la même logique, des méthodes OPC UA ou des protocoles MQTT ou Modbus permettent de superviser les installations de production industrielle et les systèmes OT.

C’est ainsi qu’elle pourra offrir à la direction informatique, au sein d’un tableau de bord central, une vue d’ensemble complète des équipements et une analyse rapide des erreurs.

L’IA au service de la surveillance

Les opportunités et les possibilités entrevues autour de l’IA sont infinies. Nul doute qu’elle représente un enjeu quotidien de l’informatique de demain.

Bien sûr, l’IA peut jouer un rôle important dans la surveillance. Le monitoring rassemble des quantités gigantesques de données et la combinaison du cloud et de l’IA ou du Machine Learning est prédestinée à l’analyse de ces données et à la reconnaissance de modèles. Il peut s’agir d’identifier des anomalies, d’améliorer l’analyse des causes, d’étudier des tendances et améliorer la maintenance prédictive.

À ce jour seules quelques solutions de surveillance s’appuient sur l’IA, principalement pour garantir la sécurité ou la performance des applications sur la base d’une analyse avancée du trafic. A l’avenir, les solutions de surveillance à grande échelle deviendront certainement plus intelligentes, sous une forme ou une autre. Il conviendra toutefois de nuancer, au cas par cas, s’il s’agit vraiment de machine learning ou simplement d’algorithmes intelligents. Car au-delà de la terminologie et des slogans, seuls les résultats comptent. Le monitoring est un outil pratique qui s’inscrit dans la durée dont la tâche principale est de surveiller la performance et la disponibilité des technologies actuelles.

Software-Defined Everything

En passant du SDN (Software-Defined Networking) au SDx - Software-Defined Everything, l’intelligence s’est de plus en plus déplacée dans une couche logicielle et les avantages sont évidents : les appareils "plus bêtes" et donc moins chers sont configurés et contrôlés de manière centralisée, réduisant ainsi les coûts d’acquisition et d’exploitation.

Quelle conséquence pour la surveillance informatique ? En accédant à la couche logicielle des équipements, de nombreuses valeurs peuvent être obtenues. En parallèle, des facteurs supplémentaires tels que le matériel sous-jacent, le trafic et l’infrastructure environnante peuvent être surveillés à grande échelle, ce qui permet d’obtenir une image complète de l’ensemble de l’environnement SDx. Au final, le SDx n’a pas changé grand-chose et n’est finalement qu’un nouveau composant qui doit être intégré au sein d’une stratégie de surveillance globale.

En conclusion

Les nouvelles technologies ne sont pas adoptées à grande échelle en un temps record. Ce dont parlent aujourd’hui les analystes - et la presse – n’est mis en pratique généralement que le lendemain au sein de quelques entreprises … et les jours d’après dans la majorité d’entre elles. Garantir un soutien large et fiable aux technologies établies me semble donc clairement prioritaire. Avant de se tourner vers demain, une solution de supervision doit donc relever les défis d’aujourd’hui et répondre aux exigences actuelles des utilisateurs.


Voir les articles précédents

    

Voir les articles suivants