Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Safe Harbor 2.0 ou Privacy Shield : les enjeux de sécurité des données personnelles

mars 2016 par Axway

La Commission européenne et les Etats-Unis sont parvenus à un accord sur le nouveau régime devant succéder au Safe Harbor. De nouvelles garanties ont été apportées quant à la protection des données personnelles des citoyens européens qui sont transférées vers les Etats-Unis. Pourtant l’application de l’accord Safe Harbor 2.0 ou Privacy Shield pose à nouveau aux entreprises le délicat problème du suivi et du contrôle des flux de données intégrant des informations personnelles.

Pour de nombreuses entreprises et notamment les plus grands groupes disposant d’infrastructures IT complexes, l’enjeu réside dans la maîtrise du système d’information et des flux de données. Comment relever ce défi dans un monde hyperconnecté, où des centaines d’applications d’entreprise échangent des milliers d’information sous différents formats. D’autant qu’une partie des transferts de données et des échanges échappe désormais au contrôle des services informatiques (Shadow IT).

Un seul mot d’ordre : le contrôle. L’objectif : bénéficier en temps réel d’une vision consolidée des transferts de données.

Plusieurs étapes sont nécessaires pour placer son système d’échange de données sous contrôle.

Cartographier les échanges qui rentrent dans le cadre de l’accord Safe Harbor 2.0 et identifier les flux qui vont les supporter. Il peut s’agir de flux applicatifs ou d’échanges de données entre personnes, sous différents formats (messages, fichiers, flux http, .pdf...).

Structurer chaque flux et chaque échange et leur attribuer des règles de sécurité. Les mécanismes de transfert, de partage et de synchronisation doivent être associés à des droits utilisateurs régulièrement contrôlés. L’idéal serait de bâtir un référentiel des échanges à minima par grand type de flux (flux fichiers, flux messages, échanges via API Rest etc.) fournissant une vision consolidée de ce qui est exécuté et des droits utilisateurs associés.

Mettre en place un suivi des échanges afin de créer une piste d’audit permettant de retracer ce qui a été échangé, à quelle date et avec quel partenaire. Un suivi régulier permet d’analyser les manques et corriger les problèmes rencontrés (par exemple un fichier contenant des données en clair sur un serveur, un utilisateur créant un répertoire partagé non autorisé etc.)

Si les solutions de contrôle existent (ESB, MFT, EFSS, solutions de gestion des APIs...), qu’elles soient dans le Cloud ou « on premise », leur fragmentation créée des silos qui empêchent les directions informatiques de bénéficier d’une vision d’ensemble.

Le tumulte (justifié) autour du Safe Harbor aura des conséquences sur le long terme.
Nombreuses sont les entreprises qui vont devoir repenser leur infrastructure informatique et la rendre plus agile afin de garantir la protection des données. L’une des possibilités consiste à séparer, à l’avance et sur le plan technique, les infrastructures pour les différents pays ou les infrastructures utilisées pour les données avec divers niveaux de sensibilité. Les différentes parties d’un réseau peuvent être combinées les unes avec les autres sur des API afin que le niveau de sécurité le plus strict et les dispositions de conformité les plus complexes puissent être respectés, sous réserve d’une gestion efficace des API.


Voir les articles précédents

    

Voir les articles suivants