Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Quelles prédictions concernant la confidentialité des données en 2022 selon les experts Kaspersky ?

décembre 2021 par Kaspersky

Internet n’est plus, depuis longtemps, seulement un outil d’information, de conversation et de divertissement. La connectivité mondiale sous-tend les fonctions les plus fondamentales de notre société, telles que la logistique, les services publics et les services bancaires. Les consommateurs se connectent aux entreprises via des messageries instantanées et commandent leur repas en ligne, les conférences scientifiques se déroulent sur des plateformes de conférence virtuelles, le travail à distance est la nouvelle norme dans un nombre croissant de secteurs…

Tous ces processus ont des conséquences sur la vie privée. Les entreprises veulent une meilleure visibilité de l’activité en ligne de leurs clients pour améliorer leurs services, les gouvernements de nombreux pays font pression pour faciliter l’identification des internautes afin de lutter contre la cybercriminalité, et, les citoyens sont de plus en plus préoccupés par l’économie de la surveillance, le manque d’anonymat et la dépendance aux services en ligne.

Alors que les prédictions de 2021 se sont révélées, pour la plupart, être de réelles tendances cette année, les experts de Kaspersky pensent que sur cette même lignée, l’année 2022 devrait être marquées par :

1. Les BigTech donneront aux individus davantage d’outils pour contrôler leur vie privée – jusqu’à un certain point.

Les entreprises devant se conformer à des réglementations plus strictes et plus diverses en matière de protection de la vie privée dans le monde entier, elles offrent aux utilisateurs davantage d’outils pour contrôler leur vie privée lorsqu’ils utilisent leurs services. Avec plus de fonctionnalités, les utilisateurs expérimentés peuvent être en mesure de configurer leurs paramètres de confidentialité en fonction de leurs besoins. Quant aux personnes moins expérimentées en informatique, elles ne doivent pas s’attendre à ce que le respect de la confidentialité soit garanti par défaut : même lorsqu’elles sont légalement tenues de le faire, les entreprises dont les bénéfices dépendent de la collecte de données continueront à trouver des échappatoires pour inciter les utilisateurs à choisir des paramètres moins privés.

2. Les gouvernements se méfient de la puissance croissante des BigTech et de l’accumulation des données, ce qui entraînera des conflits - et des compromis.

Les gouvernements construisant leurs propres infrastructures numériques pour permettre à la fois un accès plus simple et plus large aux services publics et, espérons-le, plus de transparence et de responsabilité, ainsi qu’une connaissance plus approfondie de la population et un meilleur contrôle sur celle-ci, il n’est pas surprenant qu’ils montrent un fort intérêt pour les données concernant leurs citoyens qui circulent dans les grands écosystèmes commerciaux. Cela conduira à davantage de réglementation, comme des lois sur la protection de la vie privée, des lois sur la localisation des données et davantage de réglementation sur les données et le moment où elles sont accessibles aux forces de l’ordre. Le casse-tête de la confidentialité du scan CSAM d’Apple montre exactement à quel point il peut être difficile de trouver un équilibre entre le chiffrement et la vie privée des utilisateurs d’une part, et l’identification des comportements criminels d’autre part.

3. Le Machine Learning est certes formidable, mais nous allons entendre parler davantage de Machine unlearning.

Le Machine Learning moderne implique souvent la formation d’énormes réseaux neuronaux avec un nombre stupéfiant de paramètres (bien que ce ne soit pas tout à fait exact, on peut représenter ces paramètres comme les neurones du cerveau), parfois de l’ordre du milliard. Grâce à cela, les réseaux neuronaux ne se contentent pas d’apprendre des relations simples, mais mémorisent également des blocs entiers de données, ce qui peut conduire à des fuites de données privées et de matériel protégé par le droit d’auteur, ou à des reproductions de préjugés sociaux. En outre, cela conduit à une question juridique intéressante : si un modèle de Machine Learning a été formé à l’aide de mes données, puis-je, par exemple, en vertu du RGPD, exiger de supprimer toute influence que mes données ont eue sur le modèle ? Si la réponse est oui, qu’est-ce que cela signifie pour les industries axées sur les données ? Une réponse simple est qu’une entreprise devrait reformer le modèle à partir de zéro, ce qui peut parfois être coûteux. C’est pourquoi nous nous attendons à un développement plus intéressant, à la fois dans les technologies qui empêchent la mémorisation (comme l’entraînement privé différentiel) et celles qui permettent aux chercheurs de supprimer les données des systèmes déjà entraînés (machine unlearning).

4. Les individus et les régulateurs exigeront plus de transparence algorithmique.

Des algorithmes compliqués, tels que le Machine Learning, sont de plus en plus utilisés pour prendre des décisions nous concernant dans diverses situations, de l’évaluation du crédit à la reconnaissance des visages en passant par la publicité. Si certains peuvent apprécier la personnalisation, pour d’autres, cela peut conduire à des expériences frustrantes et à la discrimination. Imaginez un magasin en ligne qui divise ses utilisateurs en deux catégories, ceux qui ont le plus de valeur et ceux qui en ont le moins, sur la base d’un algorithme obscur de prédiction de la « valeur à vie » (LTV), et qui offre à ses clients les plus précieux un service d’assistance en ligne, tout en laissant les moins chanceux à un chatbot loin d’être parfait. Si vous êtes considéré par un ordinateur comme un client inférieur, voudriez-vous savoir pourquoi ? Ou, si on vous refuse une carte de crédit ? Un prêt immobilier ? Une transplantation rénale ? Comme de plus en plus d’industries sont touchées par les algorithmes, nous nous attendons à davantage de discussions et de réglementations sur l’explication, la contestation et la modification des décisions prises par les systèmes automatisés, ainsi qu’à davantage de recherches sur les techniques d’explicabilité du Machine Learning.

5. Grâce au travail à domicile, de nombreuses personnes deviendront plus conscientes de leur vie privée - avec l’aide de leurs employeurs.

Si vous avez travaillé à domicile en raison de la pandémie, il y a de fortes chances que vous ayez appris beaucoup de nouveaux termes informatiques : infrastructure de bureau virtuelle, mot de passe unique, clés de sécurité à deux facteurs, etc. Même lorsque la pandémie sera terminée, la culture du travail à domicile pourrait persister. Avec des individus utilisant les mêmes appareils pour leurs besoins professionnels et personnels, les services de sécurité des entreprises auront besoin d’un plus grand nombre d’utilisateurs soucieux de sécurité pour protéger ce périmètre plus large contre les attaques et les fuites. Cela signifie davantage de formations à la sécurité et à la protection de la vie privée - et davantage de personnes qui transposent ces compétences professionnelles, telles que l’utilisation du 2FA, dans leur vie personnelle.
Pour conclure, la vie privée n’est plus un sujet réservé aux geeks et aux cypherpunks, et nous constatons qu’elle est devenue un thème dominant du débat public, touchant aux sujets des droits de la personne et des droits de l’Homme, de la sûreté et de la sécurité, et de l’éthique commerciale. Ce débat, auquel participent la société, les entreprises et les gouvernements, devra déboucher sur plus de transparence, de responsabilité et d’utilisation équitable et équilibrée des données personnelles, et il faudra trouver des solutions à la fois juridiques, sociales et technologiques pour résoudre les problèmes les plus urgents en matière de vie privée.


Voir les articles précédents

    

Voir les articles suivants