Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 





















Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

D. Dalton, rapporteur sur le règlement antiterroriste, est sur le point d’autoriser la censure de masse

janvier 2019 par La Quadrature du Net

Daniel Dalton est député au Parlement européen (Royaume-Uni, ECR – Extrême-droite) et a été désigné rapporteur pour la Commission LIBE sur le règlement de censure antiterroriste (lire notre article sur le texte). Venant du Royaume-Uni, il ne fera plus partie du Parlement européen d’ici quelques mois, mais il compte auparavant laisser l’Union européenne sous-traiter la censure de l’Internet à Google et Facebook, détruire les autres acteurs de l’Internet et laisser à la police le pouvoir d’ordonner le retrait en une heure de contenus qu’elle juge illicite, et cela sans autorisation judiciaire.

Mercredi dernier, il a publié son projet de rapport – un texte sur lequel se basera le Parlement européen pour amender la proposition sécuritaire de la Commission européenne publiée en septembre dernier, proposition poussée par la France et l’Allemagne. Ce projet de rapport ne propose aucun vrai changement par rapport au texte initial. Peut-être que, nous laissant bientôt à notre sort, M. Dalton n’a rien à faire de ce règlement.

Ou est-ce vraiment le cas ?

Lors des derniers mois, Dalton a pourtant exprimé publiquement son opposition aux obligations de filtrage automatique qui résulteront de l’article 13 de la directive sur le droit d’auteur.

Il a ainsi clairement énoncé que « Les grands acteurs comme Google et Amazon auront la capacité de respecter les obligations qui leur seront imposées par le texte de la commission JURI sur l’article 13, c’est à dire de chercher des millions d’ayant-droits à travers le monde, de conclure avec eux des accords et mettre en place des logiciels sophistiqués de surveillance, ce que ne pourront peut-être pas faire des petites entreprises unipersonnelles à temps partiel. La mise en ligne de nombreux contenus légitimes sera automatiquement empêchée par ces logiciels de surveillance de contenu que les sites auront l’obligation d’installer. De nombreux utilisateurs ne contesteront pas ces décisions, ce qui constitue une entrave inacceptable à la liberté d’expression, ce qui serait un changement fondamental pour la nature de l’Internet tel que nous le connaissons aujourd’hui ». Alors pourquoi ferait-il aujourd’hui l’opposé ?

Il y a deux hypothèses.

Première possibilité : il n’a jamais été sincère et il travaille en réalité depuis le début pour Google. Google est contre l’article 13 ? Dalton l’est aussi. Google bénéficiera largement de ce règlement antiterroriste, car celui-ci détruira nombre de ses concurrents et le placera au centre du système de modération du Web ? Dalton défend ce texte. C’est une hypothèse très cynique et nous ne préférons pas y croire.

Seconde hypothèse : Dalton est sincère mais mal informé. Il n’a pas lu les lettres ouvertes signées par des dizaines d’acteurs de l’Internet ou les analyses que nous avons publié aux côtés de nombreuses autres organisations et associations (EDRi ou Mozilla par exemple). C’est assez crédible. Le seul changement que suggère Dalton dans son projet de rapport est d’indiquer que le règlement ne devra pas conduire à un filtrage automatisé des contenus. C’est en accord avec sa position sur la directive droit d’auteur. Mais il n’a pas encore réalisé que, malgré sa proposition, le cœur même du texte ne peut conduire qu’à une forme de censure automatisée.

Si les acteurs de l’Internet sont obligés de prévoir un point de contact disponible 24h/24 et 7 jours sur 7 pour répondre en moins d’une heure aux injonctions de retrait de la police (quelque chose toujours présent dans le projet de rapport), qu’est-ce que Dalton pense qu’il arrivera ? Très peu d’acteurs seront capables de retirer des contenus dans un tel délai. Et, de toutes façons, personne n’attendra calmement que la police les appelle. La plupart des acteurs ne pourront que déléguer la modération des contenus à d’autres entreprises. Lesquelles ? Il suffit, pour comprendre, de lire les communiqués publiés conjointement par la Commission européenne, Google et Facebook : ces entreprises prétendent être capables de détecter et de retirer des contenus soi-disant terroristes en une heure et la Commission explique que les petits acteurs devront désormais utiliser leurs outils1.

C’est plutôt simple : le but même de ce règlement est de forcer tous les acteurs de l’Internet à utiliser les outils développés par Google et Facebook depuis deux ans dans le cadre du Forum de l’UE sur l’Internet. La Commission européenne ne s’en est jamais cachée. Si Dalton est sincèrement opposé au filtrage automatisé et ne travaille pas pour Google, il devrait simplement retirer son projet de rapport et demander le rejet du règlement – ce texte n’étant d’aucun façon amendable ou améliorable.

Un premier vote sur ce projet de rapport est prévu pour le 21 mars. La Quadrature du Net rencontrera cette semaine des députés du Parlement européen et nous vous tiendrons au courant des retours du terrain.
« Les déclarations de M. Dalton ne semblent pas correspondre à ses actions. S’il est vraiment opposé au filtrage automatisé, alors pourquoi s’y oppose-t-il seulement quand il s’agit de la directive droit d’auteur et pas sur le règlement de censure antiterroriste ? Si vous êtes aussi intrigués que nous par le comportement incohérent de M. Dalton, n’hésitez pas à lui demander directement » suggère Martin Drago, chargé d’analyse juridique à La Quadrature du Net.


References
1.  ? Dès juin 2017, la Commission européenne se félicite publiquement « avoir travaillé depuis deux ans avec les plateformes clefs du Web au sein du Forum européen de l’Internet », qui regroupe Google, Facebook, Twitter et Microsoft depuis 2015, « pour s’assurer du retrait volontaire de contenus terroristes en ligne », notamment grâce à « l’initiative menée par l’industrie de créer une « base de données d’empreintes numériques » [« database of hashes »] qui garantit qu’un contenu terroriste retiré sur une plateforme ne soit pas remis en ligne sur une autre plateforme ».
Pour la Commission, déjà, « l’objectif est que les plateformes en fassent davantage, notamment en mettant à niveau la détection automatique de contenus terroristes, en partageant les technologies et les outils concernés avec de plus petites entreprises et en utilisant pleinement la « base de données d’empreintes numériques » » (toutes ces citations sont des traductions libres de l’anglais).


Voir les articles précédents

    

Voir les articles suivants