Règlement antiterroriste européen : la censure d'Internet automatisée par les GAFA ?

Le règlement européen pour la prévention de la diffusion de contenus à caractère terroriste en ligne, dévoilé en janvier par la Commission européenne, devrait être adopté avant les élections européennes de mai. L'obligation pour les hébergeurs de retirer un contenu dans l'heure risque de créer une automatisation de la censure en ligne, qui se verrait alors massivement gérée par les géants du Net. Eclairage avec Olivier Iteanu, avocat spécialiste du droit de l'Internet.
Image
Loi antiterrorisme en ligne
(Commission européenne)
Partager6 minutes de lecture
"Appeler à contraindre indûment un gouvernement ou une organisation internationale à accomplir ou à s'abstenir d'accomplir un acte quelconque, ou à gravement déstabiliser ou détruire les structures fondamentales politiques, constitutionnelles, économiques ou sociales d'un pays ou d'une organisation internationale" : toutes ces actions sur Internet font partie de la définition du terrorisme inclue dans le nouveau règlement européen pour sa prévention en ligne, devant être bientôt voté.

Selon La Quadrature du net, cette définition très large du terrorisme pourrait englober à terme des mouvements sociaux contestataires — comme celui des Gilets jaunes — et mener à une censure automatisée de la contestation sur Internet. Un article du règlement est particulièrement pointé du doigt : celui permettant à une autorité administrative ou judiciaire d'imposer le retrait de contenus dans un délai d'une heure maximum (règle appelée la "Golden hour", ndlr) sans quoi une amende de 4% du chiffre d'affaires de l'hébergeur impliqué pourrait être appliquée. 

L'objectif d'éradiquer les appels au terrorisme sur Internet en Europe par des mesures techniques a été un cheval de bataille des gouvernements français et allemand depuis plus d'un an. Cette volonté commune d'Emmanuel Macron et Angela Merkel d'imposer une régulation et une censure de contenus Internet via les acteurs du réseau (plateformes, hébergeurs) est aujourd'hui aux portes du droit européen.

La décentralisation du réseau est-elle en passe de disparaître au profit des géants de la Sillicon valley, seuls à même d'appliquer les retraits de contenus en respectant la fameuse "golden hour" grâce à des intelligences artificielles de surveillance ? Les mouvements de contestation sociale pourraient-ils voir leurs contenus filtrés ou censurés par  Facebook et Google sous prétexte de rentrer dans le cadre de la définition large du règlement ? Nous avons questionné un spécialiste du droit numérique, Olivier Iteanu pour mieux cerner les enjeux — réels ou fantasmés — que fait peser le règlement pour la prévention de la diffusion de contenus à caractère terroriste en ligne en Europe. 

Les seuls appels au terrorisme sur Internet seront-ils retirés par les hebergeurs et les plateformes ou risque-t-on de voir aussi le retrait de messages contestataires ? 
 
Olivier Iteanu
Olivier Iteanu, avocat spécialiste du droit de l'Internet

Olivier Iteanu : Les choses peuvent aller très très loin avec la généralité des termes employés. C'est toujours le problème dans le cadre des directives européennes. Si les mots ont un sens, terrorisme ce n'est pas toujours ce que l'on pense. Le terrorisme c'est la politique de la terreur, mais qu'est-ce qu'une politique de la terreur ? Cela peut inclure plein de choses auxquelles on ne pensait pas. Les retraits, les suppressions de contenus par des acteurs privés, tout ça existe dans le droit européen depuis la directive de 2000 pour le commerce électronique, transposée en France dans la "Loi pour la confiance dans une économie numérique". On avait accepté ce principe là et on avait mis des garde-fous qui sont en train de sauter ici : il fallait que les contenus soient manifestement illicites, par exemple pour rentrer dans le cadre de la loi. Aujourd'hui c'est un système très complexe qui arrive avec ce règlement de suppression des contenus :  des signalements, des sanctions à la clef qui sont gigantesques et qui feront que les acteurs privés ne prendront pas de risques. Ils vont donc pratiquer l'autocensure, ce qui est un réflexe de survie. Il y a donc une nouvelle accélération, et comme toujours l'enfer est pavé de bonnes intentions : tout le monde est contre le terrorisme, mais l'effet qui va s'ensuivre peut être totalement dévastateur. 

Les autorités administratives ou judiciaires délèguent-elles une forme de régulation à des entités privées avec ce texte ? 
 

O.I : Tout à fait : délégation de la régulation, délégation de la puissance publique, délégation de police et même de justice. Il sera facile ensuite d'accuser ces acteurs d'Internet, les intermédiaires, de ne pas avoir fait les choses bien si des contenus terroristes se diffusent. C'est donc une déresponsabilisation de la puissance publique. Ce retrait intéresse peut être certains puisque chaque fois que la puissance publique se retire, la nature ayant horreur du vide, il y en a d'autres qui prennent la place. Ces autres là ont d'autres logiques que l'intérêt général, et c'est tout le problème. Je constate par ailleurs qu'on commence toujours par des sujets qui font consensus. La pédophilie, par exemple : le crime est aggravé en cas d'usage d'un réseau numérique —  et ce fut une première dans le droit. Tout le monde est d'accord qu'il faut lutter contre la pédophilie, mais à partir de ces sujets qui font consensus, c'est à chaque fois une perte de libertés qui survient ensuite. 

Visiblement, la règle de la "golden hour" n'est pas tenable pour les petits hébergeurs, coopératifs ou associatifs, et même parmi les "gros", seules des plateformes géantes comme Google ou Facebook sont capables de repérer et retirer aussi vite des contenus. Quels sont les risques si cette règle s'applique ? 

O.I : Il va se passer que les petites ou moyennes entreprises Internet, qui ont peu de moyens à mettre en face de telles contraintes vont faire du préventif pour ne pas avoir demain le risque d'une "golden hour" manquée, qui peut leur coûter cher. Faire du préventif ça veut dire faire de la censure et donc mettre des barrières et probablement limiter notre expression sur les réseaux. S'ils n'ont pas les moyens de le faire eux-mêmes, il y a des entreprises qui font de la modération, ça existe déjà, et étant des prestataires, elles se font imposer des règles de fonctionnement qui sont draconiennes. Donc pour les sous-traitants il est probable que ce ne sera pas une heure, mais peut-être 5 minutes. C'est une chaîne de pression qui risque de s'appliquer. De toute manière, une heure ce n'est pas raisonnable, on est hors-sol. On sait, avec la loi sur la confiance numérique d'il y a 15 ans, que les hébergeurs peuvent réagir, mais en 48 ou 72h, pas en une heure !

Y aurait-il d'autres pistes pour empêcher la propagation des appels au terrorisme sur Internet, moins problématiques en termes de libertés ? Ou bien vouloir réguler le réseau à ce niveau là est-il irréaliste ?

O.I : Il y a déjà énormément de textes qui s'appliquent. La loi sur la confiance numérique est équilibrée : le fournisseur d'accès ou l'hébergeur peut être pénalisé s'il ne retire pas un contenu, mais seulement si ce dernier est manifestement illicite et que l'acteur en avait connaissance. Avec le temps on a compris que les hébergeurs ne pouvaient pas faire le travail de la police. Sur les problèmes de droits d'auteur, les géants d'Internet sont extrêmement réactifs, par exemple. Ce règlement va donc très certainement pénaliser les petits hébergeurs et il est tout à fait possible que Facebook ou Google soient drastiques avec des mouvements de contestation comme celui des Gilets jaunes…