Dans cet article, Wikimedia France revient sur une année de campagne de plaidoyer au niveau national et européen. Faire exister la parole des plateformes communautaires telles que Wikipédia – parmi celles des Big Tech – n’est pas toujours facile. Et même si les législateurs et décideurs politiques reçoivent nos argumentaires et nos préoccupations généralement de façon positive, il y a encore un long chemin à parcourir afin que nos messages et initiatives prétendent être inscrits dans les textes qui façonnent et cadrent le numérique de demain.
Plusieurs projets de loi ont, cette année, impacté les projets Wikimedia et plus particulièrement Wikipédia. Sans entrer dans un inventaire à la Prévert, nous souhaitions revenir sur certains de nos combats que nous avons portés sans relâche, afin de défendre une vision d’un Internet libre et ouvert et de protéger les droits et libertés des utilisateur·rice·s en ligne.
Au niveau national 🇫🇷
1. Le projet de loi Principes Républicains ou « DSA à la française »
Contexte
Le projet de loi confortant le respect des principes républicains, originellement appelé « séparatismes », n’était pas destiné à réguler les plateformes numériques. En effet, ce texte avait pour objectif principal de « lutter contre l’islam radical et les séparatismes ». Mais les experts politiques ont fini par le qualifier de « fourre-tout », dans la mesure où le texte modifiait aussi bien des principes liés à la loi de 1901 sur les associations que ceux liés à la loi de 1905 sur la séparation des églises et de l’État que ceux liés à la régulation des contenus haineux en ligne..
La veille du premier examen à l’Assemblée nationale, le gouvernement a déposé un amendement de 9 pages (aujourd’hui article 42 dans le texte final), obligeant ainsi les plateformes numériques visées à l’article L111-7 du Code de Commerce, une panoplie d’obligations de moyens. C’était une pré-transposition du Digital Services Act (DSA) alors même que les discussions européennes étaient en cours et que la France, quelques mois avant appelait les gouvernements nationaux à ne pas réguler en amont de leur côté afin d’éviter des patchworks de lois nationales sur la question. Ironie quand tu nous tien…
Un travail de longue haleine
Durant les longs mois de débat sur cette désormais loi Principes Républicains, Wikimédia France a, avec l’aide de députés et de sénateurs, défendu la position des projets d’accès à la connaissance libre tels que Wikipédia. Une loi censée, à la base, réguler les « réseaux sociaux », les plateformes représentant « un danger systémique pour la nation », les plateformes faisant leur chiffre d’affaires sur des contenus haineux et/ou illégaux, a fini par réguler Wikipédia plus que d’autres acteurs problématiques et initialement visés, mais pourquoi ? Pourquoi Wikipédia est-elle plus régulée que les autres ? Pour la simple et bonne raison que le législateur se cantonne, encore une fois, à raisonner uniquement en termes de visiteurs uniques par mois, sans ajouter aucun critère qualitatif à sa réflexion, tels que la viralité de la plateforme par exemple ou son modèle économique.
Wikimédia France n’était pas farouchement contre cette loi, mais la non prise en considération de la diversité des plateformes sur Internet et notamment des plateformes communautaires est une grosse erreur de la part du gouvernement et des parlementaires. Une erreur qui, dans le futur, pourrait étouffer des Wikipédia ou des Reddit, et qui pourrait donc court-circuiter tous les modèles alternatifs – viables – et cela aux profits des Big techs.
Alors qu’est-ce que Wikimedia France a fait concrètement dans cette campagne de plaidoyer ?
Nous avons rencontré de nombreux parlementaires à qui nous avons exposé nos inquiétudes et problématiques, nous avons aussi été auditionnés par différentes commissions parlementaires. Nous avons pu, grâce à certain·e·s déposer des amendements à l’Assemblée nationale et au Sénat afin de pouvoir relayé la parole de la communauté wikipédienne francophone dans le débat public et exister dans l’hémicycle sur ces questions.
Ce texte de loi a été voté le 24 août dernier. Une consultation publique sur le décret d’application de l’article 42 a lieu, afin de déterminer certains détails pour l’application de la loi. Wikimédia France y a participé. Aujourd’hui la France a notifié cet article à la Commission européenne, qui a jusqu’au 12 janvier 2022 pour statuer. À défaut d’opposition de la part de la Commission ou d’un des États membres, le texte entrera en vigueur sur le sol français à ce jour. Le Conseil Supérieur de l’Audiovisuel (CSA), désigné comme régulateur, a encore quelques semaines pour édicter des recommandations à destination des acteurs concernés. L’association a déjà entamé des discussions avec le CSA qui devront être prises par la Fondation, responsable légale des projets, afin d’échanger sur l’implémentation concrète de la loi et sur ce qu’il faudra mettre en place pour être en conformité.
Pour aller plus loin
2. Le projet de loi relatif à la prévention d’actes de terrorisme et au renseignement ou « Loi Renseignement »
Le projet de loi relatif à la prévention d’actes de terrorisme et au renseignement porté par Gérald Darmanin et présenté au Parlement français le 28 avril dernier, s’inscrit dans une mouvance de surveillance de masse généralisée d’Internet, portant atteinte aux droits fondamentaux des utilisateurs en ligne.
Sans avoir initié de campagne de plaidoyer sur ce texte, Wikimédia France a pris, pour la première fois, position sur ces thématiques.
Ce que l’association a pointé du doigt, dans un article de blog datant du 31 mai 2021, est que cette loi entérine d’une part, une série de mesures sécuritaires héritées de l’état d’urgence de 2015 et de la loi de 2017 sur la sécurité intérieure et la lutte contre le terrorisme, et, d’autre part, pérennise et étend certains usages tels que les “boites noires”, boites chargées de détecter les menaces terroristes à l’aide des données de connexion des utilisateurs. Toutes ces dispositions vont à l’encontre de la vision libre d’Internet et respectueuse des droits fondamentaux qu’à l’association.
Une prise de parole inédite pour Wikimédia France
C’est à travers cet article de blog que Wikimédia France a pris publiquement, pour la première fois, la parole sur ces sujets sécuritaires. Dans la foulée du vote de cette loi, une consultation publique a – aussi – eu lieu portant sur différentes dispositions du texte. L’association a fait parvenir ses observations notamment au niveau de la question concernant la conservation des données pour les données chiffrées. Wikimedia France réclamait un réel garde-fou (Article 7), nécessaire à la protection des internautes en ligne et surtout incontournable quant à l’interprétation des plateformes concernées par cette disposition. En effet, selon cet article, les données ne doivent être conservées que dans la mesure où elles l’étaient déjà effectivement par la plateforme. N’étant pas le cas de Wikipédia, l’encyclopédie en ligne n’aura pas à conserver les données de ses utilisateurs, approche radicalement opposée avec son modèle.
Pourquoi l’association n’a pas fait « plus » ?
Tout d’abord, parce que les sujets sécuritaires et de surveillance ne sont pas intrinsèques au mouvement Wikimédia, mais parce que nous défendons une vision d’Internet précise, il nous paraissait important de pouvoir la réitérer auprès des décideurs publics. Ensuite, la procédure parlementaire ayant été « accélérée », cela nous a empêché de mettre en place une stratégie de plaidoyer dans les temps, l’association étant considérablement limitée par ses moyens humains.
3. Le sujet de la désinformation en ligne
Depuis le 22 décembre 2018, la France s’est dotée d’une loi contre la manipulation de l’information. Le texte fixe des obligations de moyens et de transparence pour mieux lutter contre la désinformation. Le législateur a confié au CSA le soin d’établir un bilan de l’application et de l’effectivité des mesures mises en œuvre par les plateformes pour lutter contre la diffusion de fausses informations.
Première particularité : la loi française ne prévoit pas de sanctions, le CSA procèdera par name and shame si les plateformes ne suivent pas ses recommandations.
Deuxième particularité : Les plateformes ont l’obligation de désigner un représentant légal. Il endosse alors la casquette d’interlocuteur référant, s’agissant du devoir de coopération avec le CSA. La Fondation Wikimedia n’a pu se conformer à cette obligation car elle n’a pas de salarié en France. C’est un bon exemple d’obligation de moyens faite sur-mesure pour des acteurs mondiaux qui emploient plusieurs milliers de personnes. Il est dommage qu’une loi contre la manipulation de l’information se retrouve in fine à pointer du doigt le meilleur élève de la classe. Malgré ce détail, les relations de travail avec le CSA sont très bonnes. Ils font tout pour s’adapter au fonctionnement atypique du mouvement Wikimedia.
Alors qu’est-ce que Wikimédia France fait sur ce sujet ?
Nous fluidifons les échanges entre le CSA et la Fondation Wikimedia. Dans certains cas nous répondons aux demandes d’audition de l’autorité indépendante ou nous renvoyons vers la Fondation lorsqu’elle est plus compétente. La manipulation de l’information est également un sujet sur lequel communique régulièrement l’association dans les médias, auprès d’autres institutions (Viginum, commission Bronner). Wikipédia étant devenue une source d’information colossale, les décideurs publics sont intéressés par le fonctionnement de l’encyclopédie, et par les règles édictées par les communautés qui donnent quotidiennement, à un français sur deux des sources fiables d’information.
Au niveau européen 🇪🇺
1. Le règlement européen contre la diffusion du terrorisme en ligne, ou « TERREG ».
Le règlement contre la diffusion du terrorisme en ligne est un règlement du Parlement européen et du Conseil de l’Union européenne, adopté le 28 avril 2021, dont la mesure phare oblige les plateformes Internet à retirer dans l’heure tout contenu à caractère terroriste notifié par les autorités.
Avec l’aide d’EDRi, Wikimédia France a fait une double campagne de plaidoyer, au niveau national et européen, afin de familiariser les personnes influentes sur ces questions aux risques que ce règlement représente pour Wikipédia. Alors oui, bien sûr, dans le fond, tout le monde est d’accord pour lutter contre les contenus terroristes en ligne, mais dans ce cas de figure, nous remettions en cause la manière dont était rédigé le règlement, notamment concernant les risques de censure, l’absence du contrôle du juge et la négligence des droits fondamentaux en ligne.
La première inquiétude réside dans l’obligation de retirer les contenus terroristes en 1h, impliquant, forcément, d’utiliser des outils automatisés de modération, comme des filtres algorithmiques de téléchargement. Or, nous savons bien aujourd’hui que ces pratiques se caractérisent par un profond manque de transparence de la prise de décisions automatisées. Il est impossible pour ces outils de différencier des propos terroristes à la satire, et entraîne donc potentiellement une suppression de contenus légaux et importants à la liberté d’expression et d’information.
La deuxième inquiétude que Wikimédia France et ses partenaires ont pointé du doigt, c’est le manque cruel de contrôle judiciaire indépendant. En effet, le règlement demande aux Etats membres de désigner – à leur discrétion – les autorités compétentes pour être investies des pouvoirs nécessaires de mise en œuvre du règlement. Chez Wikimédia France nous avons la conviction que seul un juge, les tribunaux ou une autorité administrative indépendante faisant l’objet d’un contrôle judiciaire devraient être investis de ce pouvoir. Seuls ces acteurs doivent être garants de nos droits et libertés fondamentales.
Le troisième et dernier point pour lequel l’association s’est battue concerne les injonctions de suppression de contenus transfrontalières. En d’autre terme, toute autorité compétente a désormais le pouvoir d’ordonner la suppression d’un contenu en ligne, hébergé n’importe où dans l’Union européenne (toujours dans un délai d’une heure). Ce qui signifie que n’importe quel Etat membre pourra étendre sa compétence d’exécution au-delà de son territoire, sans contrôle judiciaire au préalable donc, et sans tenir compte des droits et des personnes dans les juridictions concernées. Ce qui constitue un risque évident de détournement de cette mesure à des fins politiques, notamment dans les pays européens où l’état de droit n’est pas respecté.
Dû à des processus européens très flous, le texte n’a pas été voté en séance plénière par le Parlement européen et en vigueur en juin 2022. En effet, la procédure de deuxième lecture a exclu les représentants élus de la décision finale sur cette législation intrusive pour les droits de l’homme. Il a privé les citoyens de l’UE de voir si les membres du Parlement européen, le seul organe démocratiquement élu de l’UE, auraient accepté ces dispositions.
Alors qu’est-ce que Wikimédia France a fait concrètement ?
Nous avons participé, avec plusieurs autres organisations, à la rédaction d’une lettre ouverte recensant l’ensemble de ces points. Nous avons aussi réalisé une campagne vidéo où nous avons interrogé différentes personnalités afin d’avoir leurs avis sur ce texte et dans le but de faire changer d’avis les parlementaires européens. Enfin, nous avons fait publier une tribune rédigée par Thomas le Bonniec dans Libération, lanceur d’alerte dans l’histoire des écoutes Siri (l’assistant vocal d’Apple), et notre chargée de plaidoyer a été interrogée par David Dufresne dans son émission quotidienne Au Poste!
Pour aller plus loin
2. Le Digital Services Act ou « DSA »
Le DSA est une proposition de règlement, actuellement toujours en discussion, ayant pour objectif d’instaurer un nouveau cadre de réglementation pour les plateformes numériques dans leur dimension sociétale au niveau de la lutte contre la dissémination des contenus illicites ou préjudiciables.
Le mouvement Wikimédia accueille plutôt favorablement ce projet de règlement, mais s’inquiète, une nouvelle fois, de l’absence de reconnaissance des plateformes communautaires dans le texte. En effet, Wikimédia France et les autres acteurs du mouvement aimeraient travailler et vivre sur Internet où, pour chaque grand service en ligne à but lucratif, il y a également une alternative – tout aussi viable – axée sur la communauté. Le DSA aujourd’hui ne permet malheureusement pas cela.
Comme la loi « Principes Républicains », le texte est fait sur mesure pour les Big Tech, et il ne faudrait pas qu’à terme, à force de rédiger des textes pour un seul type de plateformes les projets tels que Wikipédia étouffent et soient court-circuités. Notre rôle dans ces discussions est de faire en sorte que les décideurs politiques réfléchissent à la manière dont il faut repenser ces textes pour essayer de remodeler notre espace numérique afin que les plateformes collaboratives ne soient plus l’exception. La réglementation devrait permettre aux gens de prendre le contrôle de leurs espaces publics numériques au lieu de les confiner à agir en tant que récepteurs passifs des pratiques de modération de contenu.
Qu’est-ce que fait l’association concrètement ?
Avec le FKAGEU, nos collègues à Bruxelles, nous avons organisé de nombreux rendez-vous avec des europarlementaires, mais aussi avec des députés et sénateurs français intéressés par ces questions. Nous avons aussi participé à diverses tables rondes sur ce règlement et nous avons été interrogés par des journalistes. Aujourd’hui, nous continuons de dialoguer avec des personnes influentes sur la question, que ce soit au niveau national ou européen.
3. Le règlement européen relatif aux injonctions européennes de production et de conservation de preuves électroniques en matière pénale, ou « E-evidence »
La Commission européenne a présenté le 17 avril dernier, une proposition de règlement ayant pour objectif de rendre « plus facile et plus rapide pour les autorités policières et judiciaires l’obtention de preuves électroniques (telles que des mails ou autres documents situés dans le cloud), nécessaires afin d’enquêter, de poursuivre et de condamner des criminels et des terroristes ».
Après lecture de cette proposition de règlement, il est apparu assez rapidement qu’aucune garantie concernant les libertés et droits fondamentaux en ligne n’avait été pensée. Ainsi, Wikimédia France, European Digital Rights (EDRi) et une large coalition représentant une diversité d’acteurs ont rédigé un recueil de scénarios visant à contribuer au débat européen sur ce texte et à montrer concrètement les dangers que le texte représente. Notre association et les 13 organisations qui ont co-écrit ce document, ont exhorté le Parlement européen et le Conseil de maintenir un niveau élevé de garanties concernant les libertés et droits fondamentaux au cours de leurs négociations.
Aujourd’hui, les débats continuent sur cette question, et même si aucune date n’a encore été décidée pour les prochains débats et les prochaines étapes, Wikimédia France continue sa campagne de plaidoyer à l’échelle nationale et européenne en rentrant des acteurs travaillant sur la question. Par ailleurs, nous avons rédigé une tribune que le journal Le Monde a publiée afin de pouvoir toucher un plus grand public, et notamment les contributeurs de Wikipédia sur ces questions.
À lire aussi : Les failles du règlement e-evidence
Coalition d’acteurs rejoint par Wikimédia France au cours de l’année 2021
- KeepItOn Coalition qui lutte contre les coupures d’Internet dans le monde
- TrackingAds Coalition qui œuvre contre les publicités ciblées en ligne
- European Digital Rights (EDRi) qui est un réseau collectif d’ONG, d’experts, de défenseurs et d’universitaires travaillant pour défendre et faire progresser les droits numériques à travers le continent européen.
- The Social Good Accelerator (SOGA EU) qui est un think & do tank ayant pour objectif de défendre les intérêts des acteurs de l’économie sociale et solidaire au niveau européen.
- FING qui est un Think & do tank portant la voix d’un “numérique ouvert, humain, et responsable”
Notre travail de plaidoyer vous intéresse ?