Le mardi 25 avril 2023 a été un jour important dans l’histoire de Wikipédia : la Commission européenne a désigné Wikipédia comme une “Very Large Online Platform” (VLOP) en vertu de la nouvelle loi sur les services numériques (EU DSA).
La désignation VLOP, n’est pas basée sur leur risque intrinsèque, mais plutôt sur la taille de leur lectorat. Wikipédia est l’une des 19 plateformes les plus importantes, avec Facebook, LinkedIn, TikTok, Twitter, Google Search et YouTube, qui attire plus de 45 millions d’utilisateurs actifs chaque mois dans l’Union européenne (UE).
Le DSA impose un large éventail d’obligations aux plateformes, aux moteurs de recherche et aux magasins d’applications de toutes tailles. Tous les projets Wikimedia sont couverts par ceux-ci. La poignée de services qui sont désignés comme VLOP – dans notre cas, uniquement Wikipedia – sont confrontés à des obligations supplémentaires et à des délais de mise en œuvre plus courts. En annonçant la liste initiale des VLOP, le commissaire européen chargé du marché intérieur, Thierry Breton, a déclaré : “A grande échelle, grande responsabilité.”
Digital services Act et conséquences
Le Digital services Act est entré en vigueur en 2022, et nous la mettons en application avec quelques modifications nécessaires des conditions d’utilisation– ainsi que d’autres qui ne sont pas liées au DSA et qui font l’objet d’une consultation communautaire depuis février 2023 .
À court terme, nous prévoyons d’inclure davantage de données dans les futurs rapports de transparence et d’apporter quelques modifications procédurales à la façon dont nous traitons les actions du bureau (c’est-à-dire de rares cas où la Fondation prendra elle-même une mesure de modération de contenu, plutôt que la communauté ne le fera ainsi), et recevoir les plaintes.
À partir de fin août de cette année, le statut VLOP du DSA impose des obligations de « risque systémique et atténuation » (SRAM) pour Wikipedia. Il faudra donc un examen annuel et honnête pour déterminer si Wikipédia contribue ou non à des risques systémiques dans l’UE (par exemple, la désinformation électorale) et si le mouvement Wikimedia fait sa part de manière adéquate pour les atténuer.
Pour l’instant, nous espérons baser fortement cette évaluation sur le travail existant d’évaluation de l’impact sur les droits de l’homme, la rapidité raisonnable régulière en matière de droits de l’homme pour des caractéristiques spécifiques ou des changements de politique, et la prochaine évaluation de l’impact sur les droits de l’enfant. Ce dernier point est opportun : la sécurité des jeunes en ligne est un sujet d’actualité dans toute l’Europe et dans d’autres endroits du monde en ce moment.
Pour la plupart, nous prévoyons que les actions déjà en cours – tant au niveau de la communauté qu’au niveau de la Fondation – nous aideront à démontrer le niveau de responsabilité nécessaire qui accompagne le statut VLOP. La nécessité pour notre mouvement d’apporter d’autres changements (c’est-à-dire d’introduire et/ou d’affiner certaines mesures d’atténuation des risques systémiques) dépendra de la manière dont la Commission européenne considère que nous traitons ces risques. Dans le cadre de la loi, notre conformité sera également auditée de manière indépendante, une fois par an, à partir de 2024, ce qui commencera à nous donner une meilleure idée de ce sur quoi nous devrions concentrer notre attention au cours des prochaines années.
Comme pour tout ce qui concerne Wikimedia, l’initiative et l’autonomie de la communauté restent absolument essentielles pour relever le défi. Nous écouterons certainement les suggestions de la communauté sur les risques importants et sur la meilleure façon de donner à l’ensemble du mouvement les moyens de les résoudre.
D'autres pays peuvent-ils adopter une loi sur le numérique ?
Nous observons une tendance mondiale, motivée principalement par les préoccupations concernant l’impact des médias sociaux sur la société, à introduire des lois similaires.
Mais mal construites, ces nouvelles lois peuvent être une menace pour le mouvement Wikimédia. Certains pays utilisent déjà ces lois comme couverture pour des ordonnances de blocage de contenu à motivation idéologique, violant les droits fondamentaux à la fois des plateformes et de leurs utilisateurs. D’autres peuvent avoir des intentions plus nobles, mais imposent des charges de conformité bureaucratiques exigeantes et très localisées qui pèsent lourdement sur les organisations aux ressources limitées. Cela pourrait rendre plus difficile la concurrence avec les grandes sociétés technologiques à but lucratif du Web.
Notre espoir est que les législateurs qui réfléchissent à de telles lois imiteront les rédacteurs du DSA en écoutant les préoccupations des communautés Wikimediennes et en tenant compte du modèle distinct de Wikimedia. Contrairement à d’autres lois et propositions de loi, le DSA n’applique pas une approche “taille unique” aux plateformes Internet. Il préserve également, à la base, le paradigme très important de notification et de retrait pour la responsabilité des intermédiaires, plutôt que de forcer l’opérateur de la plate-forme à analyser et bloquer systématiquement le contenu généré par l’utilisateur qui peut être illégal dans certaines juridictions. Le modèle de notification et de retrait a bien servi l’Europe pendant plus de 20 ans, et il a fonctionné efficacement aux États-Unis pour gérer les réclamations de droits d’auteur sans perturber notre mouvement. La notification et le retrait restent fondamentaux pour l’émergence et la survie de projets comme le nôtre. Les éditeurs bénévoles et les communautés doivent être les principaux décideurs, plutôt que de forcer indûment les opérateurs de la plateforme – dans notre cas, la Fondation – à jouer un rôle de type Big Brother.
Surtout, et grâce en partie aux efforts de l’équipe Global Advocacy de la Fondation et de Wikimedia Europe (anciennement connu sous le nom de FKAGEU ou Free Knowledge Advocacy Group EU), les règles du DSA sont conçues pour reconnaître la différence entre les décisions de modération prises par les opérateurs de plateforme et les règles appliquées par les communautés de volontaires. Cette compréhension est essentielle pour préserver les libertés des communautés d’agir et de se gouverner avec une ingérence limitée de la part de l’opérateur de la plateforme.
Pour ces raisons, nous sommes d’accord avec bon nombre des prémisses fondamentales du DSA. Les plateformes Internet doivent :
- respecter et protéger les droits de l’homme de tous ceux qui les utilisent, qu’il s’agisse de rechercher des faits de temps en temps ou de contribuer à des centaines de milliers de modifications sur une variété de sujets. Les plateformes;
- mener des évaluations des risques afin de pouvoir comprendre et prévenir les dommages potentiels.
- être transparentes avec le public sur la manière dont le contenu est modéré, amplifié et/ou ciblé. Les règles de la plate-forme doivent être définies et appliquées de manière équitable et responsable;
La Fondation et de nombreux affiliés de Wikimedia ont pris des engagements forts en matière de droits de l’homme, et nous donnons la priorité au travail avec les communautés Wikimedienne pour assurer la sécurité et l’inclusion de tous ceux, partout, qui souhaitent accéder ou partager des connaissances gratuites.
Que peuvent faire les Wikimédiens maintenant ?
- Que pensez des changements que nous sommes tenus d’apporter,
- Comment ils vous affectent
- Quel impact vous pensez qu’ils ont sur votre communauté et la société au sens large.
Phil Bradley-Schmieg
conseiller juridique détaché auprès de la Fondation Wikimédia