Digital Rights are Charter Rights (French translation)

Page 1


Digital Rights are Charter Rights

Digital Rights are Charter Rights

Versión original en inglés. Traducido al español por Nafsika Petkou

Developing Information, Guidance, and Interconnectedness for (Charter) Rights Integration in Strategies for Enforcement

Éditorial

Alexandra Giannopoulou, Digital Freedom Fund

Article 11: Quand le public devient privĂ© et que chacun est suspect – la libertĂ© d’expression et d’information au dĂ©but du XXIe siĂšcle

Anna Mazgal, Directrice exécutive de Wikimédia Europe p.10

Article 18: Droits numĂ©riques et protection du droit d’asile dans la Charte de l’Union europĂ©enne

Romain Lanneau, chercheur Ă  Statewatch

Article 20: InĂ©galitĂ©s numĂ©riques et promesse de l’égalitĂ© devant la loi

Jens Theilen, Université Helmut Schmidt, Hambourg

Article 21: Le droit à la non-discrimination algorithmique: une exploration de l’article 21

RaphaĂ«le Xenidis, Professeure assistante en droit europĂ©en, Sciences Po École de droit

Article 7: Le droit au respect de la vie privĂ©e, garant des droits de l’homme

Nadia Benaissa, Bits of freedom

Article 8 de la Charte des droits fondamentaux de l’UE

Ioannis Kouvakas, Conseiller juridique principal et avocat général adjoint, Privacy International (PI) ; doctorant externe, Groupe de recherche sur le droit, la science, la technologie et la société (LSTS), Université libre de Bruxelles (VUB)

Article 41: Le droit Ă  une bonne administration

Melanie Fink, Leiden Law School

Giulia Gentile, LSE Law School

Article 47: L’ùre des inĂ©galitĂ©s numĂ©riques

Nawal Mustafa, Public Interest Litigation Project (PILP)

Article 34: Le « bien-ĂȘtre numĂ©rique » et le droit fondamental Ă  la sĂ©curitĂ© sociale et Ă  l’aide sociale au sein de l’UE

Divij Joshi, University College London

Article 28: Le droit à la négociation collective et le cas des travailleurs des plateformes

James Farrar, Worker Info Exchange

Article 37: Protection de l’environnement, infrastructure Internet et Ă©conomie des donnĂ©es

Fieke Jansen, chercheuse au sein du laboratoire d’infrastructures critiques de l’UniversitĂ© d’Amsterdam et organisatrice de la coalition Green Screen Climate Justice and Digital Rights

Article 38 de la Charte de l’UE: Ă©dulcorant ou vĂ©ritable instrument opĂ©rationnel?

Alexandre Biard, BEUC - The European Consumer Organisation

“La Charte se profile dĂ©sormais comme la principale voie de recours en matiĂšre de droits fondamentaux, car elle peut offrir aux individus des possibilitĂ©s tangibles de faire respecter directement les droits fondamentaux qu’elle consacre devant les tribunaux, y compris dans le cadre de la rĂ©glementation des relations entre acteurs privĂ©s.”

Éditorial

Un nombre considĂ©rable d’interactions et de relations quotidiennes entre les individus, les entitĂ©s publiques et commerciales se sont dĂ©localisĂ©es en ligne, dĂ©sormais relayĂ©es par des infrastructures technologiques numĂ©riques. Ces nouvelles formes d’interaction et d’engagement mutuel dans le domaine numĂ©rique Ă©mergent Ă  une Ă©chelle et Ă  un rythme sans prĂ©cĂ©dent. Au sein des recherches qui explorent, analysent et critiquent les effets nĂ©gatifs des systĂšmes informationnels et technologiques sur les individus, Ă©merge Ă©galement une discussion sur les injustices et inĂ©galitĂ©s systĂ©miques. Ainsi, des points de vue et des propositions alternatives visant Ă  contrer ces prĂ©judices systĂ©miques, provoquĂ©s ou amplifiĂ©s par les systĂšmes technologiques et informationnels, gagnent en importance dans les espaces de dĂ©bats politiques, universitaires, communautaires et de la sociĂ©tĂ© civile contemporaines.

Cet ensemble d’essais explore les interrelations entre la numĂ©risation, la datafication et les droits fondamentaux. Cette transformation numĂ©rique offre, selon la Commission europĂ©enne, « de nouvelles possibilitĂ©s de rendre les droits fondamentaux plus effectifs, mais elle s’accompagne aussi de dĂ©fis »1. À travers ces essais, nous invitons le lecteur Ă  se pencher sur l’importance de la protection des droits fondamentaux dans la sphĂšre numĂ©rique, ainsi que sur le rĂŽle crucial de la Charte des droits fondamentaux de l’Union europĂ©enne (Charte de l’UE) dans la lutte contre les oppressions, les prĂ©judices et les injustices systĂ©miques qui semblent encodĂ©s dans les technologies existantes. Le potentiel Ă©mancipateur de la Charte de l’UE en tant que moyen de rĂ©sistance aux biais technologiques et Ă  l’oppression est au cƓur de ces essais.

La Charte de l’Union europĂ©enne, rĂ©digĂ©e au tournant du millĂ©naire, constitue un jalon important dans instruments juridiques contraignant qui dĂ©finissent le cadre europĂ©en des droits de l’homme. Elle vient s’ajouter Ă  d’autres instruments internationaux et europĂ©ens relatifs aux droits de l’homme, tels que la DĂ©claration universelle des droits de l’homme (DUDH), la Convention europĂ©enne des droits de l’homme (CEDH), une sĂ©rie d’instruments spĂ©cifiques Ă  certains domaines, ainsi que les constitutions nationales et les « dĂ©clarations des droits ».

La Charte est contraignante pour les institutions de l’UE ainsi que pour les États membres lorsqu’ils agissent dans le cadre de la lĂ©gislation de l’UE. Elle peut donc s’assurer de combler les lacunes existantes dans les cadres nationaux et internationaux en matiĂšre de protection des droits de l’homme et offrir un niveau de protection accru. Avec l’entrĂ©e en vigueur du TraitĂ© de Lisbonne, la Charte est devenue un instrument juridiquement contraignant, ayant la mĂȘme valeur juridique que les TraitĂ©s de l’UE. La Charte se profile dĂ©sormais comme la principale voie de recours en matiĂšre de droits fondamentaux, car elle peut offrir aux individus des possibilitĂ©s tangibles de faire respecter directement les droits fondamentaux qu’elle consacre devant les tribunaux, y compris dans le cadre de la rĂ©glementation des relations entre acteurs privĂ©s.

Toutefois, dans la pratique, il a Ă©tĂ© dĂ©montrĂ© que « les rĂ©fĂ©rences Ă  la Charte sont formelles, dĂ©claratoires, voire dĂ©coratives et combinĂ©es avec des rĂ©fĂ©rences Ă  la CEDH, sans distinction »2. Il apparaĂźt donc clairement que le potentiel de nombreuses dispositions de la Charte n’a pas encore Ă©tĂ© exploitĂ©.

La multitude de droits et de libertĂ©s consacrĂ©s par la Charte des droits fondamentaux lui confĂšre l’image d’un instrument moderne de protection des droits de l’homme Ă  l’ùre du numĂ©rique. C’est le seul instrument juridique international contraignant qui mentionne clairement le droit Ă  la protection des donnĂ©es, distinct du droit au respect de la vie privĂ©e. Comme en tĂ©moigne la jurisprudence et les commentaires abondants, les articles 7 et 8 de la Charte de l’Union europĂ©enne apparaissent comme des droits fondamentaux autour desquels s’articulent la plupart des affaires relatives aux droits numĂ©riques. Cependant, les essais inclus dans cette sĂ©rie dĂ©montrent qu’il existe de nombreux autres droits et libertĂ©s de la Charte qui sont ou peuvent servir de base solide pour les contentieux en matiĂšre de droits numĂ©riques.

Le potentiel de la Charte pour la protection des droits numĂ©riques s’étend au-delĂ  des droits fondamentaux classiques pour englober une sĂ©rie d’autres droits et libertĂ©s qui – face Ă  la numĂ©risation et Ă  la datafication continues des tĂąches et de la vie quotidiennes – sont susceptibles de revĂȘtir une importance et une utilitĂ© croissantes dans la sphĂšre numĂ©rique. Ces droits et libertĂ©s, au mĂȘme titre que tous les droits de l’homme, sont conçus pour dĂ©fendre les valeurs de l’Union europĂ©enne et l’État de droit et, in fine, pour protĂ©ger les individus et les groupes contre l’injustice, le traitement discriminatoire et la marginalisation. Cependant, dans le domaine numĂ©rique, ces abus sont de plus en plus frĂ©quents, notamment en raison de l’utilisation de l’intelligence artificielle (IA), de l’accĂšs aux biens et services numĂ©riques et leur fourniture (parfois sĂ©lective), de l’émergence et l’expansion de modĂšles commerciaux et de revenus basĂ©s sur l’extraction de donnĂ©es et de la dĂ©pendance croissante des entitĂ©s publiques et privĂ©es Ă  l’égard des processus de prise de dĂ©cision basĂ©s sur la technologie.

De nombreux cas analysĂ©s dans cette sĂ©rie d’essais illustrent des prĂ©judices directs et soulignent l’impact des violations des droits fondamentaux causĂ©es par des systĂšmes technosociaux invasifs. La compilation d’articles visant Ă  mettre en Ă©vidence le lien entre les droits fondamentaux et les droits numĂ©riques est en fin de compte une tentative d’aborder l’hĂ©ritage du pouvoir dans le contexte des technologies numĂ©riques, ainsi qu’une opportunitĂ© de fournir une critique sur la valeur des protections des droits fondamentaux dans certains contextes ou environnements.

Abordant des questions Ă  forte charge idĂ©ologique, ces essais ne peuvent prĂ©tendre Ă  l’universalitĂ©, mais tentent plutĂŽt d’identifier des domaines clĂ©s oĂč l’impact des technologies numĂ©riques sur les droits fondamentaux est ou peut rapidement devenir visible. Nous avons invitĂ© des auteurs de divers horizons juridiques, politiques, universitaires et autres, qui explorent des questions telles que la numĂ©risation des procĂ©dures d’asile, la libertĂ© d’expression et la modĂ©ration de contenu, l’égalitĂ© et la non-discrimination algorithmique, la protection sociale et les services publics numĂ©riques en gĂ©nĂ©ral Ă  l’ùre du numĂ©rique, la nĂ©gociation collective et les travailleurs des plateformes. Les essais inclus dans cette sĂ©rie prĂ©sentent un Ă©ventail de discours juridiques, sociaux et technologiques, tout en partageant tous une approche commune visant Ă  consolider la pensĂ©e critique qui soutient l’importance des protections des droits fondamentaux dans les systĂšmes de technologies numĂ©riques. Nous espĂ©rons que ce numĂ©ro spĂ©cial inspirera une rĂ©flexion plus approfondie, plus critique et plus nuancĂ©e sur les droits fondamentaux dans le domaine numĂ©rique, Ă  mesure que nous nous efforçons d’obtenir le respect de la protection des droits numĂ©riques.

1 Communication de la Commission au Parlement europĂ©en, au Conseil, au ComitĂ© Ă©conomique et social europĂ©en et au ComitĂ© des rĂ©gions, « StratĂ©gie visant Ă  renforcer l’application de la Charte des droits fondamentaux dans l’Union europĂ©enne », COM(2020) 711 final, 2 dĂ©cembre 2020, p. 2.

2 J. Adams-Prassl & M. Bobek, « Introduction » in M. Bobek & J. Adams-Prassl (dir.), The EU Charter of Fundamental Rights in the Member States, Hart Publishing, 2022, p. 7.

Anna Mazgal, Directrice exécutive de Wikimédia Europe

Introduction

L’article 11 sur la libertĂ© d’expression et d’information est ancrĂ© dans le paradigme europĂ©en du discours ouvert et libre qui privilĂ©gie la prise de risque en permettant aux individus de communiquer librement, voire de franchir les limites de l’acceptable sans ĂȘtre soumis Ă  une censure prĂ©ventive. Ce paradigme repose Ă©galement sur la conviction selon laquelle, dans l’exercice de ce droit, les citoyens peuvent avoir besoin d’une protection spĂ©ciale contre les tentatives de l’État de contrĂŽler la dissidence. Le paysage de la communication en ligne est principalement constituĂ© de plateformes qui servent d’intermĂ©diaires. Cela reprĂ©sente Ă  la fois un dĂ©fi pour l’exercice de notre libertĂ© d’expression et un besoin d’étendre la protection de la libertĂ© d’expression aux entreprises et Ă  leurs machines algorithmiques de modĂ©ration des propos. Cet exercice s’accompagne de compromis.

En Europe, l’échange d’informations accĂ©lĂ©rĂ© par Internet pose un dĂ©fi Ă  la fois aux utilisateurs et aux lĂ©gislateurs en raison de la nĂ©cessitĂ© d’appliquer un Ă©quilibre proportionnĂ© et appropriĂ© de tous les droits susceptibles d’ĂȘtre affectĂ©s par la modĂ©ration de l’information en ligne. MalgrĂ© que les lĂ©gislateurs aient dĂ©veloppĂ© des cadres juridiques visant Ă  Ă©liminer les discours illĂ©gaux, les utilisateurs, en particulier les communautĂ©s racisĂ©es et queers, sont les plus touchĂ©s. Ces discours prĂ©judiciables deviennent souvent eux-mĂȘmes une forme de censure, car ils reprĂ©sentent une forme de suppression au moyen d’un musellement violent1. Pour ces raisons, il est nĂ©cessaire d’assurer une protection solide des formes lĂ©gales d’expression, non seulement Ă  travers la suppression d’interfĂ©rence, mais Ă©galement par le biais d’obligations positives de la part de l’État2

La quantitĂ© d’informations produites, divulguĂ©es et Ă©changĂ©es Ă  travers les plateformes d’intermĂ©diation dĂ©passe de loin la capacitĂ© humaine de traitement. Les lĂ©gislateurs europĂ©ens ont donc choisi de confier aux intermĂ©diaires d’Internet, ou plateformes, le soin de dĂ©cider au jour le jour de ce qui est autorisĂ© ou pas dans le cadre de leurs services. C’est ainsi qu’un systĂšme privatisĂ© de contrĂŽle de la libertĂ© d’expression en ligne a vu le jour.

Le code fait loi, tout comme les conditions d’utilisation

Un examen rapide de la lĂ©gislation qui a vu le jour dans l’UE au cours des cinq derniĂšres annĂ©es dĂ©montre clairement que les conditions gĂ©nĂ©rales d’utilisation (CGU) des plateformes en ligne sont devenues essentielles dans la mise en place de cadres de gouvernance relatifs Ă  la rĂ©glementation de la libertĂ© d’expression. Ces obligations contractuelles entre une plateforme intermĂ©diaires et ses utilisateurs, notamment lorsqu’elles Ă©manent de contraintes juridiques, crĂ©ent un Ă©cosystĂšme d’application privĂ©e en ligne.3 Les plateformes doivent par exemple intĂ©grer dans leurs CGU les exceptions au droit d’auteur mentionnĂ©es dans la Directive sur le droit d’auteur dans le marchĂ© unique numĂ©rique (Directive sur le droit d’auteur). L’article 17 confĂšre Ă  un utilisateur le droit d’utiliser une Ɠuvre protĂ©gĂ©e par le droit d’auteur d’une tierce personne ou d’y faire rĂ©fĂ©rence, par exemple Ă  des fins de citation, de critique, de revue, de caricature, de parodie ou de pastiche. ParallĂšlement, ce mĂȘme article soumet Ă  une obligation de modĂ©ration du contenu en vertu de laquelle les plateformes peuvent recourir Ă  la modĂ©ration automatisĂ©e du contenu chargĂ© afin de faire respecter la protection des droits d’auteur. Cette obligation transforme les CGU en un cadre propice Ă  un Ă©quilibre entre les droits contradictoires d’un titulaire de droits et d’un utilisateur bĂ©nĂ©ficiant d’une exception au droit d’auteur, garantissant ainsi la libertĂ© d’expression et l’élimination des contenus illĂ©gaux. De mĂȘme, le rĂšglement relatif Ă  la lutte contre la diffusion des contenus Ă  caractĂšre terroriste en ligne (TERREG) contraint les plateformes Ă  inclure dans leurs CGU des dispositions relatives Ă  l’utilisation abusive de leurs services par la diffusion de propagande terroriste (article 5 (1)). Cela signifie que la mise en Ɠuvre des dispositions lĂ©gales dans leurs systĂšmes internes et leur application sont laissĂ©es Ă  l’apprĂ©ciation des plateformes. Bien que cela soit logique du point de vue de la libertĂ© d’entreprise, le pouvoir de dĂ©cision en matiĂšre de qualification des contenus terroristes incombe alors entiĂšrement Ă  une entreprise privĂ©e.

En vue de limiter les risques de dĂ©bordement de la surveillance des contenus, les lĂ©gislateurs obligent les plateformes Ă  appliquer des « mesures spĂ©cifiques » en tenant compte des droits fondamentaux des utilisateurs en matiĂšre de libertĂ© d’expression et d’information (article 5 (3) (c)). Cette pratique dĂ©coule d’un cadre normatif spĂ©cifique qui souligne l’importance de garantir le respect des droits fondamentaux au sein des grandes plateformes privĂ©es : au niveau mondial, les Principes directeurs relatifs aux entreprises et aux droits de l’homme adoptent de tels objectifs. Ces principes sont directement mentionnĂ©s dans le considĂ©rant 12 d’une autre rĂ©glementation europĂ©enne de rĂ©fĂ©rence, la lĂ©gislation sur les services numĂ©riques (DSA).

L’impact de ces cadres normatifs est difficile Ă  estimer en l’absence de recherches fondĂ©es sur des donnĂ©es probantes.

La DSA apparaĂźt comme un renforcement remarquable de la libertĂ© d’expression, car elle stipule que le systĂšme interne obligatoire de traitement des plaintes peut ĂȘtre utilisĂ© non seulement pour des plaintes contre des dĂ©cisions spĂ©cifiques d’une plateforme, mais aussi contre des violations des droits fondamentaux.4

L’ƒil de Sauron

Qu’exige-t-on exactement des plateformes en ce qui concerne l’élimination des contenus indĂ©sirables ? Dans le cas de TERREG et de la Directive sur le droit d’auteur, l’accent est mis sur la garantie de l’indisponibilitĂ© du matĂ©riel illĂ©gal. Ces deux actes juridiques prĂ©voient un ensemble de mesures visant Ă  garantir le retrait ou le blocage des contenus illĂ©gaux. Il est Ă  noter que tout au long du processus lĂ©gislatif, les dispositions imposant aux plateformes d’utiliser des outils algorithmiques pour passer au crible tous les contenus Ă  la recherche d’ Ă©lĂ©ments illĂ©gaux ont Ă©tĂ© considĂ©rĂ©es comme extrĂȘmement controversĂ©es dans le cadre de chacun de ces actes juridiques europĂ©ens. Dans le cas de la Directive sur le droit d’auteur, l’article 17 a suscitĂ© une opposition vĂ©hĂ©mente de la part de la sociĂ©tĂ© civile et un certain nombre de manifestations dans les rues. En signe de protestation, les versions espagnole, italienne et polonaise de WikipĂ©dia ont Ă©tĂ© dĂ©sactivĂ©es 5 L’utilisation d’un logiciel pour faire correspondre les chargements avec une base de donnĂ©es de contenus illĂ©gaux (dans les cas tant des droits d’auteur que de la propagande terroriste) est semblable Ă  un contrĂŽle de sĂ©curitĂ© dans un aĂ©roport : l’objectif est de « scanner » les contenus illĂ©gaux, mais la machine dĂ©voile tous les contenus qui la traversent. Selon les opposants Ă  l’introduction de ces systĂšmes, la simple existence de tels systĂšmes les rend propices aux abus. Dans TERREG comme dans la Directive sur le droit d’auteur, le langage utilisĂ© pour ces mesures est marquĂ© par la pĂ©riphrase : alors que la Directive sur le droit d’auteur mentionne « leurs meilleurs efforts [
] pour garantir l’indisponibilitĂ© d’Ɠuvres et autres objets protĂ©gĂ©s spĂ©cifiques », TERREG dĂ©crit des « mesures techniques » qui doivent ĂȘtre liĂ©es Ă  des « mesures appropriĂ©es et efficaces [
] notamment en matiĂšre de surveillance et de vĂ©rification humaines ».

Le TERREG et la Directive sur le droit d’auteur, respectivement, obligent ou permettent aux plateformes de faire recours au filtrage de contenu. Les algorithmes utilisĂ©s pour le filtrage des contenus par ces plateformes sont tous propriĂ©taires, de sorte qu’il est difficile de se prononcer sur leur efficacitĂ© rĂ©elle, leur prĂ©cision et leur capacitĂ© Ă  comprendre le contexte. C’est pourquoi la surveillance humaine est d’une importance capitale. Toutefois, compte tenu des pratiques connues en matiĂšre de vĂ©rification humaine du contenu par les plateformes, telles que la trĂšs courte durĂ©e des dĂ©lais d’évaluation du contenu et la faible connaissance du contexte culturel et social par les modĂ©rateurs,6 il est difficile de dire si elle peut ĂȘtre effectuĂ©e de maniĂšre efficace.

Le chiffrement pourrait devenir la prochaine victime de cette approche gĂ©nĂ©ralisĂ©e qui s’apparente Ă  une stratĂ©gie de gestion des risques selon laquelle il vaut mieux tout examiner pour repĂ©rer les contenus illicites en ligne. La proposition de rĂšglement Ă©tablissant des rĂšgles en vue de prĂ©venir et combattre les abus sexuels sur les enfants impose aux plateformes l’obligation d’analyser les communications privĂ©es de tous les utilisateurs, y compris celles qui sont protĂ©gĂ©es par un chiffrement. Bien que la sĂ©curitĂ© et le bien-ĂȘtre des enfants sont d’une importance capitale, le « contrĂŽle des discussions» proposĂ© a Ă©tĂ© fortement critiquĂ© par la sociĂ©tĂ© civile, le ContrĂŽleur europĂ©en de la protection des donnĂ©es ainsi que le gouvernement allemand.7

Les plateformes interviennent dans diffĂ©rents domaines d’application des limitations de la libertĂ© d’expression. Par exemple, les blocages de virement ont privĂ© Wikileaks de 95 % de ses revenus lorsque PayPal, Mastercard et Visa ont cessĂ© d’accepter les dons, sans qu’aucune procĂ©dure judiciaire n’ait jamais Ă©tĂ© engagĂ©e Ă  l’encontre de Wikileaks.8 Plus rĂ©cemment, le Conseil de l’UE a suspendu les licences de diffusion de Russia Today (RT) France (entre autres) dans l’ensemble de l’UE, invoquant une propagande excessive et une distorsion des faits, devenues une menace pour la sĂ©curitĂ© internationale aprĂšs l’invasion de l’Ukraine par la Russie. Bien que la dĂ©cision ait Ă©tĂ© approuvĂ©e par le Tribunal de l’Union europĂ©enne, certains experts estiment que cette mesure manquait de lĂ©gitimitĂ© et n’était pas proportionnĂ©e, car elle ne concernait pas seulement le contenu illĂ©gal, mais aussi la capacitĂ© Ă  fournir un accĂšs Ă  des informations qui n’étaient pas illĂ©gales.

Un Internet nouveau et propre ?

Il semble que l’effort lĂ©gislatif conjoint pour Ă©liminer les contenus illĂ©gaux porte un coup Ă  la libertĂ© d’expression. L’exercice du droit Ă  la libertĂ© d’expression en ligne ne peut se faire que si l’on s’exprime soi-mĂȘme. Par consĂ©quent, tout outil algorithmique qui filtre de maniĂšre prĂ©ventive notre discours en ligne au moment de son chargement constituera une violation directe de l’article 11 de la Charte.

L’exercice d’équilibrage fondĂ© sur des concepts politisĂ©s tels que la sĂ©curitĂ© et la sĂ»retĂ© publiques, d’une part, et le secret d’entreprise sur les technologies propriĂ©taires, d’autre part, crĂ©e une lĂ©gislation qui est scrutĂ©e Ă  travers le monde et copiĂ©e dans des rĂ©gions qui ont un bilan dĂ©sastreux en matiĂšre de protection des droits de l’homme et des libertĂ©s. Des dĂ©cisions telles que l’interdiction de diffusion de RT France constituent un prĂ©cĂ©dent extrĂȘmement dangereux en Europe, oĂč de nombreux États membres sont confrontĂ©s Ă  la montĂ©e de l’autoritarisme et au mĂ©pris de l’État de droit, et oĂč de telles dĂ©cisions peuvent ĂȘtre prises Ă  l’encontre des mĂ©dias – et des projets communautaires, tels que WikipĂ©dia –qui fournissent des informations vĂ©rifiĂ©es et permettent un dĂ©bat public.

Nous devons nous interroger sur l’impact de ces mesures gĂ©nĂ©rales de prĂ©vention sur notre libertĂ© d’expression. Il convient Ă©galement de se demander si leur unique objectif est de dĂ©barrasser Internet de toute difficultĂ©s et de toute complexitĂ©, ainsi que des sĂ©quelles passĂ©es et actuelles des injustices systĂ©miques et de l’impĂ©rialisme europĂ©en.

La rĂ©glementation rĂ©cemment adoptĂ©e tente d’apporter des garanties dans le contexte de l’approche gĂ©nĂ©ralisĂ©e et standardisĂ©e de la police de la parole, notamment par le biais de lignes directrices sur les mĂ©canismes de plainte et l’obligation d’inclure les droits fondamentaux dans les CGU. Les communautĂ©s racisĂ©es et queers, les immigrĂ©s et les rĂ©fugiĂ©s, ainsi que d’autres groupes victimes d’une oppression systĂ©mique, sont confrontĂ©s Ă  des obstacles qui ne seront pas levĂ©s par cette rĂ©glementation. En nous contentant de ces garanties, nous risquons de reflĂ©ter une opinion plutĂŽt choquante Ă©mise par Voltaire lorsqu’il Ă©crivit : « On n’a jamais prĂ©tendu Ă©clairer les cordonniers et les servantes ». Enfin, l’opacitĂ© des algorithmes et l’amplification algorithmique crĂ©ent une bulle qui renforce la dĂ©sinformation et les contenus qui divisent l’opinion publique. Ce sont les caractĂ©ristiques du modĂšle commercial basĂ© sur la surveillance, qui privilĂ©gie le droit au respect de la vie privĂ©e, au dĂ©triment de notre libertĂ© d’expression. Ni les actes juridiques susmentionnĂ©s, ni aucun autre – y compris la lĂ©gislation sur les marchĂ©s numĂ©riques – ne s’attaque Ă  la cause des problĂšmes actuels en matiĂšre de libertĂ© d’expression .Face Ă  l’inaction de la lĂ©gislation europĂ©enne,, il convient de se demander si l’introduction des droits de l’homme dans les relations entre entreprises et clients ne lĂ©gitime pas au passage l’existence d’un capitalisme de surveillance, aussi bĂ©nĂ©fiques que soient les nouvelles rĂšglementations qui contraignent les entreprises Ă  respecter les droits de l’homme.

“La Charte se profile dĂ©sormais comme la principale voie de recours en matiĂšre de droits fondamentaux, car elle peut offrir aux individus des possibilitĂ©s tangibles de faire respecter directement les droits fondamentaux qu’elle consacre devant les tribunaux, y compris dans le cadre de la rĂ©glementation des relations entre acteurs privĂ©s.”

Romain Lanneau, chercheur Ă  Statewatch

L’article 18 de la Charte des droits fondamentaux de l’Union europĂ©enne (la Charte) garantit le droit d’asile, mais ne l’accorde pas automatiquement Ă  tous les demandeurs. En revanche, la Charte stipule que toute personne a droit Ă  un examen de sa demande de protection internationale conformĂ©ment au droit international et au droit de l’UE.1 Ce principe est renforcĂ© par l’article 19 de la Charte, qui interdit strictement les expulsions collectives ainsi que le renvoi, l’expulsion ou l’extradition de toute personne « vers un État oĂč il existe un risque sĂ©rieux qu’il soit soumis Ă  la peine de mort, Ă  la torture ou Ă  d’autres peines ou traitements inhumains ou dĂ©gradants. »2

Au cours des deux derniĂšres dĂ©cennies, les procĂ©dures d’asile au sein de l’UE ont Ă©tĂ© de plus en plus imprĂ©gnĂ©es de technologies numĂ©riques. La plupart de ces Ă©volutions ont Ă©tĂ© initiĂ©es dans le but de contrĂŽler et de surveiller les demandeurs d’asile ainsi que d’empĂȘcher leur arrivĂ©e dans l’UE. Cependant, certaines initiatives de la sociĂ©tĂ© civile se sont Ă©galement efforcĂ©es d’exploiter les technologies numĂ©riques dans le but d’aider les demandeurs d’asile Ă  remplir leurs demandes3 ou de les protĂ©ger contre les refoulements 4

MalgrĂ© leur importance, les droits numĂ©riques dans le contexte des procĂ©dures d’asile sont souvent nĂ©gligĂ©s par les praticiens du droit, les demandeurs d’asile eux-mĂȘmes et les acteurs de la sociĂ©tĂ© civile. Ces droits sont rarement considĂ©rĂ©s comme prioritaires, surtout lorsqu’ils sont confrontĂ©s Ă  un risque de dĂ©tention ou d’expulsion. Cependant, la volontĂ© des autoritĂ©s de renforcer le dĂ©ploiement et l’utilisation des technologies numĂ©riques, des donnĂ©es et de l’intelligence artificielle (IA) n’a pas faibli, et ce dans le double objectif de limiter l’entrĂ©e des demandeurs d’asile sur le territoire de l’UE et d’évaluer les demandes de ceux qui en dĂ©posent une. En consĂ©quence, le droit d’asile est dĂ©sormais inextricablement liĂ© aux technologies numĂ©riques. Cet essai vise Ă  explorer la relation complexe entre ces deux concepts et Ă  examiner comment les droits numĂ©riques peuvent ĂȘtre mis Ă  profit dans la protection des droits des demandeurs d’asile.

Le droit à la vie privée : Protéger les

demandeurs d’asile

contre les technologies invasives et la « pseudoscience »

L’article 7 de la Charte garantit le droit au respect de la vie privĂ©e, protĂ©geant les individus contre les intrusions injustifiĂ©es, inutiles et disproportionnĂ©es dans leur vie privĂ©e.5Ce droit peut toutefois ĂȘtre restreint par les autoritĂ©s publiques conformĂ©ment au principe de proportionnalitĂ© Ă©noncĂ© Ă  l’article 52 6 Au sein de l’UE par exemple, tous les demandeurs de passeport sont obligĂ©s de fournir leurs empreintes digitales aux autoritĂ©s afin de permettre une identification plus prĂ©cise,7 mĂȘme s’il « n’est pas dĂ©terminant » que cette mĂ©thode « ne soit pas totalement fiable ».8

Dans le cadre des demandes d’asile, la protection de la vie privĂ©e est d’autant plus cruciale, car les autoritĂ©s s’efforcent souvent d’amasser le plus d’informations possible sur chaque demandeur. Cette prĂ©occupation est d’autant plus importante qu’il est dĂ©sormais possible d’accĂ©der Ă  d’énormes volumes de donnĂ©es numĂ©riques sur les individus. La plus haute juridiction de l’UE a d’ailleurs estimĂ© que la prĂ©vention de l’entrĂ©e illĂ©gale sur le territoire de l’UE constitue un objectif d’intĂ©rĂȘt gĂ©nĂ©ral.9 Cette position oblige les demandeurs d’asile Ă  compromettre leur vie privĂ©e pour avoir une chance d’obtenir une protection. La question qui se pose alors est de savoir dans quelle mesure les autoritĂ©s peuvent ĂȘtre autorisĂ©es Ă  fouiller dans la vie privĂ©e d’un demandeur d’asile.

La vĂ©rification de l’identitĂ© et de la vĂ©racitĂ© des rĂ©cits des demandeurs d’asile est un Ă©lĂ©ment essentiel du processus d’évaluation des demandes. Si certaines caractĂ©ristiques de l’identitĂ© – comme les empreintes digitales – sont relativement faciles Ă  vĂ©rifier, d’autres sont plus difficiles Ă  confirmer, Ă  l’instar de l’ñge et l’identitĂ© sexuelle. Il apparaĂźt souvent impossible de valider par des documents l’affirmation d’un demandeur d’asile selon laquelle il est mineur ou qu’il s’identifie comme homosexuel, bien que ces informations puissent avoir un impact significatif sur l’issue de sa demande, le dĂ©roulement des entretiens et son hĂ©bergement.

Les autoritĂ©s publiques ont longtemps cherchĂ© un test dĂ©finitif qui permettrait de sĂ©parer le bon grain de l’ivraie. Avant l’intervention de la Cour de justice de l’Union europĂ©enne (CJUE) en 2014, les demandeurs d’asile Ă©taient parfois soumis Ă  des questions intrusives et humiliantes dans le cadre de la validation de leurs rĂ©cits. Par exemple, les autoritĂ©s nĂ©erlandaises incitaient frĂ©quemment les demandeurs d’asile Ă  fournir leur propre vidĂ©o pornographique lors de leurs entretiens, comme preuve de leur prĂ©tendue orientation sexuelle. Bien qu’il s’agisse officiellement d’un choix, l’avocat gĂ©nĂ©ral Sharpston

“La Charte se profile dĂ©sormais comme la principale voie de recours en matiĂšre de droits fondamentaux, car elle peut offrir aux individus des possibilitĂ©s tangibles de faire respecter directement les droits fondamentaux qu’elle consacre devant les tribunaux, y compris dans le cadre de la rĂ©glementation des relations entre acteurs privĂ©s.”

“...le droit d’asile est dĂ©sormais inextricablement liĂ© aux technologies numĂ©riques...”

a Ă©mis « de sĂ©rieux doutes quant Ă  savoir si un demandeur, qui est la partie vulnĂ©rable dans la procĂ©dure de demande d’octroi du statut de rĂ©fugiĂ©, peut rĂ©ellement ĂȘtre censĂ© avoir donnĂ© un consentement parfaitement libre et Ă©clairĂ© aux autoritĂ©s nationales dans de telles circonstances »,10 en particulier compte tenu de la dynamique de pouvoir en jeu. La CJUE a finalement aboli cette pratique dans sa dĂ©cision ABC, citant des atteintes Ă  la dignitĂ© humaine (article 1 de la Charte) et au droit Ă  la vie privĂ©e (article 7).11

Dans leur quĂȘte d’un moyen de distinguer les demandeurs lĂ©gitimes, les autoritĂ©s d’asile nationales ont eu recours Ă  des mĂ©thodes pseudo-scientifiques, assimilables Ă  la recherche d’un sĂ©rum de vĂ©ritĂ©.12 En 2018, dans le cadre de l’affaire F c. Hongrie, l’utilisation de « tests de personnalitĂ© projectifs » pour dĂ©terminer la sexualitĂ© des demandeurs a Ă©tĂ© particuliĂšrement controversĂ©e. La CJUE a dĂ©clarĂ© qu’un tel test « ne pourra ĂȘtre admis que si celui-ci est fondĂ© sur des mĂ©thodes et des principes rigoureux, reconnus par la communautĂ© scientifique internationale ».13 Dans le cadre de l’évaluation de la sexualitĂ© d’un individu, les tests projectifs de personnalitĂ© sont loin de rĂ©pondre Ă  ces critĂšres. La Cour a Ă©galement soulignĂ© dans sa dĂ©cision que le « consentement n’est pas nĂ©cessairement libre, Ă©tant de facto, imposĂ© sous la pression des circonstances dans lesquelles se trouvent les demandeurs de protection internationale ».14

Au cours des derniĂšres annĂ©es, des tribunaux nationaux ont Ă©tĂ© saisis de cas oĂč les autoritĂ©s chargĂ©es des demandes d’asile ont sollicitĂ© les tĂ©lĂ©phones des demandeurs15 afin d’extraire et d’analyser des donnĂ©es stockĂ©es Ă  la recherche de preuves susceptibles de soutenir les allĂ©gations des intĂ©ressĂ©s. En Allemagne, un tribunal a jugĂ© cette pratique illĂ©gale, Ă  moins que des solutions moins intrusives aient Ă©tĂ© envisagĂ©es. Les juges ont clairement indiquĂ© que l’utilisation des nouvelles technologies doit ĂȘtre Ă  la fois nĂ©cessaire et adaptĂ©e Ă  l’objectif visĂ©.16

À l’avenir, il est plausible que les autoritĂ©s aient recours Ă  l’IA pour vĂ©rifier l’identitĂ© d’une personne.17 Toutefois, les assertions selon lesquelles les technologies de vision artificielle peuvent dĂ©terminer la sexualitĂ© d’une personne Ă©voquent davantage la pseudoscience qu’elles n’offrent de garanties crĂ©dibles. La rĂ©glementation sur l’IA de l’UE, actuellement en cours de nĂ©gociation, n’aborde ni ne prĂ©vient de maniĂšre adĂ©quate contre les prĂ©judices potentiels liĂ©s Ă  l’utilisation de l’IA dans le contexte des migrations 18 Par consĂ©quent, les dĂ©fis juridiques fondĂ©s sur le droit Ă  la vie privĂ©e resteront cruciaux pour dĂ©finir les limites des pratiques numĂ©riques acceptables dans le cadre des procĂ©dures d’asile.

Le droit à la protection des données individuelles : Une condition préalable à un recours effectif contre la prise de décision automatisée et semi-automatisée

L’UE a mis en place un ensemble complexe de bases de donnĂ©es19 destinĂ©es Ă  identifier toutes les personnes qui cherchent Ă  entrer au sein de l’UE. Ces systĂšmes d’information sont destinĂ©s Ă  aider les autoritĂ©s migratoires et policiĂšres Ă  prendre des dĂ©cisions concernant les personnes, telles que leur droit d’entrĂ©e ou de sĂ©jour dans l’attente d’une dĂ©cision en matiĂšre d’asile.20 L’article 8 (2) de la Charte confĂšre Ă  toute personne dont les donnĂ©es ont Ă©tĂ© collectĂ©es par une autoritĂ© europĂ©enne le droit Ă  la protection des donnĂ©es individuelles. Cela inclut le droit d’accĂ©der aux donnĂ©es stockĂ©es Ă  leur sujet et de rectifier ou d’effacer toute donnĂ©e incorrecte.21

Les demandeurs d’asile sont progressivement contraints Ă  livrer des informations personnelles dĂ©taillĂ©es. Dans sa version la plus rĂ©cente, le systĂšme Eurodac recueillera les images faciales et les informations personnelles de demandeurs d’asile (et d’autres ressortissants Ă©trangers) ĂągĂ©s d’à peine six ans.22 Les autoritĂ©s nationales collectent et Ă©changent massivement les donnĂ©es personnelles des individus, qui n’en ont gĂ©nĂ©ralement pas conscience jusqu’à ce que ces donnĂ©es servent de base Ă  une dĂ©cision concernant leur cas.

Bien que la multiplication des bases de donnĂ©es nouvelles et Ă©largies puisse faciliter la prise de dĂ©cision, elles ne sauraient constituer la seule source d’information pour une dĂ©cision concernant les demandes d’asile. En 2006, dans l’affaire Espagne c. Commission, la CJUE a statuĂ© que les autoritĂ©s ne devraient pas prendre de dĂ©cisions automatisĂ©es fondĂ©es uniquement sur des informations stockĂ©es dans un systĂšme d’information europĂ©en. Les dĂ©cisions doivent reposer sur une Ă©valuation individuelle de la situation du demandeur, y compris une Ă©valuation des motifs lĂ©gaux de refus d’entrĂ©e.23

NĂ©anmoins, la pratique consistant Ă  refuser l’entrĂ©e et Ă  expulser des personnes perçues comme prĂ©sentant un risque pour la sĂ©curitĂ© nationale persiste. Les États concernĂ©s manquent souvent de transparence quant aux motifs de ces dĂ©cisions. En 2020, la CJUE a prĂ©cisĂ© qu’une personne a le droit d’obtenir un minimum de motifs pour le refus d’entrĂ©e dans l’Union. L’article 47 de la Charte24, qui consacre le principe de l’égalitĂ© des armes, exige des autoritĂ©s nationales qu’elles divulguent le nom de l’État Ă  l’origine du partage des informations ayant servi de base Ă  la dĂ©cision, ainsi que les motifs spĂ©cifiques de l’évaluation des risques. Cette divulgation permet aux demandeurs d’exercer un recours effectif contre la dĂ©cision.25 De mĂȘme, en vertu de l’article 8 (2) de la Charte, le droit d’accĂšs sert de « garde-fou permettant aux personnes concernĂ©es de poursuivre leur action »26, telles que demander la suppression ou la rectification d’accusations injustifiĂ©es qui ont une incidence sur leur droit Ă  un procĂšs Ă©quitable.

MalgrĂ© ces dispositions, l’accĂšs Ă  l’information est loin d’ĂȘtre uniformĂ©ment respectĂ© par les États membres. Bien trop souvent, les demandeurs d’asile dĂ©couvrent que des preuves « secrĂštes » sont utilisĂ©es contre eux. Dans certains cas, c’est le pays duquel une personne demande l’asile qui fournit les donnĂ©es sur lesquelles les autoritĂ©s fondent leur dĂ©cision.27 MĂȘme si l’échange de donnĂ©es avec un pays tiers doit respecter les normes de protection de l’UE,28 y compris l’interdiction d’utiliser des informations obtenues sous la torture, dans la pratique, cela ne fait pas l’objet d’un contrĂŽle adĂ©quat 29

Depuis la mise en Ɠuvre du dernier rĂšglement sur les systĂšmes d’information30 et du rĂšglement Europol31, le risque que les autoritĂ©s nationales s’appuient sur des donnĂ©es inexactes ou illĂ©gales a Ă©tĂ© amplifiĂ©. NĂ©anmoins, les normes de protection des donnĂ©es pour les demandeurs d’asile s’avĂšrent bien moins strictes que celles dont bĂ©nĂ©ficient les citoyens de l’UE. Le rĂ©cent scandale du « Traitement des donnĂ©es personnelles pour l’analyse des risques » (PeDRA - Processing of Personal Data for Risk Analysis), dans lequel Frontex a proposĂ© la collecte de donnĂ©es personnelles intrusives, violant de maniĂšre flagrante les droits de protection des donnĂ©es, en est un exemple32. Dans le mĂȘme temps, le ContrĂŽleur europĂ©en de la protection des donnĂ©es (CEPD) a affirmĂ© que les rĂšgles rĂ©gissant l’agence sont vagues en ce qui concerne les « conditions ou limites du partage des donnĂ©es avec d’autres agences, États et pays tiers, ainsi que les recours disponibles pour les individus ».33

Comme l’a soulignĂ© le CEPD, « la vie privĂ©e et la protection des donnĂ©es font partie des droits de l’homme trop souvent suspendus aux frontiĂšres de l’Union europĂ©enne ».34 Cette affirmation met en Ă©vidence un thĂšme rĂ©current dans la rĂ©glementation en matiĂšre d’asile, de migration et de frontiĂšres, illustrant la tendance Ă  considĂ©rer certains groupes de migrants comme des problĂšmes de sĂ©curitĂ© et ne mĂ©ritant pas les protections accordĂ©es aux citoyens ou Ă  d’autres catĂ©gories de ressortissants Ă©trangers 35

Droits d’asile numĂ©riques : Un appel Ă  des garanties accrues dans le contexte de la numĂ©risation des procĂ©dures

Les technologies publiques sont souvent utilisĂ©es par les autoritĂ©s dans la perspective d’amĂ©liorer l’efficacitĂ© et d’attĂ©nuer ou d’éliminer les biais dans la prise de dĂ©cision humaine. Cependant, des Ă©tudes sur l’impact de ces technologies montrent souvent des effets contraires.36 Les questions de discrimination et de racisme persistent, mais elles s’enchevĂȘtrent dans la complexitĂ© des systĂšmes techniques. Il est donc de plus en plus difficile de dĂ©terminer quand et comment se produisent les violations des droits.

Les nĂ©gociations lĂ©gislatives en cours au sein de l’UE visent Ă  Ă©tendre l’utilisation des technologies numĂ©riques dans les procĂ©dures d’asile et de migration. NĂ©anmoins, ces nĂ©gociations ouvrent Ă©galement des perspectives de renforcement de la protection de la vie privĂ©e. La proposition de rĂšglement relatif Ă  l’examen des demandes d’asile pourrait permettre de renforcer la protection du droit Ă  la vie privĂ©e des demandeurs d’asile. Cet objectif peut ĂȘtre atteint grĂące Ă  l’inclusion d’un mĂ©canisme indĂ©pendant conçu pour contrĂŽler la protection des droits fondamentaux des personnes lors de leur identification par les autoritĂ©s frontaliĂšres. Toutefois, ce rĂšglement doit encore ĂȘtre approuvĂ©, et il relĂšvera en fin de compte de la compĂ©tence de l’Agence des droits fondamentaux et des États membres dans le cadre de leurs juridictions respectives, afin de clarifier la procĂ©dure de ce nouveau mĂ©canisme.37

Dans les annĂ©es Ă  venir, la numĂ©risation des procĂ©dures d’asile et d’immigration devrait s’accentuer. Il est donc primordial de renforcer la comprĂ©hension de la vie privĂ©e, de la protection des donnĂ©es et des autres droits numĂ©riques parmi les demandeurs d’asile, les migrants et les activistes de la migration, les professionnels du droit et les organisations non gouvernementales.

Jens Theilen, Université Helmut Schmidt, Hambourg

Inégalités numériques et historiques

Dans son livre Peau noire, masques blancs, le philosophe et rĂ©volutionnaire anticolonialiste Frantz Fanon dĂ©crit ce qu’il appelle le « regard blanc » (« white gaze ») et ses implications: « Car le Noir n’a plus Ă  ĂȘtre noir, mais Ă  l’ĂȘtre en face du Blanc. [
] La connaissance du corps est une activitĂ© uniquement nĂ©gatrice. C’est une connaissance en troisiĂšme personne. »1 Plus d’un demi-siĂšcle plus tard, le rĂ©cit de Fanon trouve un Ă©cho Ă©trange dans les expĂ©riences de Joy Buolamwini, chercheuse noire au MIT Media Lab. Alors qu’elle travaillait sur un projet qui consistait Ă  projeter des masques numĂ©riques sur son reflet, elle s’est rendu compte que la technologie de reconnaissance faciale qu’elle utilisait ne pouvait pas dĂ©tecter suffisamment les contours de son visage Ă  moins qu’elle ne porte un masque blanc. La juxtaposition par Fanon de la peau noire et des masques blancs dans le titre de son livre prend ainsi un sens littĂ©ral inattendu. Buolamwini a appelĂ© ce phĂ©nomĂšne le « regard codĂ© » (« coded gaze »): une forme de biais algorithmique aux effets discriminatoires. On en observe un exemple dans l’utilisation des logiciels de reconnaissance faciale par les forces de l’ordre, oĂč une identification erronĂ©e peut entraĂźner une surveillance et des arrestations accrues.2 Dans une publication ultĂ©rieure en collaboration avec Timnit Gebru, Buolamwini a analysĂ© trois classificateurs commerciaux de genre. L’analyse a rĂ©vĂ©lĂ© que « les sujets masculins Ă©taient classĂ©s avec plus de prĂ©cision que les sujets fĂ©minins », que « les sujets Ă  la peau claire Ă©taient classĂ©s avec plus de prĂ©cision que les sujets Ă  la peau foncĂ©e » et que « tous les classificateurs avaient les pires performances pour les sujets fĂ©minins Ă  la peau foncĂ©es ».3

Le parallĂšle entre le concept de « regard blanc » de Fanon et celui de « regard codĂ© » de Buolamwini montrent clairement que les structures oppressives telles que le racisme et le (cis)sexisme restent centrales dans les environnements numĂ©riques. Internet n’a pas instaurĂ© un espace utopique exempt d’inĂ©galitĂ©s, et il serait illusoire de placer nos espoirs dans la technologie en tant que solution facile aux problĂšmes sociĂ©taux. À l’inverse, il n’est pas non plus judicieux de considĂ©rer les inĂ©galitĂ©s numĂ©riques comme des problĂšmes entiĂšrement nouveaux, apparus uniquement avec les avancĂ©es technologiques. Elles sont en rĂ©alitĂ© enracinĂ©es dans des pratiques historiques de surveillance et de traitement des donnĂ©es qui ont longtemps Ă©tĂ© utilisĂ©es comme outils d’esclavage, de colonialisme, de patriarcat et d’autres formes de domination. Comme l’a dit Simone Browne, spĂ©cialiste de la surveillance: « La surveillance n’est pas une nouveautĂ© pour les Noirs. C’est le fait de l’antiblackness » ». Elle met en garde contre le fait de considĂ©rer la surveillance comme « un phĂ©nomĂšne rĂ©cent apparu avec les nouvelles technologies telles que la reconnaissance faciale automatisĂ©e ou les vĂ©hicules autonomes sans conducteur (ou les drones) », et affirme qu’elle est continue, permanente et profondĂ©ment ancrĂ©e dans le racisme, l’antiblackness et d’autres pratiques, performances et politiques oppressives.4 Les inĂ©galitĂ©s numĂ©riques ne sont que la continuitĂ© des inĂ©galitĂ©s historiques.

La promesse d’égalitĂ©

Face aux inĂ©galitĂ©s sous toutes ses formes, le droit fait la promesse d’égalitĂ©. L’article 20 de la Charte des droits fondamentaux de l’Union europĂ©enne (UE) (« la Charte ») exprime cette promesse de façon concise: « Toutes les personnes sont Ă©gales devant la loi ». Cette formulation trĂšs gĂ©nĂ©rale prend une forme plus concrĂšte dans la clause de non-discrimination de l’article 21 (ainsi que dans divers actes de droit dĂ©rivĂ©), qui interdit toute discrimination fondĂ©e sur une longue liste, non limitative, de motifs, dont le sexe, la race, la religion, le handicap, l’ñge ou l’orientation sexuelle. La nĂ©cessitĂ© de telles listes montre clairement que si l’égalitĂ© et la non-discrimination sont aujourd’hui largement acceptĂ©es comme des idĂ©aux abstraits, dans la pratique, leur promesse n’est toujours pas tenue. Un nombre dĂ©courageant d’exemples atteste que cela vaut pour les contextes numĂ©riques et l’utilisation des nouvelles technologies: la politique prĂ©dictive qui cible de maniĂšre disproportionnĂ©e les personnes de couleur et les populations dĂ©favorisĂ©es; les discours de haine sur les rĂ©seaux sociaux visant les personnes queers, les femmes, et en particulier les femmes transgenres et les femmes de couleur; la discrimination des femmes sur le marchĂ© du travail basĂ©e sur des dĂ©cisions algorithmiques; les stĂ©rĂ©otypes racistes et sexistes reflĂ©tĂ©s dans les rĂ©sultats des moteurs de recherche en ligne; ainsi que bien d’autres exemples.5

Le dĂ©calage entre l’idĂ©al et la rĂ©alitĂ© met en lumiĂšre des possibilitĂ©s d’amĂ©lioration: nous pouvons utiliser la promesse d’égalitĂ© pour lutter contre les inĂ©galitĂ©s, y compris leurs manifestations dans le domaine numĂ©rique. À cet Ă©gard, les clauses d’égalitĂ© et de

“...les inĂ©galitĂ©s (sont) enracinĂ©es dans des pratiques historiques de surveillance et de traitement des donnĂ©es qui ont longtemps Ă©tĂ© utilisĂ©es comme outils d’esclavage, de colonialisme, de patriarcat et d’autres formes de domination...”

non-discrimination de la lĂ©gislation europĂ©enne recĂšlent un potentiel inexploitĂ© considĂ©rable, d’autant plus qu’elles s’appliquent aussi bien aux acteurs privĂ©s qu’aux organismes publics. Depuis toujours, les droits fondamentaux et les droits de l’homme sont dirigĂ©s contre l’État, mais ne contraignent pas – du moins pas directement – les actions des acteurs privĂ©s.6 Cependant, dans la conjoncture actuelle de capitalisme de surveillance7, le pouvoir de gĂ©nĂ©rer et de maintenir les inĂ©galitĂ©s numĂ©riques n’appartient plus seulement Ă  l’État, mais aussi Ă  des acteurs privĂ©s tels que les entreprises multinationales: les entreprises qui proposent et utilisent des logiciels gĂ©nĂ©riques de reconnaissance faciale, qui gĂšrent les plateformes de mĂ©dias sociaux et les moteurs de recherche et qui dĂ©terminent qui peut ĂȘtre banni ou non pour discours haineux, et quels algorithmes sont utilisĂ©s pour gĂ©nĂ©rer des rĂ©sultats de recherche, et ainsi de suite. Le droit europĂ©en diffĂšre du droit international des droits de l’Homme en ce qu’il oblige ces acteurs privĂ©s Ă  respecter la promesse d’égalitĂ©, au moins dans certains cas.8

Est-ce que « toutes les personnes » sont égales devant la loi ?

Le droit n’est cependant pas une panacĂ©e, et cette promesse d’égalitĂ© peut ĂȘtre indĂ©finiment reportĂ©e pour certains. L’une des critiques frĂ©quemment formulĂ©es Ă  l’encontre de la lĂ©gislation sur la non-discrimination est qu’elle tend Ă  considĂ©rer les motifs de discrimination, tels que le genre et la race, comme des catĂ©gories distinctes et homogĂšnes.9 À l’inverse, l’utilisation de l’intersectionnalitĂ© comme cadre de rĂ©fĂ©rence illustre la maniĂšre dont les systĂšmes d’oppression tels que le racisme et le (cis-)sexisme s’imbriquent et ont un impact sur diffĂ©rentes personnes de diffĂ©rentes maniĂšres.10 À titre d’exemple, comme indiquĂ© prĂ©cĂ©demment, l’analyse de Buolamwini et Gebru sur les classificateurs commerciaux de genre a non seulement rĂ©vĂ©lĂ© une diminution de la prĂ©cision en fonction de la race et du genre, mais a Ă©galement rĂ©vĂ©lĂ© que les rĂ©sultats Ă©taient particuliĂšrement mauvais pour les femmes de couleur. Les algorithmes peuvent Ă©galement intĂ©grer des reprĂ©sentations culturelles et des stĂ©rĂ©otypes connus spĂ©cifiquement pour les femmes noires ou Ă  d’autres femmes de couleur. Un exemple flagrant en est l’ancien cas des recherches Google sur les « filles noires », oĂč les premiers rĂ©sultats affichaient majoritairement du contenu pornographique. Ce n’est qu’aprĂšs une pression publique soutenue que des changements ont Ă©tĂ© apportĂ©s.11

MalgrĂ© une prise de conscience croissante de l’importance de l’analyse intersectionnelle, un rapport rĂ©cent du Center for Intersectional Justice a rĂ©vĂ©lĂ© que « les organes juridiques europĂ©ens ne sont pas encore suffisamment outillĂ©s pour traiter efficacement les cas de discrimination intersectionnelle ».12 Des progrĂšs considĂ©rables en la matiĂšre seraient nĂ©cessaires pour combattre les inĂ©galitĂ©s sans nĂ©gliger les plus vulnĂ©rables. Comme le dit Aisha Kadiri, « la prise en compte du type unique de biais auquel les personnes concernĂ©es sont confrontĂ©es exige la reconnaissance de l’intersectionnalitĂ© dĂšs le dĂ©part ».13 Bien que la doctrine juridique la considĂšre comme subsidiaire par rapport Ă  des clauses de non-discrimination plus spĂ©cifiques, la promesse d’égalitĂ© pour « toutes les personnes » inscrite dans l’article 20 de la Charte devrait servir Ă  rappeler que la discrimination ne peut ĂȘtre cloisonnĂ©e en motifs de discrimination distincts, mais qu’elle doit ĂȘtre apprĂ©hendĂ©e de maniĂšre holistique.

Il n’y a pas de solution miracle

Adopter une approche intersectionnelle pour lutter contre les inĂ©galitĂ©s numĂ©riques implique Ă©galement de de s’interroger sur les bĂ©nĂ©ficiaires et les victimes du dĂ©ploiement de nouvelles technologies. À titre exemple, il y a quelques annĂ©es, la principale sociĂ©tĂ© de transport public de Berlin a utilisĂ© la classification automatisĂ©e du genre sur certains de ses distributeurs de billets pour accorder une rĂ©duction aux femmes Ă  l’occasion de la JournĂ©e internationale de la femme. Ce qui semble Ă  premiĂšre vue ĂȘtre un projet bĂ©nin visant Ă  rĂ©duire lĂ©gĂšrement l’écart de rĂ©munĂ©ration, s’avĂšre toutefois n’ĂȘtre avantageux que pour certaines femmes, au dĂ©triment d’autres. Des Ă©tudes comme celle de Buolamwini et Gebru dĂ©montrent non seulement que les femmes de couleur sont davantage susceptibles de ne pas bĂ©nĂ©ficier de la rĂ©duction, mais Ă©galement la notion mĂȘme d’attribution d’un genre binaire aux individus sur la base de l’apparence physique

de leur visage est fondamentalement discriminatoire pour les transgenres. La classification automatisĂ©e du genre contribue Ă  normaliser l’idĂ©e erronĂ©e que le genre est identifiable Ă  partir de l’apparence physique et s’oppose donc Ă  une identitĂ© de genre autodĂ©terminĂ©e – c’est pourquoi de nombreuses personnes transgenres rejettent cette technologie dans son ensemble, plutĂŽt que de militer pour une rĂ©forme visant Ă  la rendre plus inclusive.14 Cet exemple montre que les nouvelles technologies ne contribuent pas uniquement Ă  la crĂ©ation d’inĂ©galitĂ©s entre les groupes, mais aussi, par la maniĂšre dont elles catĂ©gorisent les personnes et normalisent certains modes de pensĂ©e, aux processus mĂȘmes de genrisation et de racialisation.15

Il est important de comprendre l’ampleur des problĂšmes, car cela met en Ă©vidence une question rĂ©currente en ce qui concerne les Ă©galitĂ©s numĂ©riques. Souvent, il n’y a pas de solution miracle, car ces inĂ©galitĂ©s sont intimement liĂ©es Ă  la technologie en question. Ce constat ne se limite pas qu’aux conceptions trans-exclusionnistes du genre, mais il s’applique aussi Ă  de nombreuses formes de technologie, lorsqu’elles sont considĂ©rĂ©es dans le contexte plus large de leur dĂ©veloppement, de leur utilisation et de leur institutionnalisation. Les historiens de la technologie ont dĂ©montrĂ© qu’à maintes reprises, les nouvelles technologies n’ont pas seulement servi les intĂ©rĂȘts des dĂ©tenteurs du pouvoir, mais qu’elles ont Ă©tĂ© dĂ©libĂ©rĂ©ment dĂ©veloppĂ©es et utilisĂ©es pour soutenir les efforts de domination, de maintien de l’ordre et de surveillance. Que ce soit par le biais de schĂ©mas de classification des genres et des races ou d’autres mĂ©thodes, les inĂ©galitĂ©s sont enracinĂ©es dans les fondements mĂȘmes des infrastructures numĂ©riques qui nous semblent aujourd’hui si familiĂšres. « Le sexisme est une caractĂ©ristique, pas un bug »,16 et « le racisme anti-Noir, que ce soit dans les rĂ©sultats de recherche ou dans les systĂšmes de surveillance, n’est pas seulement un symptĂŽme ou une consĂ©quence, mais une condition prĂ©alable Ă  la fabrication de ces technologies ».17 Les bugs, les symptĂŽmes et les rĂ©sultats peuvent ĂȘtre facilement corrigĂ©s, mais les problĂšmes sont plus profonds.

Les limites des revendications en matiĂšre d’égalitĂ©

Le langage de l’égalitĂ© et de la non-discrimination fait courir le risque de ne se limiter qu’à revendiquer l’inclusion et l’exactitude des rĂ©sultats, tout en ignorant le rĂŽle crucial des structures oppressives telles que le racisme et le (cis-)sexisme dans la conception mĂȘme des technologies numĂ©riques, ainsi que les contextes politiques, institutionnels et Ă©conomiques de leur utilisation. Pour reprendre l’exemple de la reconnaissance faciale, il apparaĂźt rapidement qu’outre l’objectif commercial de son utilisation, ces systĂšmes technologiques intĂ©ressent principalement les organismes chargĂ©s de l’application de la loi, tels que la police et les services de contrĂŽle aux frontiĂšres. l est important de noter que ces derniers dĂ©pendent souvent de technologies privĂ©es et d’importantes sociĂ©tĂ©s de conseil en technologie. Ces institutions sont gangrĂ©nĂ©es par le racisme et d’antiblackness ; le contrĂŽle aux frontiĂšres de l’Europe, en particulier, est fondĂ© sur des logiques coloniales violentes qui considĂšrent que la vie des Noirs n’est pas indispensable.18 Il est difficile d’apprĂ©hender des problĂšmes de ce type dans le langage juridique de l’égalitĂ© et de la non-discrimination. Comme le souligne Dean Spade, juriste et activiste trans, des questions structurelles telles que les disparitĂ©s de richesse, le ciblage des sanctions pĂ©nales, les atteintes Ă  l’environnement, l’application des lois relatives Ă  l’immigration et bien d’autres sont « considĂ©rĂ©es comme neutres par le principe de non-discrimination ».19 Ainsi, les revendications d’égalitĂ© en droit peuvent donc lĂ©gitimer des institutions profondĂ©ment injustes, mĂȘme si des changements superficiels sont apportĂ©s au niveau des symptĂŽmes ou des rĂ©sultats. Une reconnaissance faciale plus prĂ©cise serait en effet, Ă  premiĂšre vue, plus Ă©galitaire en termes de genre et de race. Cependant, dans le contexte de son utilisation par les forces de l’ordre, la promesse d’égalitĂ© perd son attrait.

Revenons Ă  la notion de « regard blanc » de Frantz Fanon et au « regard codĂ© » de Joy Buolamwini, qui l’a revisitĂ©e. Dans ces rĂ©fĂ©rences au « regard », comme dans d’autres, la vision est liĂ©e au pouvoir – comme le dit la fĂ©ministe noire bell hooks, il y a « un pouvoir dans le regard ». Elle dĂ©veloppe la notion de « regard oppositionnel » (« oppositional gaze ») pour exprimer le pouvoir de regarder en retour de maniĂšre provocante et courageuse: « Je ne me contenterai pas de regarder fixement. Je veux que mon regard change la rĂ©alitĂ© ».20 Comment pouvons-nous transformer la rĂ©alitĂ© au moyen de revendications d’égalitĂ©? Comme je l’ai fait valoir plus haut, nous pouvons utiliser la promesse d’égalitĂ© pour contester les inĂ©galitĂ©s, y compris leurs manifestations dans les environnements numĂ©riques. Nous devons cependant ĂȘtre conscients de ses limites. Dans le meilleur des cas, l’égalitĂ© signifierait la rĂ©ciprocitĂ©, un regard mutuel basĂ© sur

“La

promesse d’égalitĂ© devant le droit ne doit pas Ă©puiser l’horizon de notre imagination et de nos actions collectives.”

un mĂȘme pied d’égalitĂ©, oĂč la noirceur ne se dĂ©finirait plus par rapport Ă  la blancheur. Cependant, les revendications d’égalitĂ© devant la loi n’aboutissent gĂ©nĂ©ralement pas Ă  ce type de rĂ©ciprocitĂ©. Difficile de les utiliser pour remettre en question le regard dominant qui dĂ©finit d’emblĂ©e les sujets racialisĂ©s et genrĂ©s, et dont les intĂ©rĂȘts sont codĂ©s dans nos infrastructures numĂ©riques et nos nouvelles technologies. Dans de nombreux cas, nous devrions rĂ©sister Ă  l’attrait de l’exactitude et de l’inclusion dans lequel l’égalitĂ© se glisse si facilement, et nous concentrer sur l’opposition et le refus. Comme le disent les auteurs du Feminist Data Manifest-No: « Nous refusons de croire que convaincre des institutions injustes de nous Ă©couter est le seul moyen de faire avancer les choses. Nous nous engageons Ă  co-construire notre langage et nos questions avec les communautĂ©s que nous servons afin de renforcer notre pouvoir ».21 La promesse de l’égalitĂ© devant la loi ne doit pas Ă©puiser l’horizon de notre imagination et de nos actions collectives.

RaphaĂ«le Xenidis, Professeure assistante en droit europĂ©en, Sciences Po École de droit

SĂ©rie d’articles: Les droits numĂ©riques sont des droits fondamentaux de la Charte

Précisions

Les recherches menĂ©es dans cet article sont liĂ©es Ă  un projet qui a bĂ©nĂ©ficiĂ© d’un financement du programme de recherche et d’innovation Horizon 2020 de l’Union europĂ©enne dans le cadre de la subvention Marie SkƂodowska-Curie n° 898937.

Introduction

L’article 21 de la Charte des droits fondamentaux de l’Union europĂ©enne (UE) (ci-aprĂšs « la Charte ») protĂšge le droit fondamental Ă  la non-discrimination. Il comprend deux paragraphes : l’article 21 (1), une clause de non-discrimination ouverte, basĂ©e sur le modĂšle de l’article 14 de la Convention europĂ©enne des droits de l’homme (CEDH), qui interdit « toute discrimination fondĂ©e notamment sur le sexe, la race, la couleur, les origines ethniques ou sociales, les caractĂ©ristiques gĂ©nĂ©tiques, la langue, la religion ou les convictions, les opinions politiques ou toute autre opinion, l’appartenance Ă  une minoritĂ© nationale, la fortune, la naissance, un handicap, l’ñge ou l’orientation sexuelle. » ; et l’article 21 (2), qui interdit « toute discrimination fondĂ©e sur la nationalitĂ© » « [d]ans le domaine d’application du traitĂ© instituant la CommunautĂ© europĂ©enne et du traitĂ© sur l’Union europĂ©enne, et sans prĂ©judice des dispositions particuliĂšres desdits traitĂ©s ». De nombreuses recherches ont mis en lumiĂšre l’omniprĂ©sence de biais et d’inĂ©galitĂ©s dans les systĂšmes algorithmiques.1 Dans ce contexte, les protections et les garanties offertes par le droit fondamental Ă  la non-discrimination sont d’une importance capitale. Le prĂ©sent article analyse la maniĂšre dont le droit Ă  la non-discrimination consacrĂ© par l’article 21 pourrait ĂȘtre interprĂ©tĂ© et appliquĂ© dans un contexte numĂ©rique. À cet effet, la section 1 explore d’abord la pertinence du droit fondamental Ă  la non-discrimination dans une sociĂ©tĂ© algorithmique et prĂ©sente l’exemple concret de la partialitĂ© raciale dans les logiciels de surveillance des examens utilisĂ©s par certaines universitĂ©s durant la pandĂ©mie de Covid-19. Ensuite, la section 2 met en Ă©vidence les questions d’interprĂ©tation nĂ©es de la « transposition » du droit Ă  la non-discrimination dans un contexte algorithmique. Enfin, la section 3 explique comment l’article 21 pourrait servir d’instrument de prĂ©vention et de correction de la discrimination algorithmique.

1. La pertinence du droit fondamental à la nondiscrimination dans une société algorithmique

En raison du champ d’application de la Charte, tel qu’exprimĂ© Ă  l’article 51 paragraphe1, l’interdiction de discrimination s’applique aux « institutions et organes de l’Union » ainsi qu’aux « États membres uniquement lorsqu’ils mettent en Ɠuvre le droit de l’Union ». Par consĂ©quent, il incombe Ă  l’UE de s’abstenir de toute forme de discrimination fondĂ©e sur l’ensemble des Ă©lĂ©ments Ă©numĂ©rĂ©s Ă  l’article 21. Cela signifie, par exemple, que Frontex, une agence de l’UE, ne peut pas utiliser un logiciel de contrĂŽle des frontiĂšres qui discrimine les individus sur la base de facteurs tels que la couleur de la peau, l’origine ethnique ou la langue.

Cependant, les États membres ont une obligation plus limitĂ©e : la clause de non-discrimination contenue dans l’article 21 ne s’applique que lorsqu’il existe un « lien direct » avec la lĂ©gislation de l’UE.2 Dans le cadre du champ d’application matĂ©riel des quatre directives anti-discrimination de l’UE (directives 2000/43/CE, 2000/78/CE, 2004/113/CE et 2006/54/CE), les dispositions du droit dĂ©rivĂ© interdisent la discrimination fondĂ©e sur le sexe ou le genre, la race ou l’origine ethnique, l’orientation sexuelle, le handicap, la religion ou les croyances et l’ñge.3 L’article 21 de la Charte, qui consacre le principe gĂ©nĂ©ral de l’égalitĂ© de traitement, s’applique dans le cadre spĂ©cifique dĂ©fini par ces directives.4 Toutefois, lorsque les directives ne peuvent pas, en principe, s’appliquer directement aux parties privĂ©es, la Cour de justice de l’Union europĂ©enne (CJUE) a reconnu Ă  l’article 21 (1) de la Charte des effets horizontaux directs.5 Ainsi, l’article 21 interdit aux employeurs privĂ©s au sein de l’UE de dĂ©ployer des outils de recrutement algorithmiques qui dĂ©favorisent indĂ»ment les femmes ou les candidats handicapĂ©s.

Dans les cas oĂč la situation ne relĂšve pas du champ d’application du droit dĂ©rivĂ© de l’UE, mais conserve un lien direct avec le droit de l’UE,6 l’article 21 fonctionne de maniĂšre subsidiaire.7 Par exemple, l’article 21 interdit Ă  un État membre de mettre en Ɠuvre un systĂšme algorithmique discriminatoire dans le cadre du traitement de donnĂ©es Ă  caractĂšre personnel, qui est rĂ©gi par le RĂšglement gĂ©nĂ©ral sur la protection des donnĂ©es de l’UE.8

Examinons un exemple concret. En 2022, une Ă©tudiante nĂ©erlandaise nommĂ©e Robin Pocornie, soutenue par le Racism and Technology Centre, a dĂ©posĂ© une plainte pour discrimination auprĂšs de l’organisme nĂ©erlandais de promotion de l’égalitĂ© et de l’institution nationale des droits de l’homme, le College voor de Rechten van de Mens (l’Institut des droits de l’homme). Pocornie a affirmĂ© que l’utilisation par la Vrije Universiteit Amsterdam (l’UniversitĂ© libre d’Amsterdam) d’un logiciel de surveillance pour empĂȘcher la tricherie lors des examens passĂ©s Ă  domicile pendant la pandĂ©mie de Covid-19 en 2020 Ă©tait discriminatoire Ă  son Ă©gard en raison de sa race. L’application n’a pas reconnu son visage Ă  plusieurs reprises, compliquant ainsi sa participation aux examens et lui imposant un stress inutile. D’aprĂšs les preuves qu’elle a recueillies, les Ă©tudiants non racisĂ©s n’ont pas rencontrĂ© ce problĂšme. Son affirmation confirme les recherches universitaires montrant que les systĂšmes commerciaux de reconnaissance faciale sont nettement moins performants lorsqu’ils tentent d’identifier les visages de personnes (et en particulier de femmes) Ă  la peau plus foncĂ©e.9 Lorsque ces systĂšmes sont utilisĂ©s pour contrĂŽler l’accĂšs aux ressources, aux services, aux institutions ou aux privilĂšges, leurs performances mĂ©diocres pour certains groupes dĂ©mographiques entraĂźnent des discriminations injustes.

2. Application de l’article 21 aux biais algorithmiques

Cette section est l’occasion d’analyser l’interprĂ©tation juridique de l’article 21 en relation avec la partialitĂ© algorithmique. Dans le cas de l’application de surveillance biaisĂ©e, le systĂšme a Ă©tĂ© utilisĂ© pour surveiller les examens, qui font partie intĂ©grante des cours et permettent d’accĂ©der Ă  des opportunitĂ©s futures. ConformĂ©ment au droit europĂ©en,10 cette affaire relĂšve du champ d’application de la Directive 2000/43/CE relative au principe de l’égalitĂ© de traitement entre les personnes sans distinction de race, qui s’étend au domaine de l’éducation.11 Le principe gĂ©nĂ©ral d’égalitĂ© de traitement inscrit Ă  l’article 21 s’applique Ă©galement Ă  ce cas, car la directive Ă©tablit le lien permettant aux États membres d’ĂȘtre considĂ©rĂ©s comme appliquant le droit communautaire. ConformĂ©ment Ă  la dĂ©cision de la CJUE dans l’affaire Egenberger, l’interdiction de la discrimination est directement applicable aux entitĂ©s publiques et privĂ©es.12 L’article 21 de la Charte confĂšre donc au requĂ©rant un droit directement exĂ©cutoire Ă  l’égalitĂ© de traitement algorithmique Ă  l’encontre de la Vrije Universiteit Amsterdam (l’UniversitĂ© libre d’Amsterdam).

NĂ©anmoins, la transposition du droit fondamental Ă  la non-discrimination dans le contexte des biais algorithmiques pose quelques dĂ©fis quant Ă  la qualification juridique de ces biais. Par exemple, dans son jugement provisoire du 7 dĂ©cembre 2022, l’Institut nĂ©erlandais des droits de l’homme a mis l’accent sur les difficultĂ©s rencontrĂ©es par Pocornie pour prĂ©senter des preuves que l’outil de surveillance fonctionnait diffĂ©remment pour les Ă©tudiants ayant des couleurs de peau diffĂ©rentes.13 L’Institut a soulignĂ© qu’étant donnĂ© que « les registres [informatiques] n’étaient pas fournis aux candidats Ă  l’examen », « la requĂ©rante [
] n’avait aucune idĂ©e des notifications que le logiciel avait enregistrĂ©es dans son cas et ne pouvait donc pas les relier Ă  un Ă©vĂ©nement particulier ou Ă  une action (ou absence d’action) de sa part ». Cette remarque met en Ă©vidence le dĂ©fi auquel sont confrontĂ©es les victimes de biais algorithmiques lorsqu’il s’agit de faire naĂźtre un soupçon raisonnable de discrimination. Le manque d’accĂšs Ă  des informations comprĂ©hensibles sur le fonctionnement du systĂšme et l’« atomisation » des expĂ©riences individuelles dans l’environnement en ligne entravent la comparaison heuristique traditionnelle qui sous-tend l’application de la loi sur la non-discrimination. Cependant, l’Institut nĂ©erlandais des droits de l’homme a analysĂ© l’expĂ©rience de la candidate avec le logiciel de surveillance dans le contexte de la recherche existante sur les biais dans les logiciels de reconnaissance faciale afin d’établir une prĂ©somption de discrimination. Cette prĂ©somption a dĂ©placĂ© la charge de la preuve sur le dĂ©fendeur, en l’occurrence l’UniversitĂ© (et le fournisseur du logiciel).14

L’Institut nĂ©erlandais des droits de l’homme a catĂ©gorisĂ© l’affaire comme un cas de discrimination indirecte, estimant qu’il Ă©tait « possible que les algorithmes de dĂ©tection des visages [
] aient, de maniĂšre pratique, une incidence plus particuliĂšrement sur les personnes ayant une couleur de peau plus foncĂ©e ». En vertu du droit dĂ©rivĂ© de l’UE, la constatation d’une discrimination indirecte aboutit Ă  un test de proportionnalitĂ© ouvert, selon lequel une pratique discriminatoire prima facie peut ĂȘtre justifiĂ©e si elle rĂ©pond Ă  un objectif lĂ©gitime par des moyens appropriĂ©s et nĂ©cessaires. Toutefois, du point de vue de l’article 21 de la Charte, la proportionnalitĂ© doit ĂȘtre Ă©valuĂ©e Ă  l’aide des critĂšres Ă©noncĂ©s Ă  l’article 52 (1). La prĂ©sente disposition stipule que « toute limitation de l’exercice des droits et libertĂ©s reconnus par la prĂ©sente Charte doit ĂȘtre prĂ©vue par la loi et respecter le contenu essentiel desdits droits et libertĂ©s », et que « des limitations ne peuvent ĂȘtre apportĂ©es que si elles sont nĂ©cessaires et rĂ©pondent effectivement Ă  des objectifs d’intĂ©rĂȘt gĂ©nĂ©ral reconnus par l’Union ou au besoin de protection des droits et libertĂ©s d’autrui ». Il en rĂ©sulte une seconde problĂ©matique liĂ©e Ă  la transposition des paramĂštres du test de proportionnalitĂ© au fonctionnement d’un systĂšme algorithmique. Dans l’affaire relative Ă  la surveillance, la partie dĂ©fenderesse a soutenu que « la discrimination opĂ©rĂ©e est [
] justifiĂ©e par l’intĂ©rĂȘt lĂ©gitime de prĂ©venir la fraude aux examens dans le contexte de la pandĂ©mie de [COVID-19] » et que « l’utilisation d’un logiciel de surveillance Ă©tait Ă  la fois appropriĂ©e et nĂ©cessaire Ă  cet Ă©gard ». Un dĂ©fendeur pourrait soutenir que la garantie de l’équitĂ© des examens et le maintien du mĂ©rite dans l’éducation sont un objectif d’intĂ©rĂȘt gĂ©nĂ©ral et que, compte tenu des circonstances, l’utilisation d’un logiciel de surveillance Ă©tait Ă  la fois appropriĂ©e et nĂ©cessaire. En outre, un dĂ©fendeur pourrait affirmer que la proportionnalitĂ© stricto sensu est maintenue, car le signalement pourrait ne pas atteindre le seuil permettant de le qualifier de prĂ©judice discriminatoire, en particulier s’il ne rĂ©sulte pas en un prĂ©judice ultĂ©rieur. À l’inverse, l’Institut nĂ©erlandais des droits de l’homme, se rĂ©fĂ©rant Ă  la jurisprudence de la Cour europĂ©enne des droits de l’homme, a affirmĂ© que la signalisation constituait en soi un prĂ©judice discriminatoire et que « l’absence allĂ©guĂ©e de consĂ©quences matĂ©riellement prĂ©judiciables dues au fait que la durĂ©e de l’examen a Ă©tĂ© prolongĂ©e n’était pas pertinente ».15

3. Mettre à profit les atouts de l’article 21 pour lutter contre la discrimination algorithmique

Si la section 2 a mis en lumiĂšre certains des problĂšmes rencontrĂ©s dans le traitement des biais algorithmiques sous l’angle du droit fondamental Ă  la non-discrimination, l’article 21 de la Charte contient Ă©galement un certain nombre de dispositifs intĂ©ressants qui peuvent ĂȘtre exploitĂ©s pour interprĂ©ter la disposition de maniĂšre ciblĂ©e dans le contexte des systĂšmes algorithmiques.

PremiĂšrement, l’article 21 (1) fournit une liste ouverte de catĂ©gories protĂ©gĂ©es qui pourraient ĂȘtre exploitĂ©es dans le contexte de la diffĂ©renciation algorithmique systĂ©mique.16 Par exemple, l’« origine sociale » et la « fortune » sont explicitement mentionnĂ©es Ă  l’article 21 comme des Ă©lĂ©ments protĂ©gĂ©s, qui pourraient servir de base pour lutter contre la discrimination algorithmique fondĂ©e sur le revenu ou le profilage socio-Ă©conomique. NĂ©anmoins, cet article concerne exclusivement les situations dans lesquelles les États membres appliquent le droit de l’UE, mais ces situations ne relĂšvent pas au champ d’application matĂ©riel des directives de non-discrimination. En effet, dans l’affaire FOA, la CJUE a affirmĂ© que « il n’y a pas lieu d’étendre le champ d’application de la directive 2000/78 par analogie au-delĂ  des discriminations fondĂ©es sur les motifs Ă©numĂ©rĂ©s de maniĂšre exhaustive Ă  l’article 1er de celle-ci ».17

La dimension ouverte de la clause de non-discrimination de l’article 21 de la Charte pourrait Ă©galement faciliter la correction des schĂ©mas complexes de discrimination algorithmique,18 un phĂ©nomĂšne dont la recherche a montrĂ© qu’il Ă©tait trĂšs rĂ©pandu.19 Toutefois, la rĂ©ticence manifestĂ©e par la CJUE dans l’affaire Parris Ă  l’égard de la discrimination intersectionnelle, si elle se reflĂšte dans l’interprĂ©tation de l’article 21, pourrait rĂ©duire l’efficacitĂ© de la Charte dans la lutte contre la discrimination algorithmique.20

En second lieu, en principe, l’application de l’article 21 ne nĂ©cessite pas la distinction conventionnelle entre la discrimination directe et indirecte.21 Pour les situations qui prĂ©sentent un lien direct avec le droit europĂ©en, mais qui n’entrent pas dans le champ d’application du droit dĂ©rivĂ© de l’UE en matiĂšre de lutte contre la discrimination, un rĂ©gime de justification unifiĂ© dĂ©coule de l’article 52 (1). Étant donnĂ© la difficultĂ© de qualifier le

“...es droits fondamentaux protĂ©gĂ©s par la Charte, tels que la non-discrimination, devraient fonctionner de maniĂšre transparente audelĂ  de la frontiĂšre entre les domaines physique et numĂ©rique...”

biais algorithmique en tant que discrimination directe ou indirecte,22 et les obstacles probables Ă  la justification des cas de discrimination algorithmique directe, le cadre de justification unifiĂ© attachĂ© Ă  l’article 21 de la Charte pourrait constituer une voie de recours intĂ©ressante. Toutefois, dans la pratique, la CJUE a tendance Ă  intĂ©grer le cadre analytique diffĂ©renciĂ© prĂ©vu par les directives anti-discrimination de l’UE en ce qui concerne les justifications pour interprĂ©ter l’interdiction de discrimination telle qu’elle est dĂ©finie par la Charte.23

Les restrictions au droit fondamental Ă  l’égalitĂ© de traitement en vertu de l’article 21 ne peuvent ĂȘtre tolĂ©rĂ©es que si elles sont « prĂ©vues par la loi et respectent l’essence des droits et libertĂ©s », tels qu’ils sont garantis par la Charte. Ainsi, la marge de manƓuvre des entreprises privĂ©es est intrinsĂšquement rĂ©duite, car tout systĂšme discriminatoire doit s’aligner sur un cadre lĂ©gal et respecter « le contenu essentiel » du droit Ă  la non-discrimination. En outre, le test de proportionnalitĂ© intĂ©grĂ© Ă  la Charte impose deux conditions : les limitations doivent ĂȘtre « nĂ©cessaires » et « rĂ©pondent effectivement Ă  des objectifs d’intĂ©rĂȘt gĂ©nĂ©ral reconnus par l’Union ou au besoin de protection des droits et libertĂ©s d’autrui. » Dans le cas de l’outil de surveillance algorithmique, on pourrait affirmer que l’atteinte au droit des Ă©tudiants Ă  la non-discrimination n’était pas prĂ©vue par la loi, ne respectait pas l’essence du droit fondamental garanti par l’article 21, ne correspondait pas vĂ©ritablement aux objectifs d’intĂ©rĂȘt gĂ©nĂ©ral reconnus par l’UE et n’était pas nĂ©cessaire pour protĂ©ger les droits et les libertĂ©s d’autrui.24 Le rĂ©gime Ă©tabli Ă  l’article 52 (1) restreint donc considĂ©rablement l’ensemble des justifications admissibles avant mĂȘme de procĂ©der Ă  une analyse de la proportionnalitĂ© stricto sensu. Cet aspect unique du droit Ă  la non-discrimination, tel qu’il est consacrĂ© Ă  l’article 21 de la Charte, pourrait donc contribuer Ă  anticiper et Ă  contourner certaines des difficultĂ©s liĂ©es au contrĂŽle de la proportionnalitĂ© stricto sensu des dĂ©cisions prises dans le contexte des compromis entre l’équitĂ© et la prĂ©cision dans les systĂšmes algorithmiques.25

Conclusions

Afin de rappeler le titre de cette sĂ©rie d’articles, la prise de conscience du fait que les droits garantis par la Charte sont des droits numĂ©riques et vice versa est d’une importance capitale dans le contexte d’une sociĂ©tĂ© algorithmique. En effet, les droits fondamentaux protĂ©gĂ©s par la Charte, tels que la non-discrimination, devraient fonctionner de maniĂšre transparente au-delĂ  de la frontiĂšre entre les domaines physique et numĂ©rique. Une interprĂ©tation tĂ©lĂ©ologique de ces droits est essentielle pour garantir que les transformations sociotechniques, telles que le dĂ©ploiement gĂ©nĂ©ralisĂ© de systĂšmes algorithmiques d’évaluation des risques et de prise de dĂ©cision, ne compromettent pas l’équilibre normatif inscrit dans les cadres juridiques. Par consĂ©quent, pour garantir une protection efficace des droits fondamentaux, il est nĂ©cessaire de réévaluer les rĂ©glementations existantes Ă  la lumiĂšre de la maniĂšre dont les avancĂ©es technologiques modifient la dynamique du pouvoir et redistribuent les coĂ»ts et les bĂ©nĂ©fices sociĂ©taux.

Nadia Benaissa, Bits of freedom

Un

espace pour ĂȘtre et devenir : la protection de la vie privĂ©e, la base du dĂ©veloppement personnel

ConformĂ©ment Ă  l’article 20 de la Charte des droits fondamentaux de l’Union europĂ©enne (UE) (« la Charte »), toutes les personnes sont Ă©gales et se trouvent sur un pied d’égalitĂ© en droit. Cependant, l’égalitĂ© n’implique pas l’homogĂ©nĂ©itĂ©. Nous percevons, communiquons et aimons de diverses maniĂšres. Nous portons en nous des histoires familiales uniques, nous naviguons dans des structures de pouvoir diffĂ©rentes et nous portons la signification historique et sociale de notre race et de notre sexe dĂšs le jour de notre naissance. Et nous sommes constamment confrontĂ©s Ă  des interprĂ©tations politiques de la maniĂšre dont nous nous exprimons, de ce que nous reprĂ©sentons et de ce en quoi nous croyons.

Nous sommes tous égaux, mais pas identiques.

De ce fait, nous avons besoin d’espace. De l’espace pour explorer, pour hĂ©siter, pour se dĂ©cider et changer Ă  nouveau d’avis, pour persister et persĂ©vĂ©rer. De l’espace pour comprendre qui nous Ă©tions, qui nous sommes et qui nous aspirons Ă  ĂȘtre. Un espace pour apprendre Ă  connaĂźtre notre moi intĂ©rieur, sans l’interfĂ©rence, la condescendance ou le dĂ©nigrement des autres. Et de l’espace pour vivre notre rĂ©alitĂ©, mĂȘme si cette rĂ©alitĂ© n’est pas populaire, aimĂ©e ou mĂȘme comprise.

Cet espace est l’élĂ©ment vital de notre dĂ©veloppement personnel et d’une sociĂ©tĂ© libre et ouverte. Il est en partie garanti par le droit au respect de la vie privĂ©e, tel que stipulĂ© dans la Charte : « Toute personne a droit au respect de sa vie privĂ©e et familiale, de son domicile et de ses communications. ». Le droit au respect de la vie privĂ©e est inextricablement liĂ© Ă  d’autres droits de l’homme. Par exemple, le traitement de donnĂ©es relatives au sexe, Ă  la religion ou Ă  l’appartenance ethnique pourrait porter atteinte aux droits de l’individu Ă  l’égalitĂ© de traitement ou Ă  la libertĂ© d’expression religieuse. Par consĂ©quent, le droit au respect de la vie privĂ©e joue le rĂŽle de garant des autres droits de l’homme. Cet article examine plusieurs cas rĂ©cents aux Pays-Bas oĂč la violation du droit au respect de la vie privĂ©e a entraĂźnĂ© la violation d’autres droits de l’homme.

Des identités

réduites à des stéréotypes: le traitement des données et les dangers du réductionnisme stéréotypé

Avec l’avĂšnement de capacitĂ©s technologiques de traitement des donnĂ©es apparemment illimitĂ©es, le droit au respect de la vie privĂ©e est mis Ă  rude Ă©preuve. Les donnĂ©es contenant des informations personnelles sont traitĂ©es, analysĂ©es et interprĂ©tĂ©es Ă  une Ă©chelle sans prĂ©cĂ©dent. Les idĂ©es et les conclusions tirĂ©es de ces donnĂ©es sont diffusĂ©es et Ă©changĂ©es. Les aspects multiples qui construisent les identitĂ©s sont simplifiĂ©s, catĂ©gorisĂ©s et regroupĂ©s dans des profils prĂ©dĂ©terminĂ©s, un processus qui rĂ©duit les identitĂ©s complexes Ă  de simples stĂ©rĂ©otypes.

En effet, le profilage pourrait simplifier la prĂ©diction de la rĂ©action d’un individu vis-Ă vis des stratĂ©gies publicitaires ou du succĂšs de traitements mĂ©dicaux. Mais dans quelle mesure est-il appropriĂ© d’estimer, sur la base du profilage, les convictions politiques d’un Ă©lecteur, la probabilitĂ© qu’une personne soit impliquĂ©e dans des « transactions suspectes » ou qu’elle commette une fraude aux prestations sociales ?

En outre, la prise de dĂ©cision automatisĂ©e basĂ©e sur le profilage a Ă©tĂ© annoncĂ©e comme une promesse de simplicitĂ©, d’efficacitĂ© et d’efficience. Malheureusement, il semble que ce soit le contraire qui se produise et que les consĂ©quences soient de plus en plus Ă©videntes, car nous constatons que divers droits fondamentaux sont fragilisĂ©s en raison de violations du droit au respect de la vie privĂ©e.

Une discrimination combinĂ©e: l’impact cumulatif des biais

Le domaine de la sĂ©curitĂ© sociale numĂ©rique offre un exemple frappant d’atteintes Ă  la vie privĂ©e entraĂźnant d’autres violations des droits de l’homme. Le systĂšme de protection sociale numĂ©rique nĂ©erlandais a suscitĂ© le dĂ©sormais cĂ©lĂšbre scandale des allocations familiales1 En 2018, il est apparu que de nombreux parents qui recevaient des allocations familiales de l’administration fiscale nĂ©erlandaise avaient Ă©tĂ© identifiĂ©s Ă  tort comme fraudeurs. Cette classification erronĂ©e a contraint les parents Ă  rembourser des milliers d’euros Ă  l’État, plongeant nombre d’entre eux dans de graves difficultĂ©s financiĂšres, de se retrouver sans domicile fixe et de subir un stress et une pauvretĂ© aiguĂ«. Selon une rĂ©vĂ©lation alarmante, pas moins de 2090 enfants de parents concernĂ©s ont Ă©tĂ© pris en charge entre 2015 et 20222

Parmi les parents concernĂ©s, il s’est avĂ©rĂ© qu’un nombre disproportionnĂ© d’entre eux Ă©taient issus de l’immigration. Cette constatation a Ă©tĂ© corroborĂ©e par des enquĂȘtes ultĂ©rieures, qui ont rĂ©vĂ©lĂ© que l’administration fiscale utilisait des donnĂ©es relatives Ă  la nationalitĂ© des parents. L’autoritĂ© nĂ©erlandaise de protection des donnĂ©es3 a confirmĂ© cette affirmation et identifiĂ© trois processus de traitement illicites. PremiĂšrement, les doubles nationalitĂ©s Ă©taient traitĂ©es. DeuxiĂšmement, les donnĂ©es relatives Ă  la nationalitĂ© Ă©taient utilisĂ©es comme indicateur pour le modĂšle de classification des risques. TroisiĂšmement, ce modĂšle Ă©tait utilisĂ© pour dĂ©tecter la fraude organisĂ©e. L’AutoritĂ© a conclu Ă  l’existence d’une discrimination fondĂ©e sur la nationalitĂ©. L’enquĂȘte complĂ©mentaire d’Amnesty International4 a rĂ©vĂ©lĂ© que la discrimination Ă©tait perpĂ©trĂ©e non seulement sur la base de la nationalitĂ©, mais aussi de l’appartenance ethnique. En effet, l’utilisation des donnĂ©es relatives Ă  la nationalitĂ© a facilitĂ© le ciblage discriminatoire des minoritĂ©s ethniques par le modĂšle de classification des risques. Comme le souligne Amnesty dans son rapport, « le profilage ethnique viole l’interdiction de la discrimination. Il conduit Ă  la criminalisation de certains groupes de personnes et renforce les associations traditionnellement stĂ©rĂ©otypĂ©es entre la fraude et l’appartenance ethnique ».

En outre, l’enquĂȘte a rĂ©vĂ©lĂ© que les personnes qui recevaient des allocations plus Ă©levĂ©es Ă©taient plus susceptibles d’ĂȘtre accusĂ©es de fraude. Les personnes issues de mĂ©nages Ă  faibles revenus ont donc Ă©tĂ© touchĂ©es de maniĂšre disproportionnĂ©e en raison de leur plus grande dĂ©pendance vis-Ă -vis des prestations et des sommes plus importantes qu’elles percevaient. De plus, les parents Ă  faible revenu ont rencontrĂ© des difficultĂ©s Ă  rembourser les sommes considĂ©rables exigĂ©es par le gouvernement nĂ©erlandais. L’évaluation d’Amnesty a qualifiĂ© la situation de discrimination intersectionnelle5, car les personnes les plus touchĂ©es Ă©taient gĂ©nĂ©ralement des groupes ethniques minoritaires, qui sont gĂ©nĂ©ralement plus susceptibles d’avoir de faibles revenus. Pour aggraver le problĂšme, il semble par la suite qu’un profilage religieux6 Ă©tait Ă©galement pratiquĂ©, les personnes ayant fait des dons Ă  des mosquĂ©es Ă©tant considĂ©rĂ©es comme prĂ©sentant un risque plus Ă©levĂ©.

Le scandale des allocations familiales illustre de maniĂšre frappante la nature intersectionnelle de la discrimination, dans laquelle plusieurs axes de biais se renforcent mutuellement. Ce phĂ©nomĂšne n’est pas nouveau. DĂšs 1989, Crenshaw7 soulignait que l’intersection des couches politiques et sociales de nos identitĂ©s pouvait nous rendre plus vulnĂ©rables Ă  la discrimination ou aux privilĂšges. Des facteurs tels que le sexe, l’appartenance ethnique, la classe sociale, l’orientation sexuelle, la religion, le poids et le handicap peuvent tous influer sur la position d’une personne dans le spectre du pouvoir au sein de la sociĂ©tĂ©. L’intersection de multiples facteurs peut soit consolider une position de privilĂšge, soit exposer un individu Ă  une discrimination aggravĂ©e. Ce phĂ©nomĂšne est bien illustrĂ© par le scandale des allocations familiales du type d’aide garde d’enfants. Par exemple, les personnes musulmanes, Ă  faible revenu et possĂ©dant au moins une origine ethnique non nĂ©erlandaise ont Ă©tĂ© triplement pĂ©nalisĂ©es uniquement sur la base de ces classifications, sans tenir compte de leur situation individuelle.

L’incrimination avant la transgression: le coĂ»t des prĂ©somptions

Ces formes distinctes de discrimination apparaissent lorsque des collecteurs de donnĂ©es, tels que le bureau de l’administration fiscale du gouvernement nĂ©erlandais dans notre exemple prĂ©cĂ©dent, Ă©tablissent des profils sur la base des donnĂ©es collectĂ©es. Alors que

les individus peuvent soupçonner que leurs donnĂ©es peuvent ĂȘtre utilisĂ©es pour faire des suppositions Ă  leur sujet, dans ce dernier cas, ces suppositions ont Ă©tĂ© utilisĂ©es pour prĂ©dire la probabilitĂ© que l’individu commette une fraude Ă  la sĂ©curitĂ© sociale. En outre, la tendance Ă  suspecter des individus avant mĂȘme (ou malgrĂ© l’absence) de violation des rĂšgles montre que les actions supposĂ©es de la catĂ©gorie Ă  laquelle appartient une personne sont primordiales dans l’établissement de son profil de risque. Il est essentiel de noter que le gouvernement nĂ©erlandais a justifiĂ© sa mise en Ɠuvre du profilage algorithmique par le fait qu’il contribuerait Ă  la dĂ©tection et Ă  la prĂ©vention efficaces de la fraude, servant ainsi l’intĂ©rĂȘt public. Ainsi, la question se pose de savoir si l’argument de l’intĂ©rĂȘt public doit l’emporter sur les droits et les intĂ©rĂȘts des citoyens individuels.

En 2020, la Cour de district de La Haye8 a contestĂ© cette notion, estimant que la prĂ©vention et la lutte contre la fraude dans l’intĂ©rĂȘt du bien-ĂȘtre Ă©conomique doivent ĂȘtre mises en balance avec les intrusions dans la vie privĂ©e des individus. La Cour a Ă©valuĂ© si la lĂ©gislation sur le Systeem Risico Indicatie (SyRI), qui permettait la confluence de diverses donnĂ©es pour lutter contre la fraude, Ă©tait en violation de l’article 8 de la Convention europĂ©enne des droits de l’homme. La Cour a dĂ©terminĂ© que la lĂ©gislation SyRI ne rĂ©pondait pas au critĂšre du « juste Ă©quilibre » nĂ©cessaire pour justifier la violation du droit Ă  la vie privĂ©e pour la dĂ©fense d’intĂ©rĂȘts plus larges. Par ailleurs, la Cour a notĂ© que l’utilisation de SyRI n’offrait que peu de mesures de protection en raison de son manque de transparence et de vĂ©rifiabilitĂ©. La lĂ©gislation violant le droit europĂ©en, elle a Ă©tĂ© jugĂ©e illĂ©gale et non applicable. Les actions en justice intentĂ©es par des organisations de la sociĂ©tĂ© civile, notamment le ComitĂ© nĂ©erlandais des juristes pour les droits de l’homme et la Plate-forme pour les droits civils, ont envoyĂ© un message clair : Les tribunaux et gouvernements doivent examiner judicieusement les intrusions dans la vie privĂ©e des individus, notamment par la collecte, la combinaison et le partage de donnĂ©es personnelles.

Le droit au respect de la vie privĂ©e: la sentinelle des droits de l’homme

La collecte et le traitement de donnĂ©es Ă  grande Ă©chelle ont des consĂ©quences considĂ©rables. En effet, les personnes considĂ©rĂ©es comme prĂ©sentant un risque Ă©levĂ© doivent en subir les consĂ©quences, qu’elles soient au courant ou non de cette classification. Le scandale des allocations familiales illustre Ă  quel point le coĂ»t humain de telles violations est important. En outre, alors que les allocations Ă©taient brusquement supprimĂ©es et que les demandes de remboursement s’accumulaient, les parents ne savaient pas pourquoi ils avaient Ă©tĂ© accusĂ©s de fraude, et les demandes d’information9 se heurtaient Ă  des dossiers lourdement rĂ©digĂ©s. MĂȘme la protection juridique s’est avĂ©rĂ©e insuffisante. Selon le Conseil judiciaire10, les familles ont Ă©tĂ© contraintes Ă  une lutte inĂ©gale contre un gouvernement bien plus puissant.

Selon la Charte des droits fondamentaux de l’UE, la dignitĂ© humaine est inviolable et doit ĂȘtre respectĂ©e et protĂ©gĂ©e (article 1), et la discrimination est interdite (article 21). Les individus ont droit Ă  la libertĂ© de pensĂ©e et de croyance (article 10), Ă  la libertĂ© d’expression (article 11), Ă  l’égalitĂ© en droit (article 20), au droit Ă  la protection et aux soins des enfants (article 24), au droit Ă  la sĂ©curitĂ© sociale si l’autosuffisance n’est pas rĂ©alisable (article 34) et au droit Ă  la protection juridique (article 47). Les personnes ont le droit d’ĂȘtre prĂ©sumĂ©es innocentes jusqu’à ce que leur culpabilitĂ© soit prouvĂ©e. Tous ces droits garantis par la Charte ont Ă©tĂ© menacĂ©s dans le scandale des allocations familiales, qui a commencĂ© par le traitement illĂ©gal de donnĂ©es Ă  caractĂšre personnel. Le fait que l’un des objectifs centraux du RĂšglement gĂ©nĂ©ral sur la protection des donnĂ©es soit de protĂ©ger tous les droits et libertĂ©s fondamentaux, en particulier (mais pas exclusivement) le droit Ă  la protection des donnĂ©es Ă  caractĂšre personnel, n’est pas sans fondement. La violation de la vie privĂ©e par le traitement de donnĂ©es Ă  caractĂšre personnel peut porter atteinte Ă  d’autres droits fondamentaux. Ainsi, nous qualifions le droit au respect de la vie privĂ©e de « garant » des autres droits de l’homme. Ce constat souligne la raison pour laquelle nous devons continuer Ă  dĂ©fendre le droit au respect de la vie privĂ©e en tant que droit fondamental : il est essentiel Ă  la sauvegarde d’une sociĂ©tĂ© ouverte et libre dans laquelle chacun est Ă©gal et dont les diffĂ©rences sont prĂ©servĂ©es, respectĂ©es et valorisĂ©es.

“La violation de la vie privĂ©e par le traitement de donnĂ©es Ă  caractĂšre personnel peut porter atteinte Ă  d’autres droits fondamentaux. C’est pourquoi nous qualifions le droit au respect de la vie privĂ©e de « gardien » des autres droits de l’homme.”

Ioannis Kouvakas, Conseiller juridique principal et avocat général adjoint, Privacy International (PI) ; doctorant externe, Groupe de recherche sur le droit, la science, la technologie et la société (LSTS), Université libre de Bruxelles (VUB).

Remarques générales

L’article 8 de la Charte des droits fondamentaux de l’UE (la Charte) consacre expressĂ©ment un droit Ă  la protection des donnĂ©es Ă  caractĂšre personnel, qui est distinct du droit au respect de la vie privĂ©e consacrĂ© Ă  l’article 7 de la Charte et n’a pas d’équivalent dans la Convention europĂ©enne des droits de l’homme (CEDH).1 Il contient un ensemble d’obligations et de limitations visant Ă  rĂ©gir le traitement des donnĂ©es Ă  caractĂšre personnel des personnes, notamment l’exigence que les donnĂ©es Ă  caractĂšre personnel soient traitĂ©es « loyalement, Ă  des fins dĂ©terminĂ©es et sur la base du consentement de la personne concernĂ©e ou en vertu d’un autre fondement lĂ©gitime prĂ©vu par la loi », tout en Ă©tablissant un droit d’accĂšs et de rectification des donnĂ©es Ă  caractĂšre personnel collectĂ©es Ă  leur sujet (article 8 (2)). La Cour de justice de l’UE (CJUE) a Ă©galement introduit un droit Ă  l’oubli en application de l’article 8.2 L’article 8 (3) de la Charte soumet le respect des rĂšgles en matiĂšre de protection des donnĂ©es Ă  la surveillance d’une autoritĂ© indĂ©pendante. Les acquis de l’UE en matiĂšre de protection des donnĂ©es sont complĂ©tĂ©s par le droit dĂ©rivĂ©, notamment le RĂšglement gĂ©nĂ©ral sur la protection des donnĂ©es (RGPD)3 et la Directive relative Ă  l’application des lois4

En se concentrant sur la jurisprudence qui a façonnĂ© l’interprĂ©tation de l’article 8 de la Charte, cet article examine certaines questions relatives Ă  l’application de ce droit et Ă  sa relation avec l’article 7 de la Charte Ă  l’ùre numĂ©rique.

Champ d’application

L’article 8 s’applique au « traitement » de « donnĂ©es Ă  caractĂšre personnel ». Ces deux termes, dĂ©finis dans le droit dĂ©rivĂ© de l’UE,5 ont Ă©tĂ© largement interprĂ©tĂ©s par la CJUE. Les « donnĂ©es Ă  caractĂšre personnel » englobent tous les types d’informations relatives Ă  une personne identifiĂ©e ou identifiable, qu’elles soient de nature privĂ©e ou sensible,6 ainsi que les informations subjectives telles que les avis et les apprĂ©ciations.7 Il n’est pas nĂ©cessaire que l’identitĂ© de la personne soit dĂ©jĂ  connue ; ce qui compte, c’est que l’entitĂ© responsable du traitement soit raisonnablement en mesure d’identifier la personne. Dans l’affaire Breyer, la CJUE a jugĂ© que les adresses IP dynamiques pouvaient constituer des donnĂ©es Ă  caractĂšre personnel mĂȘme si les informations supplĂ©mentaires nĂ©cessaires pour identifier l’utilisateur d’un site web n’étaient pas dĂ©tenues par le fournisseur de services de mĂ©dias en ligne qui collectait les adresses IP.8 ParallĂšlement, la notion de « traitement » doit ĂȘtre comprise comme toute opĂ©ration effectuĂ©e sur des donnĂ©es Ă  caractĂšre personnel, y compris la collecte, la conservation, le transfert, l’effacement, etc.9

En effet, l’article 8, tout comme les autres droits de la Charte, lie Ă  la fois les organes de l’UE et les États membres lorsqu’ils mettent en Ɠuvre le droit de l’UE (article 51 (1) de la Charte). Dans l’affaire Tele2, la CJUE a examinĂ© la validitĂ© d’une loi nationale imposant aux fournisseurs de services de tĂ©lĂ©communications l’obligation de conserver certaines donnĂ©es de tĂ©lĂ©communications Ă  des fins judiciaires.10 Bien que les activitĂ©s relatives Ă  la rĂ©pression soient explicitement exclues du champ d’application de la Directive vie privĂ©e et communications Ă©lectroniques, qui garantit la confidentialitĂ© des communications,11 la Cour a estimĂ© que la lĂ©gislation de l’UE couvrait toujours la conservation des donnĂ©es par les fournisseurs de services ainsi que l’accĂšs Ă  ces donnĂ©es par les autoritĂ©s, car, entre autres, ladite directive imposait des obligations visant Ă  garantir la confidentialitĂ© des communications et prĂ©voyait des restrictions possibles, y compris en matiĂšre de rĂ©pression.12

La mĂȘme conclusion a Ă©tĂ© tirĂ©e dans l’affaire Privacy International,13 sur des mesures similaires, mais cette fois dans le but de sauvegarder la sĂ©curitĂ© nationale, un domaine qui « reste de la seule responsabilitĂ© de chaque État membre » (article 4 (2) du TraitĂ© sur l’UE). Appliquant le raisonnement suivi dans l’affaire Tele2, la Cour a estimĂ© que les mesures lĂ©gislatives rĂ©glementant les activitĂ©s des fournisseurs de services de tĂ©lĂ©communications relevaient du champ d’application de la Directive vie privĂ©e et communications Ă©lectroniques (et, par consĂ©quent, du droit de l’UE) parce qu’elles impliquaient le traitement de donnĂ©es Ă  caractĂšre personnel par ces fournisseurs en vertu de cette mĂȘme directive.14

Interactions avec l’article 7 de la Charte

Dans sa distinction entre les articles 7 et 8 de la Charte, la CJUE ne suit pas une approche constante, dĂ©clarant en gĂ©nĂ©ral que la protection des donnĂ©es « est Ă©troitement liĂ©e au droit au respect de la vie privĂ©e ».15 Lorsqu’elle examine s’il y a eu ingĂ©rence dans les articles 7 et 8, la CJUE concentre souvent son analyse sur la question de savoir s’il y a eu ingĂ©rence dans le droit au respect de la vie privĂ©e, puis dĂ©clare qu’il y a Ă©galement ingĂ©rence dans le droit Ă  la protection des donnĂ©es parce que la mesure en cause implique le traitement de donnĂ©es Ă  caractĂšre personnel.16

De mĂȘme, cette derniĂšre a indĂ»ment insistĂ© sur le fait qu’il fallait d’abord Ă©tablir l’existence d’une ingĂ©rence dans l’article 7 avant de juger que l’article 8 Ă©tait Ă©galement en cause.17 Dans l’affaire Schecke, par exemple, qui portait sur la validitĂ© de la lĂ©gislation europĂ©enne exigeant la publication de dĂ©tails sur les bĂ©nĂ©ficiaires de fonds agricoles, la Cour de Luxembourg n’a pas fait de distinction entre les deux droits et a traitĂ© les articles 7 et 8 comme un seul « droit au respect de la vie privĂ©e Ă  l’égard du traitement des donnĂ©es Ă  caractĂšre personnel ».18 Cette approche, fortement influencĂ©e par la jurisprudence de la Cour europĂ©enne des droits de l’homme (Cour EDH), qui, pour faire valoir sa compĂ©tence, doit d’abord Ă©tablir une ingĂ©rence dans le droit au respect de la vie privĂ©e en vertu de l’article 8 de la CEDH, semble considĂ©rer la protection des donnĂ©es comme un sous-ensemble du droit au respect de la vie privĂ©e et pourrait compromettre l’existence de la protection des donnĂ©es en tant que droit indĂ©pendant garanti par la Charte. Inversement, le large champ d’application de l’article 8 de la CEDH pourrait permettre de dĂ©clencher plus facilement l’applicabilitĂ© de la Charte, voire d’établir une ingĂ©rence dans l’article 8 de la CEDH, devant les juridictions nationales, Ă©tant donnĂ© que le traitement de donnĂ©es Ă  caractĂšre personnel dans le contexte numĂ©rique est susceptible de constituer une ingĂ©rence dans le droit au respect de la vie privĂ©e.19 Par exemple, en dĂ©cidant que la reconnaissance faciale rĂ©alisĂ©e en public constituait une ingĂ©rence dans l’article 8 de la CEDH, la Divisional Court du Royaume-Uni a Ă©galement mis l’accent sur les termes « donnĂ©es Ă  caractĂšre personnel » et « traitement » contenus dans l’article 8 de la Charte :

58. La [CJUE] a Ă©galement soulignĂ© Ă  plusieurs reprises que le droit Ă  la protection des donnĂ©es Ă  caractĂšre personnel est « Ă©troitement liĂ© au droit au respect de la vie privĂ©e » et que « le droit au respect de la vie privĂ©e Ă  l’égard du traitement des donnĂ©es Ă  caractĂšre personnel » est fondĂ© Ă  la fois sur les articles 7 et 8 de la Charte des droits fondamentaux de l’Union europĂ©enne et s’étend Ă  « toute information concernant une personne identifiĂ©e ou identifiable ».20

Limites

L’article 52 de la Charte Ă©nonce horizontalement une sĂ©rie de conditions auxquelles doivent rĂ©pondre les Ă©ventuelles limitations Ă  l’exercice des droits garantis par la Charte. Les limitations doivent ĂȘtre prĂ©vues par la loi, respecter le contenu essentiel des droits et libertĂ©s et ĂȘtre proportionnĂ©es ; elles ne peuvent ĂȘtre apportĂ©es que si elles sont nĂ©cessaires et rĂ©pondent effectivement Ă  des objectifs d’intĂ©rĂȘt gĂ©nĂ©ral reconnus par l’Union europĂ©enne ou au besoin de protection des droits et libertĂ©s d’autrui (article 52 (1)).

L’article 8 de la Charte ne prĂ©voyant qu’un systĂšme de contrĂŽle auquel le traitement des donnĂ©es Ă  caractĂšre personnel doit satisfaire, l’application de l’article 52 (1) Ă  ce dernier revient Ă  apprĂ©cier les limitations imposĂ©es aux Ă©lĂ©ments essentiels de ce droit. NĂ©anmoins, la CJUE s’est montrĂ©e plus Ă  l’aise dans le cadre de l’application de l’article 52 (1) de la Charte dans le contexte de l’article 7.21

En ce qui concerne l’essence du droit Ă  la protection des donnĂ©es, la Cour de Luxembourg considĂšre gĂ©nĂ©ralement qu’il est respectĂ© Ă  condition que la mesure en question contienne certaines dispositions relatives Ă  la protection des donnĂ©es, en particulier Ă  la sĂ©curitĂ© des donnĂ©es. Dans l’affaire Digital Rights Ireland, la CJUE a estimĂ© que les obligations imposĂ©es aux fournisseurs de services de communication exigeant la conservation de certaines donnĂ©es de communication ne violaient pas l’essence des droits Ă©noncĂ©s aux articles 7 et 8 de la Charte.22 En ce qui concerne l’article 8, elle a soulignĂ© que « les États membres veillent Ă  l’adoption de mesures techniques et organisationnelles appropriĂ©es contre la destruction accidentelle ou illicite, la perte ou l’altĂ©ration accidentelle des donnĂ©es ».23 Si le contenu essentiel de la protection des donnĂ©es est un

noyau minimal dont l’atteinte rend impossible l’exercice de ce droit24 ou, comme l’a dit la Cour, « remet en cause » le droit fondamental en tant que tel,25 une analyse des mesures techniques ou de sĂ©curitĂ© sera probablement insuffisante pour satisfaire aux exigences de l’article 52 (1) de la Charte.

Contrairement Ă  la Cour EDH, la CJUE a appliquĂ© les principes de nĂ©cessitĂ© et de proportionnalitĂ© d’une maniĂšre beaucoup plus structurĂ©e, exigeant que toute limitation prĂ©vue Ă  l’article 8 de la Charte soit strictement nĂ©cessaire 26 La Cour ne se contente pas d’examiner si l’objectif en question pourrait ĂȘtre atteint par des moyens moins restrictifs, mais propose souvent des approches lĂ©gislatives alternatives 27 Lorsqu’il s’agit de mettre en balance la protection des donnĂ©es et d’autres droits ou intĂ©rĂȘts, la CJUE a adoptĂ© une position trĂšs protectrice Ă  l’égard de l’article 8, en dĂ©fendant la protection des donnĂ©es Ă  caractĂšre personnel contre les intĂ©rĂȘts Ă©conomiques des grandes entreprises technologiques,28 ainsi que l’accĂšs du public aux documents 29

Conclusion

En somme, l’article 8 de la Charte confĂšre Ă  la protection des donnĂ©es son propre fondement constitutionnel dans l’UE en tant que droit fondamental, en Ă©tablissant un ensemble de freins et de contrepoids pour rĂ©gir le traitement des donnĂ©es des personnes. Si la CJUE n’a pas hĂ©sitĂ© Ă  interprĂ©ter largement les dispositions de l’article 8 et Ă  dĂ©fendre la protection des donnĂ©es contre plusieurs autres intĂ©rĂȘts, elle n’a toutefois pas rĂ©ussi Ă  distinguer systĂ©matiquement ce droit de celui consacrĂ© par l’article 7 de la Charte et Ă  donner des indications claires sur la maniĂšre dont ses exigences, y compris son contenu, devraient ĂȘtre interprĂ©tĂ©es Ă  la lumiĂšre de l’article 52 (1). MalgrĂ© ces lacunes, l’article 8, grĂące Ă  son large champ d’application, reste une disposition clĂ© dans la dĂ©fense des droits numĂ©riques devant les tribunaux nationaux et europĂ©ens. De maniĂšre plus significative, et comme le suggĂšre la jurisprudence examinĂ©e ci-dessus, les affaires relevant de l’article 8 restent un outil prĂ©cieux pour atteindre des objectifs qui ne se limitent pas aux droits Ă  la protection des donnĂ©es, mais qui peuvent avoir un impact plus large, dans le contexte des litiges relatifs aux droits numĂ©riques.

“...les affaires relevant de l’article 8 restent un outil prĂ©cieux pour atteindre des objectifs qui ne se limitent pas aux droits Ă  la protection des donnĂ©es, mais qui peuvent avoir un impact plus large, dans le contexte des litiges relatifs aux droits numĂ©riques.”

Les auteurs sont introduits par ordre alphabétique, leur contribution à cet essai est égale.

Melanie Fink, Leiden Law School
Giulia Gentile, LSE Law School

Le droit Ă  une bonne administration, garanti par l’article 41 de la Charte des droits fondamentaux de l’Union europĂ©enne (UE) (« la Charte »), inscrit dans le droit constitutionnel le principe gĂ©nĂ©ral analogue dĂ©veloppĂ© dans la jurisprudence de l’UE1. Ce droit incarne la position de l’UE en tant que communautĂ© de droit, dans laquelle les individus sont protĂ©gĂ©s contre les dĂ©cisions administratives arbitraires et ont droit Ă  des garanties fondamentales dans leurs interactions avec les institutions et organes de l’UE, destinĂ©es Ă  assurer des procĂ©dures administratives justes et Ă©quitables.

Dans le cadre de la bonne administration, l’article 41 comprend plusieurs droits procĂ©duraux. Alors que chacun de ces droits peut avoir des effets sur le paysage numĂ©rique, certains revĂȘtent une importance particuliĂšre dans ce contexte, notamment le droit d’ĂȘtre entendu, le droit Ă  une dĂ©cision motivĂ©e, le droit Ă  des dommages-intĂ©rĂȘts et le principe plus large de la transparence. Afin d’apporter une rĂ©flexion plus large sur la pertinence de l’article 41 dans le contexte numĂ©rique, cet article dĂ©crit d’abord le champ d’application de cette disposition, puis examine chacun de ces droits.

Champ

d’application des obligations dĂ©coulant de l’article 41

Le champ d’application de l’article 41 se limite Ă  l’administration de l’UE au sens strict, c’est-Ă -dire aux institutions, organes et organismes de l’UE. En excluant les États membres en tant que destinataires des obligations, l’article 41 s’écarte du principe plus gĂ©nĂ©ralement applicable de l’article 51 (1), selon lequel la Charte s’applique Ă©galement aux États membres « lorsqu’ils mettent en Ɠuvre le droit de l’Union ». La Cour de justice de l’Union europĂ©enne (CJUE) a parfois laissĂ© entendre que le champ d’application de l’article 41 Ă©tait plus large (voir, par exemple, affaire MM c. Minister for justice, paragraphes 81-942). Toutefois, la Cour adopte plus frĂ©quemment une interprĂ©tation littĂ©rale, excluant les États membres du champ d’application de l’article 41 (voir, par exemple, affaire R.N.N.S et K.A c. Minister van Buitenlandse Zaken, paragraphe 333).

L’article 41, considĂ©rĂ© frĂ©quemment comme une codification des principes gĂ©nĂ©raux du droit Ă©laborĂ©s par les tribunaux de l’UE, prĂ©sente un chevauchement important avec ces principes. Toutefois, contrairement Ă  l’article 41, le droit Ă  une bonne administration s’applique non seulement Ă  l’UE elle-mĂȘme, mais aussi aux autoritĂ©s des États membres lorsqu’elles agissent dans le cadre du droit de l’UE. C’est ce qu’a explicitement indiquĂ© la CJUE dans l’affaire R.N.N.S. et K.A. (paragraphe 344). En appliquant le droit Ă  la bonne administration Ă  l’ensemble de l’administration de l’UE, ces principes gĂ©nĂ©raux jouent un rĂŽle indĂ©pendant de celui de l’article 41.

Alors que le droit Ă  la bonne administration s’applique uniquement aux autoritĂ©s publiques de l’UE, une question pertinente dans le contexte numĂ©rique est de savoir si le droit lui-mĂȘme – ou les valeurs qu’il consacre – peut ĂȘtre Ă©tendu aux entitĂ©s privĂ©es. Cette question devient particuliĂšrement pertinente lorsque ces entitĂ©s collaborent avec les autoritĂ©s publiques ou lorsqu’elles utilisent des technologies numĂ©riques Ă  grande Ă©chelle qui ont un impact significatif sur la vie des individus, ce qui les amĂšne Ă  exercer des pouvoirs de nature quasi publique. Plusieurs rĂ©fĂ©rences abordant le principe de bonne administration ont Ă©tĂ© incluses dans la proposition de lĂ©gislation europĂ©enne sur l’intelligence artificielle (lĂ©gislation sur l’IA), suggĂ©rant l’applicabilitĂ© de ce principe dans le cadre de cette rĂ©glementation, et donc aux entitĂ©s privĂ©es.

Le droit d’ĂȘtre entendu

L’article 41, paragraphe 2, alinĂ©a a, confĂšre Ă  toute personne le droit d’ĂȘtre entendue avant qu’une mesure individuelle qui l’affecterait dĂ©favorablement ne soit prise Ă  son encontre. Ce droit stipule que les individus doivent avoir la possibilitĂ© de prĂ©senter leur position aux autoritĂ©s pendant la procĂ©dure au cours de laquelle la mesure en question est dĂ©cidĂ©e (Technische UniversitĂ€t MĂŒnchen, paragraphe 255). De plus, ces positions doivent ĂȘtre prises en considĂ©ration par les autoritĂ©s et doivent ĂȘtre reflĂ©tĂ©es dans les motifs de la dĂ©cision (Elf Aquitaine, cons. 1676). En permettant Ă  la personne concernĂ©e

(1) Les auteurs sont introduits par ordre alphabétique, leur contribution à cet essai est égale.

“...une question pertinente dans le contexte numĂ©rique est de savoir si le droit lui-mĂȘme – ou les valeurs qu’il consacre –peut ĂȘtre Ă©tendu aux entitĂ©s privĂ©es. Cette question devient particuliĂšrement pertinente lorsque ces entitĂ©s collaborent avec les autoritĂ©s publiques ou lorsqu’elles utilisent des technologies numĂ©riques Ă  grande Ă©chelle qui ont un impact significatif sur la vie des individus, ce qui les amĂšne Ă  exercer des pouvoirs de nature quasi publique.”

“...l’article 41 de la Charte, ainsi que le principe gĂ©nĂ©ral de droit correspondant, offrent la protection la plus solide du droit d’exiger une dĂ©cision motivĂ©e de la part des autoritĂ©s publiques de l’UE.”

d’influencer le processus dĂ©cisionnel en faisant part de son point de vue, l’objectif est en fin de compte d’assurer des dĂ©cisions plus Ă©quitables. La mise en place des Ă©lĂ©ments d’équitĂ© procĂ©durale dans l’interaction entre les individus et les organes administratifs permet Ă  l’article 41 (2) (a) d’ĂȘtre intimement liĂ© Ă  l’article 47 de la Charte, qui garantit les droits Ă  un procĂšs Ă©quitable et Ă  un recours effectif.

L’intĂ©gration du droit d’ĂȘtre entendu au titre de l’article 41 dans le paysage numĂ©rique prĂ©sente des dĂ©fis spĂ©cifiques. L’un d’entre eux consiste Ă  dĂ©terminer comment garantir que les observations d’une personne sont prises en compte dans les processus dĂ©cisionnels qui intĂšgrent un certain degrĂ© d’automatisation. Dans ce contexte, il est Ă©galement nĂ©cessaire de dĂ©terminer si une personne doit ĂȘtre entendue par un ĂȘtre humain ou si un outil automatisĂ© peut suffisamment rĂ©pondre Ă  cette exigence. À cet Ă©gard, on notera que l’article 22 du RĂšglement gĂ©nĂ©ral sur la protection des donnĂ©es (RGPD) impose l’intervention d’un ĂȘtre humain dans la plupart des cas de prise de dĂ©cision automatisĂ©e. Ainsi, comme le suggĂšre l’article 22 (3) du RGPD, l’intervention humaine peut ĂȘtre dĂ©terminante pour prĂ©server le droit d’ĂȘtre entendu dans le paysage numĂ©rique.

Un exemple pertinent est le systĂšme europĂ©en d’information et d’autorisation concernant les voyages (rĂšglement (UE) 2018/1240), qui devrait ĂȘtre opĂ©rationnel Ă  la fin de 2023 et qui automatise (partiellement)7 la dĂ©cision concernant l’entrĂ©e des ressortissants de pays tiers au sein de l’UE. Alors que la rĂ©glementation actuelle8 ne stipule qu’un droit de recours en cas de refus, l’article 41 (2) (a) de la Charte sera dĂ©terminant pour garantir que les individus puissent effectivement ĂȘtre entendus avant qu’un refus d’autorisation de voyage ne devienne dĂ©finitif.

Le droit à une décision motivée

L’article 41 (2) (c), inscrit Ă  l’article 296 du TraitĂ© sur le fonctionnement de l’Union europĂ©enne (TFUE), stipule que le droit Ă  une bonne administration comprend « l’obligation pour l’administration de motiver ses dĂ©cisions ». Selon la CJUE, l’exposĂ© des motifs doit ĂȘtre suffisamment clair et non Ă©quivoque pour permettre Ă  la Cour d’apprĂ©cier la lĂ©galitĂ© d’une dĂ©cision et de fournir aux parties concernĂ©es des informations adĂ©quates pour discerner le bien-fondĂ© de la dĂ©cision et la contester s’il apparaĂźt qu’il en est autrement (Elf Aquitaine, cons. 147-148). Par consĂ©quent, l’obligation d’énoncer les motifs n’est pas simplement une obligation de transparence indĂ©pendante ; elle est plutĂŽt conçue pour encourager la responsabilitĂ© et faciliter l’accĂšs des individus Ă  la justice. À cet Ă©gard, la CJUE cite souvent l’article 47 de la Charte, le droit Ă  un recours effectif, pour Ă©tayer l’exigence d’énoncer les motifs (R.N.N.S. et K.A., cons. 43).

Il existe une tension entre le devoir de l’administration d’articuler les motifs de ses dĂ©cisions et l’incorporation de l’intelligence artificielle (IA) dans le processus de prise de dĂ©cision. Le nƓud du problĂšme rĂ©side dans la possibilitĂ© que les systĂšmes d’intelligence artificielle deviennent si complexes que les humains ne puissent pas comprendre comment ou pourquoi un systĂšme est parvenu Ă  sa conclusion (nommĂ© problĂšme de la « boĂźte noire »9). Les dĂ©cideurs humains peuvent avoir du mal Ă  clarifier les motifs spĂ©cifiques qui justifient une dĂ©cision fortement influencĂ©e par une « boĂźte noire ». ConsidĂ©rons le cas d’une personne Ă  qui l’on refuse l’entrĂ©e sur le territoire de l’UE parce qu’un systĂšme d’IA10 l’a dĂ©signĂ©e comme prĂ©sentant un « risque pour la sĂ©curitĂ© ». Si les processus internes du systĂšme d’IA sont trop opaques pour que l’agent qui s’y rĂ©fĂšre comprenne les facteurs qui ont contribuĂ© Ă  cette classification, l’explication de l’agent ne peut aller au-delĂ  de « parce que le systĂšme d’IA l’a dit ». Une telle justification ne rĂ©pond pas aux normes dĂ©finies Ă  l’article 4111

Ces derniĂšres annĂ©es, un dĂ©bat animĂ© s’est engagĂ© sur la question de savoir si le RGPD crĂ©e un « droit Ă  l’explication » (pour12 et contre13). Toutefois, son existence et son contenu prĂ©cis restent incertains. En outre, il ne s’appliquerait pas Ă  tous les cas d’utilisation de l’IA dans le secteur public. La proposition de lĂ©gislation sur l’IA dĂ©limite les responsabilitĂ©s des fabricants pour rendre l‘IA Ă  haut risque intelligible pour l’homme (article 13), facilitant ainsi le droit Ă  l’explication. NĂ©anmoins, elle ne prĂ©voit aucune obligation pour les utilisateurs d’IA de justifier ou d’expliquer leurs dĂ©cisions aux personnes concernĂ©es, et encore moins un droit correspondant pour les individus d’exiger de telles explications. Par consĂ©quent, Ă  l’heure actuelle, l’article 41 de la Charte, ainsi que le principe gĂ©nĂ©ral de droit correspondant, offrent la meilleure protection du droit d’exiger une dĂ©cision motivĂ©e de la part des autoritĂ©s publiques de l’UE.

Le droit à réparation

L’article 41 (3) garantit Ă  toute personne le droit Ă  la rĂ©paration des dommages causĂ©s par l’Union « conformĂ©ment aux principes gĂ©nĂ©raux communs aux droits des États membres ». Cette disposition fait Ă©cho Ă  l’article 340(2) du TFUE, en vertu duquel la Cour a constamment statuĂ© que la responsabilitĂ© n’est engagĂ©e que pour des violations jugĂ©es suffisamment graves, ce qui signifie que l’autoritĂ© en question a fait preuve d’une « mĂ©connaissance manifeste et grave [
] des limites qui s’imposent Ă  son pouvoir d’apprĂ©ciation » (Bergaderm, paragraphe 4314).

Le point dĂ©cisif est de savoir comment la dĂ©cision d’utiliser des outils numĂ©riques tels que l’IA pour soutenir la prise de dĂ©cision affecterait l’évaluation de la gravitĂ© de l’erreur commise par une autoritĂ©. La CJUE a prĂ©cĂ©demment dĂ©terminĂ© que le fait de se fier raisonnablement Ă  l’évaluation d’une autre autoritĂ© constitue un facteur pertinent (voir, par exemple, British Telecommunications, paragraphe 4315 et Robins, paragraphe 8116). Il reste Ă  voir si ce principe – selon lequel les autoritĂ©s peuvent faire confiance Ă  des sources d’information spĂ©cifiques sans vĂ©rification – est applicable dans le contexte numĂ©rique et, dans l’affirmative, dans quelles conditions. Une telle situation augmenterait considĂ©rablement le degrĂ© auquel les dĂ©cisions fondĂ©es sur les recommandations d’un systĂšme d’IA peuvent ĂȘtre considĂ©rĂ©es comme suffisamment graves par la CJUE pour engager la responsabilitĂ© de l’État. Par consĂ©quent, les perspectives de contester avec succĂšs de telles dĂ©cisions pourraient ĂȘtre minces.

En septembre 2022, la Commission europĂ©enne a proposĂ© une Directive sur la responsabilitĂ© en matiĂšre d’IA dans le but d’adapter les rĂšgles de responsabilitĂ© extracontractuelle pour rĂ©pondre aux dĂ©fis uniques posĂ©s par les systĂšmes d’IA. Cette directive introduirait des rĂšgles de divulgation et des prĂ©somptions rĂ©futables pour contrer les difficultĂ©s de preuve que les victimes de dommages causĂ©s (partiellement) par l’IA peuvent rencontrer, notamment en raison de la complexitĂ© et de l’opacitĂ© de certains systĂšmes d’IA. La directive ne modifie pas directement les rĂšgles de responsabilitĂ© Ă©noncĂ©es Ă  l’article 340 du TFUE ou, par extension, Ă  l’article 41(3) de la Charte. Toutefois, elle pourrait Ă©ventuellement influencer le rĂ©gime de responsabilitĂ© civile de l’UE en influençant les « principes gĂ©nĂ©raux communs aux droits des États membres », qui constituent le fondement de l’article 340 du TFUE. En outre, le raisonnement qui justifie cette directive pourrait guider l’élaboration d’une approche plus appropriĂ©e de la responsabilitĂ© en matiĂšre d’IA, notamment en ce qui concerne les dommages causĂ©s par l’administration de l’UE grĂące Ă  l’utilisation de systĂšmes d’IA.

La transparence

Le principe de transparence est intimement liĂ© au droit Ă  une bonne administration. Certains droits mentionnĂ©s Ă  l’article 41 sont intrinsĂšquement liĂ©s aux droits Ă  la transparence eux-mĂȘmes, notamment l’article 41(2)(b), qui garantit Ă  toute personne l’accĂšs Ă  son dossier, ainsi que le droit Ă  une dĂ©cision motivĂ©e. Toutefois, au-delĂ  de ces droits spĂ©cifiques, le principe de transparence, qui est prĂ©sentĂ© comme un objectif gĂ©nĂ©ral de l’UE dans l’ensemble des traitĂ©s, est une condition prĂ©alable fondamentale pour une bonne administration.

Dans le paysage numĂ©rique, l’opacitĂ© des algorithmes – qu’elle rĂ©sulte des droits de propriĂ©tĂ© intellectuelle, d’un manque de connaissances spĂ©cialisĂ©es ou des caractĂ©ristiques de l’algorithme lui-mĂȘme – pose un sĂ©rieux dĂ©fi au principe de transparence. Alors qu’une grande partie du dĂ©bat s’est axĂ©e sur les droits d’explication, une question pressante est de savoir si le principe de transparence nĂ©cessiterait des droits beaucoup plus larges17, tels que l’accĂšs aux jeux de donnĂ©es d’apprentissage, aux codes sources ou Ă  d’autres informations relatives Ă  l’algorithme lui-mĂȘme.

La lĂ©gislation spĂ©cifique au secteur numĂ©rique intĂšgre souvent des droits explicites liĂ©s Ă  la transparence. Par exemple, le RGPD Ă©nonce plusieurs droits Ă  l’information. Il s’agit notamment du droit Ă  l’information concernant l’existence et les implications de la prise de dĂ©cision automatisĂ©e, ainsi que « la logique sous-jacente » (article 13 du RGPD). La proposition de lĂ©gislation sur l’IA nĂ©cessite un certain niveau de transparence algorithmique, mais uniquement pour permettre aux utilisateurs du systĂšme d’interprĂ©ter les algorithmes (article 13 de la lĂ©gislation sur l’IA). Les personnes concernĂ©es par l’utilisation effective des algorithmes n’ont qu’un droit limitĂ© : celui d’ĂȘtre informĂ©es lorsqu’elles interagissent avec un algorithme plutĂŽt qu’avec un ĂȘtre humain (article 52 de la lĂ©gislation

sur l’IA). Le principe de transparence, associĂ© au droit Ă  une bonne administration, y compris le droit d’accĂšs Ă  ses propres dossiers, peut constituer une base juridique plus solide pour Ă©tendre des droits plus larges aux destinataires des dĂ©cisions algorithmiques administratives.

Conclusion

Le droit Ă  une bonne administration a une valeur significative dans la rĂ©gulation de l’utilisation de la technologie par l’administration de l’UE. En particulier, en garantissant que les individus sont entendus et que les dĂ©cisions administratives sont motivĂ©es, il fonctionne comme un outil permettant d’exercer le droit Ă  un recours effectif en vertu de l’article 47 de la Charte.

NĂ©anmoins, son importance va bien au-delĂ  de ce rĂŽle instrumental. L’article 41 de la Charte Ă©tablit les conditions d’une prise de dĂ©cision administrative qui assure un juste Ă©quilibre entre les intĂ©rĂȘts de la sociĂ©tĂ© et les intĂ©rĂȘts individuels. Cet Ă©quilibre est particuliĂšrement important Ă  la lumiĂšre des profondes mutations de l’administration publique induites par l’utilisation croissante des technologies numĂ©riques, en particulier lorsque ces technologies sont dĂ©veloppĂ©es et commercialisĂ©es par des entitĂ©s privĂ©es. Il est important de noter que le fait de garantir que les dĂ©cisions administratives sont motivĂ©es et Ă©quitables augmente Ă©galement la probabilitĂ© que les dĂ©cisions qui en rĂ©sultent soient conformes Ă  la loi. Cette conformitĂ© rĂ©duit la nĂ©cessitĂ© de recourir Ă  des litiges coĂ»teux devant des institutions judiciaires dĂ©jĂ  surchargĂ©es. Par consĂ©quent, le droit Ă  une bonne administration joue un rĂŽle essentiel pour garantir que l’adoption de nouvelles technologies ne porte pas atteinte Ă  la justice administrative et, plus largement, Ă  l’État de droit.

Nawal Mustafa, Public Interest Litigation Project (PILP)

Introduction

En dĂ©cembre 2009, la Charte des droits fondamentaux de l’Union europĂ©enne (la Charte) est entrĂ©e en vigueur concomitamment avec le TraitĂ© de Lisbonne. GrĂące Ă  cette Charte, les droits fondamentaux qui Ă©taient Ă©parpillĂ©s dans divers documents juridiques nationaux et internationaux ont Ă©tĂ© rassemblĂ©s en un seul document constituant la norme commune unique rĂ©gissant les droits fondamentaux en Europe. La Charte est l’une des principales sources du droit europĂ©en. Les articles 51 Ă  54 prĂ©cisent les critĂšres selon lesquels l’on peut faire appel Ă  la Charte et la maniĂšre dont les dispositions de la Charte doivent ĂȘtre interprĂ©tĂ©es. Un aspect important de la Charte est le fait qu’elle ne peut ĂȘtre invoquĂ©e que dans les cas oĂč les États membres et les institutions de l’UE mettent en Ɠuvre le droit europĂ©en. En tant que l’un des principaux instruments du droit europĂ©en, la Charte joue plusieurs rĂŽles. PremiĂšrement, en tant que principe gĂ©nĂ©ral du droit de l’UE, elle peut ĂȘtre utilisĂ©e comme outil d’interprĂ©tation puisque les lois nationales et le droit dĂ©rivĂ© de l’UE dans le champ d’application du droit de l’UE doivent ĂȘtre interprĂ©tĂ©s Ă  sa lumiĂšre. DeuxiĂšmement, elle fonctionne comme un instrument de contrĂŽle juridictionnel, ce qui signifie que la Cour de justice de l’Union europĂ©enne (CJUE) a le pouvoir d’évaluer la compatibilitĂ© des lois, des actes et des mesures avec les droits fondamentaux garantis par la Charte. Ainsi, la CJUE peut annuler toute loi nationale entrant dans le champ d’application du droit de l’UE qui porte atteinte aux droits fondamentaux Ă©noncĂ©s par la Charte. TroisiĂšmement, celle-ci sert Ă©galement de plateforme pour l’expression et la promotion des principes gĂ©nĂ©raux Ă©volutifs du droit de l’UE. Cet article examine l’action en justice contre l’utilisation par le gouvernement nĂ©erlandais du programme « System Risk Indication (SyRI) » tout en montrant comment l’article 47 et les diffĂ©rents rĂŽles de la Charte peuvent ĂȘtre utilisĂ©s dans le contexte des droits numĂ©riques. Étant donnĂ© que ce systĂšme traite des donnĂ©es Ă  caractĂšre personnel, il favorise le profilage et peut potentiellement porter atteinte aux droits fondamentaux des personnes. Il devait donc ĂȘtre soumis Ă  un certain nombre de garanties fondĂ©es sur la Charte et sur d’autres textes lĂ©gislatifs de l’UE visant Ă  rĂ©glementer le traitement des donnĂ©es, tout en limitant les atteintes aux droits Ă©noncĂ©s aux articles 7 et 8 de la Charte. Les avancĂ©es et les innovations technologiques rapides ont bouleversĂ© les modes de fonctionnement de nos sociĂ©tĂ©s et de nos institutions. Les mĂ©thodes de travail classiques sont devenues presque obsolĂštes en raison de l’évolution des technologies de l’information, de la numĂ©risation continue de presque tous les aspects de la vie publique et privĂ©e, ainsi que de l’augmentation actuelle de l’utilisation de l’intelligence artificielle. Par consĂ©quent, les dĂ©cideurs et les lĂ©gislateurs tirent profit de la disponibilitĂ© des donnĂ©es numĂ©riques issues de l’utilisation des appareils technologiques par les citoyens. Le travail fondĂ© sur les donnĂ©es et l’utilisation croissante de l’intelligence artificielle ont apportĂ© de nombreux avantages, mais ils ont malheureusement Ă©galement eu de nombreuses consĂ©quences nĂ©gatives qui nĂ©cessitent d’ĂȘtre examinĂ©es de maniĂšre plus approfondie. Parmi les consĂ©quences nĂ©gatives liĂ©es Ă  ces dĂ©veloppements technologiques, on peut citer la perte d’emplois due Ă  l’automatisation, l’accroissement des inĂ©galitĂ©s en matiĂšre de revenus, la perte de la sphĂšre privĂ©e, le racisme numĂ©rique et ce que certains chercheurs ont appelĂ© « l’esclavage numĂ©rique ».1 La reconnaissance et l’attĂ©nuation des inconvĂ©nients potentiels des dĂ©veloppements technologiques revĂȘtent une importance capitale afin de garantir une rĂ©partition Ă©quitable des avantages. En outre, les cadres juridiques et Ă©thiques nĂ©cessaires pour limiter les consĂ©quences nĂ©gatives de l’utilisation des technologies par les pouvoirs publics sont pratiquement inexistants. Cependant, de nombreuses lĂ©gislations existantes peuvent ĂȘtre utilisĂ©es de maniĂšre Ă  rĂ©duire et Ă  prĂ©venir les dommages causĂ©s par l’utilisation des technologies en Ă©largissant leur champ d’application.

Diverses sources juridiques de l’UE sont pertinentes dans le contexte des droits numĂ©riques, du traitement des donnĂ©es et de la protection des donnĂ©es.2 L’objectif de cet article est de rĂ©flĂ©chir Ă  la maniĂšre dont l’article 47 de la Charte, qui concerne le droit Ă  un recours effectif et Ă  accĂ©der Ă  un tribunal impartial, peut ĂȘtre appliquĂ© aux contextes numĂ©riques. Le prĂ©sent article est divisĂ© en deux parties. La premiĂšre partie traite de la question du System Risk Indication (SyRI) dans son ensemble et rĂ©flĂ©chit Ă  la pertinence de cette question Ă  la lumiĂšre de l’article 47. La seconde partie aborde le champ d’application de l’article 47 et tente de mettre en Ă©vidence les aspects qui deviennent pertinents dans le contexte numĂ©rique. Enfin, une conclusion certes brĂšve mais concise souligne les possibilitĂ©s offertes par l’article 47 en matiĂšre de protection contre les violations des droits numĂ©riques.

“La protection et la jouissance des droits fondamentaux passent par des recours juridiques efficaces qui fournissent aux victimes de violations de donnĂ©es les outils dont elles ont besoin pour sauvegarder leurs droits.”

System Risk Indication (SyRI) (Systùme d’indication des risques)

Le gouvernement nĂ©erlandais a utilisĂ© le systĂšme SyRI dans ses efforts pour lutter contre et prĂ©venir la fraude Ă  la sĂ©curitĂ© sociale, le travail illĂ©gal et la fraude fiscale.3 Ce systĂšme Ă©tait basĂ© sur ce que l’on appelle les Landelijke Stuurgroep Interventieteams (LSI), qui consistaient en une collaboration Ă©troite entre diffĂ©rentes municipalitĂ©s, le ministĂšre des Affaires sociales et de l’Emploi, la police, le ministĂšre public, les services d’immigration et les autoritĂ©s sociales et fiscales. Dans ce cadre de collaboration,4 l’échange et l’analyse de donnĂ©es numĂ©riques Ă  caractĂšre personnel Ă©taient essentiels pour la prĂ©vention, la dĂ©tection et l’investigation de la fraude et d’autres activitĂ©s illicites. Les donnĂ©es recueillies par le LSI, les projets et expĂ©riences qui en dĂ©coulent et les mĂ©thodologies employĂ©es par le LSI, y compris l’utilisation du systĂšme de la « boĂźte noire », ont Ă©tĂ© Ă  la base du systĂšme SyRI.5

SyRI a Ă©tĂ© inscrit dans la loi en 2014 par le biais des articles 64 et 65 de la Loi SUWI, tandis que le chapitre 5a du DĂ©cret SUWI Ă©tablit les rĂšgles et les procĂ©dures d’application.6 Le ministĂšre des affaires sociales et de l’emploi est responsable de l’utilisation du SyRI. La crĂ©ation d’une base juridique pour SyRI avait pour objectif principal le renforcement de l’approche rigoureuse de la lutte contre la fraude aux prestations sociales en tirant parti des technologies numĂ©riques et de l’analyse des donnĂ©es. Les lĂ©gislateurs et les dĂ©cideurs politiques au sein du gouvernement nĂ©erlandais prĂ©voyaient Ă©galement qu’en lĂ©gifĂ©rant sur SyRI, les prĂ©occupations de longue date soulevĂ©es par les organismes de rĂ©glementation concernant les violations des droits Ă  la vie privĂ©e et Ă  la protection des donnĂ©es devraient ĂȘtre dĂ©finitivement rĂ©solues.

Dans le cadre de cet article, l’affaire SyRI est importante Ă  plusieurs titres. Tout d’abord, c’est l’une des premiĂšres affaires ayant fondamentalement remis en question l’utilisation systĂ©matique et autorisĂ©e par la loi de technologies numĂ©riques dans le cadre de l’État-providence pour la prĂ©vention et la dĂ©tection de la fraude Ă  l’aide sociale sur la base de considĂ©rations relatives aux droits humains.7 DeuxiĂšmement, cette affaire a montrĂ© que les technologies de surveillance de masse telles que SyRI ont tendance Ă  cibler de maniĂšre disproportionnĂ©e les quartiers pauvres et dĂ©favorisĂ©s oĂč les groupes marginalisĂ©s sont les plus nombreux.8 TroisiĂšmement, l’implication d’un groupe diversifiĂ© d’organisations de la sociĂ©tĂ© civile dans les procĂ©dures judiciaires contre SyRI reflĂšte une inquiĂ©tude gĂ©nĂ©ralisĂ©e quant Ă  la probabilitĂ© que de tels systĂšmes empiĂštent sur les droits de tous.9 La façon dont diffĂ©rentes organisations ont collaborĂ© Ă  la procĂ©dure judiciaire pour lutter contre le systĂšme SyRI est inspirante du point de vue de l’accĂšs aux recours juridiques et Ă  un jugement impartial.

Les cas d’atteinte Ă  la confidentialitĂ© des donnĂ©es tels que celui de SyRI causent de nombreux prĂ©judices matĂ©riels et immatĂ©riels pour lesquels les victimes devraient pouvoir rĂ©clamer des dommages et intĂ©rĂȘts. Certains de ces prĂ©judices, tels que la dĂ©pression, les troubles anxieux et le syndrome de stress post-traumatique, entrent dans les catĂ©gories officielles du cinquiĂšme Manuel diagnostique et statistique des troubles mentaux (DSM 5). D’autres prĂ©judices, comme le prĂ©judice Ă©motionnel, le stress ou l’atteinte au nom et Ă  la rĂ©putation, peuvent ĂȘtre considĂ©rĂ©s comme des dommages psychologiques susceptibles d’entraĂźner des troubles mentaux. La protection et la jouissance des droits fondamentaux passent par des recours juridiques efficaces qui fournissent aux victimes de violations de donnĂ©es les outils nĂ©cessaires Ă  la sauvegarde de leurs droits.

Les

principes et le champ d’application

de l’article 47 de la Charte

Lorsque l’on fait appel Ă  l’article 47, la premiĂšre Ă©tape consiste Ă  dĂ©terminer si la Charte s’applique au regard du critĂšre Ă©noncĂ© Ă  l’article 51 (1) de la Charte.10 Si tel est le cas, une protection juridique effective doit ĂȘtre assurĂ©e par les États membres puis les institutions, organes et organismes de l’Union europĂ©enne lorsqu’ils mettent en Ɠuvre le droit de l’Union.11 Le droit Ă  un recours effectif et Ă  accĂ©der Ă  un tribunal impartial sont des principes gĂ©nĂ©raux essentiels du droit europĂ©en. La Cour de justice de l’Union europĂ©enne applique par consĂ©quent ces dispositions de maniĂšre large et gĂ©nĂ©rale afin d’assurer aux individus tant une protection juridique adĂ©quate qu’un accĂšs Ă  la justice appropriĂ©.12 Les mesures administratives et procĂ©durales entrent dans le champ d’ap-

plication de l’article 47.13 Les États membres doivent garantir Ă  la fois un accĂšs effectif aux voies de recours et des tribunaux indĂ©pendants et impartiaux afin que les individus puissent remettre en question les violations de leurs droits et demander rĂ©paration.

Les droits Ă©noncĂ©s Ă  l’article 47 correspondent aux droits Ă©noncĂ©s aux articles 6 et 13 de la Convention europĂ©enne des droits de l’homme et Ă  leur interprĂ©tation par la Cour europĂ©enne des droits de l’homme. Par consĂ©quent, l’article 47 doit ĂȘtre interprĂ©tĂ© dans l’esprit de ces dispositions ainsi que d’autres droits de la Charte, la lĂ©gislation de l’UE et les dispositions internationales en matiĂšre de droits humains. En outre, l’une des principales caractĂ©ristiques de l’article 47 est que son application et son interprĂ©tation doivent privilĂ©gier et promouvoir la rĂ©alisation et la protection des droits fondamentaux.

L’un des moyens pour y parvenir est le principe de l’efficacitĂ© minimale, qui exige que les rĂšgles nationales ne rendent pas l’exercice des droits de l’UE impossible en pratique (effectivitĂ©) et ne soient pas moins favorables que celles qui rĂ©gissent des actions similaires au niveau national (Ă©quivalence).14 Bien que les exigences d’effectivitĂ© et d’équivalence se concentrent gĂ©nĂ©ralement sur les rĂšgles de procĂ©dure nationales, elles peuvent Ă©galement s’appliquer Ă  l’interprĂ©tation du droit matĂ©riel tel que les droits consacrĂ©s par les articles 7 et 8 de la Charte. En outre, l’article 47 exige que les tribunaux dĂ©terminent, dans chaque affaire qu’ils examinent, si des voies de recours effectives sont disponibles.

Selon la CJUE, il y a violation du principe d’effectivitĂ© lorsque les autoritĂ©s refusent l’accĂšs Ă  des donnĂ©es pertinentes pour les faits d’une affaire.

Chaque fois qu’un État membre ou les institutions de l’UE semblent limiter les protections accordĂ©es par le droit Ă  un recours effectif et Ă  accĂ©der Ă  un tribunal impartial, le contrĂŽle de proportionnalitĂ© garantit l’(il)lĂ©galitĂ© de la disposition. Selon les conditions qui lui sont associĂ©es, la limitation en question doit ĂȘtre nĂ©cessaire, raisonnable et proportionnĂ©e Ă  la rĂ©alisation d’un objectif lĂ©gitime. Toute restriction des droits Ă©noncĂ©s dans cet article doit donc ĂȘtre concrĂšte et ne pas aller au-delĂ  de ce qui est nĂ©cessaire pour protĂ©ger l’intĂ©rĂȘt public ou d’autres droits.

Les aspects nĂ©gatifs du travail fondĂ© sur les donnĂ©es et l’utilisation de l’IA par les autoritĂ©s modifient fondamentalement les dĂ©bats juridiques sur la protection des donnĂ©es, la vie privĂ©e et le droit Ă  un recours effectif et Ă  accĂ©der Ă  un tribunal impartial. Dans les cas de violation de donnĂ©es, lorsqu’il s’agit de dĂ©terminer la proportionnalitĂ©, on peut faire valoir, sur la base de l’article 47, que la charge de la preuve devrait incomber aux autoritĂ©s qui collectent les donnĂ©es plutĂŽt qu’aux individus dont les donnĂ©es sont collectĂ©es. La raison en est qu’il serait quasiment impossible ou extrĂȘmement difficile pour les individus de s’opposer aux autoritĂ©s publiques qui collectent et utilisent leurs donnĂ©es Ă  leur insu. Il est trĂšs difficile de prouver aux individus quels types de prĂ©judices immatĂ©riels rĂ©els ils subissent lorsque leurs droits fondamentaux sont violĂ©s.

Il n’existe pas de jurisprudence spĂ©cifique traitant directement des droits numĂ©riques au titre de l’article 47. Toutefois, la CJUE a dĂ©veloppĂ© une solide jurisprudence concernant les prĂ©judices numĂ©riques conformĂ©ment aux articles 7 et 8.15 Cette jurisprudence peut fournir des indications sur la maniĂšre dont l’article 47 peut ĂȘtre appliquĂ© et interprĂ©tĂ© dans le contexte des droits numĂ©riques.

Conclusion

La collecte et le traitement des donnĂ©es Ă  caractĂšre personnel sont rĂ©glementĂ©s au niveau europĂ©en. Toutefois, cet article examine les prĂ©occupations fondamentales soulevĂ©es dans l’affaire SyRI, qui relĂšvent du champ d’application de l’article 47. Bien que l’affaire n’ait pas Ă©tĂ© portĂ©e devant la CJUE et que le litige ait principalement portĂ© sur le fait de dĂ©terminer si le systĂšme SyRI limitait illĂ©galement les droits consacrĂ©s par les articles 7 et 8, et si le contrĂŽle juridique prĂ©vu Ă  l’article 47 constitue un moyen efficace pour les litiges Ă  venir. Les tribunaux nationaux pourraient demander Ă  la CJUE d’évaluer si les lois qui permettent l’utilisation de systĂšmes tels que SyRI sont conformes aux droits consacrĂ©s par la Charte. En outre, les litiges fondĂ©s sur l’article 47 peuvent contribuer au dĂ©veloppement et Ă  l’évolution du droit europĂ©en dans le contexte des droits numĂ©riques en clarifiant son champ d’application, en renforçant la protection des droits fondamentaux et en promouvant l’État de droit. Il peut servir de moyen puissant de dĂ©fense, en soulignant les violations des droits humains et en encourageant les rĂ©formes juridiques aux niveaux national et europĂ©en.

“...la CJUE a dĂ©veloppĂ© une solide jurisprudence concernant les prĂ©judices numĂ©riques au regard des articles 7 et 8. Cette jurisprudence peut fournir des indications sur la maniĂšre dont l’article 47 peut ĂȘtre appliquĂ© et interprĂ©tĂ© dans le contexte des droits numĂ©riques.”

Divij Joshi, University College London

Introduction

Dans son Rapport phare de 2019 aux Nations Unies, Philip Alston, Rapporteur SpĂ©cial sur l’ExtrĂȘme PauvretĂ©, a fait une dĂ©claration choc en guise d’avertissement : « l’humanitĂ© [
] doit Ă©viter de s’engager sans rĂ©flĂ©chir, tels des automates, sur la voie d’un monde de dystopie numĂ©rique de sĂ©curitĂ© sociale ».1 Cette dĂ©claration percutante est la conclusion d’une Ă©tude pionniĂšre sur l’intĂ©gration mondiale des technologies numĂ©riques Ă©mergentes telles que la biomĂ©trie, le traitement informatisĂ© des donnĂ©es et les systĂšmes algorithmiques de prise de dĂ©cision dans l’administration de la sĂ©curitĂ© sociale et de l’aide sociale. Les conclusions du rapport rĂ©vĂšlent que l’utilisation des technologies numĂ©riques dans l’administration de la sĂ©curitĂ© sociale se traduisait souvent par des pratiques susceptibles de porter atteinte aux droits de l’homme, notamment aux droits Ă  la sĂ©curitĂ© sociale, Ă  une vie digne et au respect de la vie privĂ©e.

MalgrĂ© ce rapport alarmant, les gouvernements du monde entier, y compris ceux de l’Union europĂ©enne (UE), n’ont pas tenu compte de l’appel du rapporteur spĂ©cial Ă  une plus grande introspection dans l’adoption des technologies numĂ©riques au service de la sĂ©curitĂ© sociale. Cet article est une Ă©tude de la maniĂšre dont les États membres de l’UE ont utilisĂ© les technologies numĂ©riques basĂ©es sur les donnĂ©es et les algorithmes dans la conception et la mise en Ɠuvre de leurs systĂšmes de sĂ©curitĂ© sociale et d’aide sociale. Cet article examine Ă©galement les prĂ©judices potentiels et rĂ©els que revĂȘtent ces systĂšmes, tout en Ă©valuant le rĂŽle de la Charte des droits fondamentaux de l’UE (« la Charte »), en particulier l’article 34 sur la sĂ©curitĂ© sociale, dans l’évaluation de la lĂ©galitĂ© et de la lĂ©gitimitĂ© des systĂšmes d’aide sociale numĂ©riques.

Aide social numĂ©rique au sein de l’UE

L’administration de la sĂ©curitĂ© sociale intĂšgre depuis longtemps des processus assistĂ©s par ordinateur et de traitement numĂ©rique de l’information. Toutefois, cette « numĂ©risation » de l’administration de la sĂ©curitĂ© sociale s’est poursuivie plus rigoureusement ces derniĂšres annĂ©es, parallĂšlement Ă  l’essor de l’informatisation et de l’Internet, entraĂźnant des changements majeurs dans la maniĂšre dont les États remplissent leurs obligations en matiĂšre de sĂ©curitĂ© sociale. DĂ©sireux d’adopter de nouvelles technologies basĂ©es sur les donnĂ©es pour amĂ©liorer leurs capacitĂ©s de gouvernance, les gouvernements se sont efforcĂ©s de rendre leurs citoyens plus « lisibles » et donc plus gouvernables. Cependant, comme l’ont notĂ© plusieurs auteurs, la lisibilitĂ© accrue offerte par la datafication et la numĂ©risation se fait souvent au prix d’une surveillance accrue,2 d’expĂ©rimentations basĂ©es sur la population3 et d’une dĂ©pendance excessive Ă  l’égard de mĂ©thodologies statistiques potentiellement erronĂ©es.4

La recherche empirique suggĂšre une tendance croissante Ă  la numĂ©risation du secteur de la protection sociale dans l’UE, qui se manifeste Ă  des degrĂ©s et sous des formes variables. Par exemple, plusieurs Ă©tudes ont montrĂ© comment le Danemark, les Pays-Bas, le Portugal, la France et la Pologne ont mis en Ɠuvre des systĂšmes algorithmiques pour lutter contre la « fraude sociale » dans des secteurs tels que la fiscalitĂ©, les prestations sociales universelles, les soins de santĂ© et l’éducation. Ces systĂšmes traitent les donnĂ©es personnelles pour Ă©tablir des scores et des classifications fondĂ©s sur le risque, qui sont utilisĂ©s pour prĂ©dire la probabilitĂ© d’une fraude aux prestations sociales dans un scĂ©nario donnĂ©.5 Trelleborg, une municipalitĂ© suĂ©doise, a mis en place un systĂšme ambitieux visant Ă  « entiĂšrement automatiser » les demandes et les droits en matiĂšre d’aide sociale. Il s’agissait notamment d’utiliser des systĂšmes algorithmiques fondĂ©s sur des rĂšgles pour traiter les donnĂ©es des citoyens et dĂ©terminer l’éligibilitĂ© Ă  des prestations telles que l’aide financiĂšre.6 En SlovĂ©nie, la numĂ©risation a Ă©tĂ© mise Ă  profit pour crĂ©er des profils complets de citoyens afin d’accroĂźtre la lisibilitĂ©. Cela a permis d’amĂ©liorer la visibilitĂ© sur la façon dont les citoyens utilisent les services sociaux dans diffĂ©rents domaines et est donc utilisĂ© pour mettre en place la politique de sĂ©curitĂ© sociale.7

Le processus d’adaptation et de transformation numĂ©rique a entraĂźnĂ© une augmentation de l’exclusion des systĂšmes de sĂ©curitĂ© sociale et d’aide sociale par le biais de la technologie, un problĂšme que les États n’ont pas rĂ©ussi Ă  rĂ©soudre de maniĂšre appropriĂ©e. Le cas du Systeem Risico Indicatie (SyRI), un systĂšme de calcul des risques basĂ© sur des donnĂ©es mis en oeuvre par le gouvernement nĂ©erlandais, est un exemple probant de la maniĂšre dont de tels systĂšmes de traitement des donnĂ©es peuvent mettre en pĂ©ril la sĂ©curitĂ© sociale. SyRI a reliĂ© les donnĂ©es des citoyens Ă  travers les agences administratives et a servi de base Ă  des modĂšles informatiques qui prĂ©disent le risque de fraude

“La numĂ©risation des systĂšmes de protection sociale risque de rĂ©duire systĂ©matiquement la transparence des gouvernements, de favoriser la prise de dĂ©cisions arbitraires et discriminatoires et d’affaiblir les garanties procĂ©durales contre les abus de pouvoir des gouvernements.”

Ă  l’aide sociale. Toutefois, la nature des informations utilisĂ©es, le modĂšle de calcul des risques et les algorithmes de calcul n’ont Ă©tĂ© ni rendus publics ni communiquĂ©s aux personnes concernĂ©es. En raison de ce manque de transparence, il Ă©tait possible que des personnes soient signalĂ©es pour des enquĂȘtes pour fraude sans explication suffisante. La lĂ©gislation et la mise en Ɠuvre de SyRI ont ensuite Ă©tĂ© remis en question devant un tribunal civil nĂ©erlandais, qui a jugĂ© le systĂšme illĂ©gal au motif qu’il violait divers droits garantis par la Convention europĂ©enne des droits de l’homme, notamment le droit au respect de la vie privĂ©e.8 Cependant, malgrĂ© l’injonction du tribunal contre SyRI, des enquĂȘtes ultĂ©rieures ont rĂ©vĂ©lĂ© que le gouvernement nĂ©erlandais avait continuĂ© Ă  mener l’expĂ©rience des systĂšmes numĂ©riques d’aide sociale prĂ©sentant des risques comparables, ce qui dĂ©montre l’enracinement profond des technologies numĂ©riques dans l’administration de la sĂ©curitĂ© sociale dans certains États.9

Comme le montrent ces exemples, les technologies numĂ©riques sont largement utilisĂ©es dans les systĂšmes de prise de dĂ©cision automatisĂ©s, oĂč les rĂ©sultats remplacent ou complĂštent la prise de dĂ©cision humaine dans des tĂąches telles que l’identification et l’authentification des bĂ©nĂ©ficiaires de la sĂ©curitĂ© sociale, la dĂ©termination de l’éligibilitĂ© aux prestations, le calcul des montants des prestations et la dĂ©tection des fraudes.10 Le dĂ©ploiement de ces systĂšmes influence profondĂ©ment la relation entre les citoyens et l’État et, par consĂ©quent, les droits fondamentaux des citoyens de l’UE.

La numĂ©risation des systĂšmes d’aide sociale risque de rĂ©duire systĂ©matiquement la transparence des gouvernements, de favoriser la prise de dĂ©cisions arbitraires et discriminatoires et de fragiliser les garanties procĂ©durales contre les abus de pouvoir des gouvernements. Ce problĂšme dĂ©coule en partie de la nature complexe de ces systĂšmes de traitement de l’information, qui peuvent ĂȘtre difficiles Ă  comprendre ou Ă  examiner, et qui ne sont souvent pas suffisamment documentĂ©s ou expliquĂ©s pour assurer transparence et reddition de compte.11 L’opacitĂ© de SyRI en est un exemple : le gouvernement n’a pas divulguĂ© les types de donnĂ©es personnelles utilisĂ©es pour Ă©tablir le profil des citoyens ni la maniĂšre dont ces profils ont Ă©tĂ© construits. Le traitement discriminatoire et arbitraire des donnĂ©es constitue un autre risque potentiel.12 Par exemple, en Autriche, un programme d’allocation d’aide Ă  l’emploi aurait attribuĂ© des notes infĂ©rieures Ă  des personnes en fonction de leur identitĂ© sexuelle et de leur statut de personne en situation de handicap, compromettant potentiellement leur capacitĂ© Ă  faire des demandes dans le cadre de ce programme.13 Cela souligne le fait que les systĂšmes numĂ©riques d’aide sociale peuvent utiliser les donnĂ©es de maniĂšre discriminatoire, que ce soit ouvertement ou par le biais de proxys. En outre, ces systĂšmes sont souvent mis en Ɠuvre dans des contextes oĂč il n’y a pas de reddition de compte ou de contrĂŽle appropriĂ© et systĂ©matique. Cela signifie que des personnes peuvent perdre leur accĂšs Ă  la sĂ©curitĂ© sociale sans notification prĂ©alable ni possibilitĂ© de prendre part aux dĂ©cisions concernant leurs droits, de faire appel ou de contester ces derniĂšres.14

Article 34 et droit à la sécurité sociale

La Charte, contraignante pour tous les États membres de l’UE, stipule clairement un droit Ă  la sĂ©curitĂ© sociale dans l’article 34 sur la solidaritĂ©. La portĂ©e et l’applicabilitĂ© de l’article 34 en tant que droit Ă  la sĂ©curitĂ© sociale sont spĂ©cifiĂ©es comme Ă©tant « conformes [au] droit communautaire et [aux] lĂ©gislations et pratiques nationales ». Cet article doit ĂȘtre interprĂ©tĂ© dans le mĂȘme esprit que les articles 51 et 52 de la Charte, ainsi que le traitĂ© sur le fonctionnement de l’Union europĂ©enne (TFUE). Dans ce contexte, l’article 34 n’est pertinent que pour la mise en Ɠuvre du droit europĂ©en ou dans les domaines de compĂ©tence lĂ©gislative de l’Union. Les articles 34 (1) et 34 (3) de la Charte servent de principes directeurs, plutĂŽt que de prescriptions, pour l’UE et ses institutions, et imposent que toute mise en Ɠuvre de la lĂ©gislation de l’UE soit conforme Ă  leurs exigences. Actuellement, Ă©tant donnĂ© qu’aucune lĂ©gislation de l’Union ne stipule de prestations minimales de sĂ©curitĂ© sociale, seul l’article 34 (2) prĂ©voit un droit subjectif pour toute personne qui « rĂ©side et se dĂ©place lĂ©galement » au sein de l’UE. NĂ©anmoins, le droit prĂ©vu Ă  l’article 34 (2) est effectivement limitĂ© par le RĂšglement 883/2004 qui coordonne les systĂšmes de sĂ©curitĂ© sociale dans les États membres et y est incorporĂ©. Ainsi, comme le soulignent certains auteurs, l’article 34 ne prĂ©voit pas en son sein de droit opposable aux instruments ou Ă  l’administration de sĂ©curitĂ© sociale par des États membres, par exemple pour rĂ©clamer des droits minimaux en matiĂšre de logement, d’emploi ou d’assistance sociale. Toutefois, dans le contexte de l’intelligence artificielle, l’Agence europĂ©enne des droits fondamentaux interprĂšte l’article 34 (1) de la Charte comme offrant une protection contre les mesures restreignant ou abolissant les droits de sĂ©curitĂ© sociale existants.15

La jurisprudence de la Cour de justice de l’Union europĂ©enne n’apporte que trĂšs peu de prĂ©cisions quant Ă  l’interprĂ©tation du champ d’application de l’article 34. L’article 34 (1) n’a pas fait l’objet d’une analyse approfondie de sa part. Toutefois, selon les conclusions de l’avocat gĂ©nĂ©ral Mengozi dans les affaires Melchior et Wojciechowski, l’article 34 (1) ne peut servir que de « rĂ©fĂ©rences interprĂ©tatives ou paramĂštres du contrĂŽle de la lĂ©galitĂ© » des actes de transposition. Dans des affaires comme Melchior, Wojciechowski et Dano, la CJUE a jugĂ© la Charte inapplicable car les affaires concernaient la lĂ©gislation nationale et non le droit de l’Union. Dans l’affaire Kamberaj, qui concernait le refus d’une aide au logement Ă  un ressortissant d’un pays tiers, la CJUE a nĂ©anmoins invoquĂ© l’article 34 (3) afin d’interprĂ©ter la Directive 2003/109 de l’UE, qui dĂ©finit les droits des ressortissants de pays tiers. Cette directive prĂ©voit que les États doivent respecter l’égalitĂ© de traitement dans l’octroi des prestations essentielles de la protection sociale. Dans le contexte de l’article 34 (3), la Cour a interprĂ©tĂ© le terme « prestations essentielles » comme Ă©tant celles qui rĂ©pondent Ă  l’objectif de protection de la sĂ©curitĂ© sociale au titre de l’article 34 (3) et qui « assurent une existence digne Ă  tous ceux qui ne disposent pas de ressources suffisantes ». Certains auteurs ont Ă©galement notĂ© que des dispositions non spĂ©cifiques de la Charte ont Ă©tĂ© invoquĂ©es pour garantir les droits Ă  la sĂ©curitĂ© sociale, comme le droit Ă  la dignitĂ© Ă©noncĂ© Ă  l’article 1.16 Dans l’ensemble, bien qu’il existe un certain dĂ©saccord quant au champ d’application de la Charte en ce qui concerne les mesures de sĂ©curitĂ© sociale,17 les dispositions de l’article 34 peuvent encore ĂȘtre interprĂ©tĂ©es de maniĂšre plus large que ce soit par la CJUE ou dans les dĂ©veloppements futurs concernant les droits Ă  la sĂ©curitĂ© sociale au niveau de l’Union europĂ©enne. MalgrĂ© les limites de l’article 34 en tant que droit justiciable Ă  la sĂ©curitĂ© sociale dans l’UE, son utilitĂ© potentielle rĂ©side dans l’attĂ©nuation des effets nĂ©gatifs sur les individus des systĂšmes de protection sociale numĂ©riques et dans l’évaluation de leur lĂ©galitĂ© dans le cadre plus large des droits fondamentaux de l’UE. En particulier, en mettant l’article 34 dans le contexte plus large des droits fondamentaux de l’UE et du droit international des droits humains, nous proposons qu’un droit Ă  la sĂ©curitĂ© sociale exige que les interventions numĂ©riques de l’État dans les systĂšmes de protection sociale soient conformes aux obligations de transparence, de non-discrimination et d’absence d’arbitraire. La reconnaissance d’un droit Ă  la sĂ©curitĂ© sociale dans le droit international des droits humains, tel que l’article 9 du Pacte international relatif aux droits Ă©conomiques, sociaux et culturels,18 fournit des indications quant au contenu substantiel de ce droit au regard des dispositions des États en matiĂšre de sĂ©curitĂ© sociale. Ainsi, le ComitĂ© des droits Ă©conomiques et sociaux des Nations unies a reconnu que le droit Ă  la sĂ©curitĂ© sociale englobe la possibilitĂ© de bĂ©nĂ©ficier des prestations de sĂ©curitĂ© sociale sans discrimination, que ce soit en droit ou en fait ; la transparence quant aux conditions qui qualifient ou excluent les bĂ©nĂ©ficiaires, et le fait que ces conditions doivent ĂȘtre raisonnables et non arbitraires ; puis la possibilitĂ© pour les bĂ©nĂ©ficiaires de participer Ă  l’administration de la sĂ©curitĂ© sociale, par exemple en recevant des avis de dĂ©claration et d’autres informations sur leurs droits.

MĂȘme si l’interprĂ©tation de l’article 34, en tant que droit justiciable de protection contre les prĂ©judices causĂ©s par les systĂšmes de protection sociale numĂ©riques, reste limitĂ©e, elle constitue un point de rĂ©fĂ©rence essentiel pour tester ces systĂšmes Ă©mergents. Quoi qu’il en soit, les États membres de l’UE doivent veiller Ă  ce que leurs incursions dans les systĂšmes de protection sociale numĂ©rique soient conformes aux intentions et aux objectifs du droit Ă  la sĂ©curitĂ© sociale, en luttant contre l’insĂ©curitĂ©, l’opacitĂ© et la prĂ©caritĂ© que ces systĂšmes engendrent.

“...les États membres de l’UE doivent veiller Ă  ce que leurs incursions dans les systĂšmes de protection sociale numĂ©rique soient conformes aux intentions et aux objectifs du droit Ă  la sĂ©curitĂ© sociale, en luttant contre l’insĂ©curitĂ©, l’opacitĂ© et la prĂ©caritĂ© que ces systĂšmes engendrent.”

James Farrar, Worker Info Exchange

De nombreux syndicalistes font preuve d’un scepticisme avisĂ© Ă  l’égard du droit, et pour cause, il suffit de se pencher sur l’histoire de la criminalisation de la lutte des classes depuis la rĂ©volution industrielle.

Dans les annĂ©es 1830, six dirigeants d’un syndicat agricole Ă©mergent du sud de l’Angleterre ont Ă©tĂ© arrĂȘtĂ©s et condamnĂ©s Ă  une peine de sept ans de dĂ©portation dans la colonie pĂ©nitentiaire d’Australie. Le sort de ces martyrs de Tolpuddle a donnĂ© naissance au mouvement syndical moderne en Grande-Bretagne.

L’activitĂ© syndicale Ă©tait considĂ©rĂ©e comme une conspiration criminelle et une entrave au commerce en Grande-Bretagne jusqu’à l’adoption de la loi sur les syndicats de 18711 Cependant, mĂȘme aprĂšs cette adoption, le fait de tenir un piquet de grĂšve et de faire grĂšve est demeurĂ© un dĂ©lit pĂ©nal jusqu’en 18752.

Aujourd’hui encore, les militants syndicaux sont confrontĂ©s Ă  des situations similaires : une dichotomie oĂč la libertĂ© d’association est respectĂ©e, mais oĂč la libertĂ©, et a fortiori le droit de protester et de faire grĂšve, ne l’est absolument pas.3C’est ainsi que l’État a bafouĂ© le droit de grĂšve pendant des gĂ©nĂ©rations. En 1972, vingt-deux syndicalistes britanniques ont Ă©tĂ© condamnĂ©s pour « conspiration en vue d’intimider » et emprisonnĂ©s aprĂšs avoir organisĂ© des grĂšves sur des chantiers de construction autour de Shrewsbury. En 2021, les condamnations ont finalement Ă©tĂ© annulĂ©es. En 1984, quatre-vingt-onze mineurs en grĂšve Ă  Orgreave ont Ă©tĂ© inculpĂ©s d’émeutes et de troubles violents, mais tous ont bĂ©nĂ©ficiĂ© d’un non-lieu aprĂšs la rĂ©vĂ©lation de bavures policiĂšres majeures dans ces affaires. Aujourd’hui, l’opposition de la part de l’État se poursuit. La loi de 2022 sur la police, la criminalitĂ©, les peines et les tribunaux (Police, Crime Sentencing and Courts Act)4 applique de nouvelles sanctions pĂ©nales strictes au droit de manifester au Royaume-Uni, ce qui met en pĂ©ril les travailleurs en grĂšve et les manifestants. Ces derniers jours, nous avons assistĂ© Ă  une rĂ©pression violente de la part de l’État Ă  l’encontre de travailleurs en grĂšve en France qui protestaient contre le recul de l’ñge de dĂ©part Ă  la retraite. Bien que la solidaritĂ© de classe soit un principe fondamental de la lutte pour les droits des travailleurs, les grĂšves de soutien restent illĂ©gales dans de nombreux pays de l’UE, comme c’est le cas au Royaume-Uni.

Il en a toujours Ă©tĂ© ainsi. Force est de reconnaĂźtre la rĂ©alitĂ© historique selon laquelle les actions de grĂšve et les actions collectives sont menĂ©es dans le contexte d’un conflit de classe permanent entre la classe dirigeante capitaliste et la classe ouvriĂšre. Les droits et les libertĂ©s dont nous disposons ont Ă©tĂ© durement acquis, mais ils sont toujours strictement contrĂŽlĂ©s, modĂ©rĂ©s et rĂ©duits par la classe dirigeante. La bonne nouvelle, c’est que la rĂ©volution permanente peut, doit et va se poursuivre malgrĂ© tout, car la lutte est loin d’ĂȘtre terminĂ©e.

Les erreurs de classification et la rĂ©sistance du capital contre les travailleurs de l’économie Ă  la demande

La classification erronĂ©e au sein de l`Ă©conomie Ă  la demande est le plus souvent associĂ©e aux employeurs de la plateforme qui utilisent des contrats malicieux avec les travailleurs pour les qualifier Ă  tort d`entrepreneurs indĂ©pendants afin de se soustraire aux obligations d`emploi. Cependant, il existe d’autres effets tout aussi prĂ©judiciables aux intĂ©rĂȘts collectifs Ă  long terme des travailleurs. Lorsque nous avons tentĂ© de crĂ©er l’App Drivers & Couriers Union (ADCU) en 2020, nous avons immĂ©diatement Ă©tĂ© confrontĂ©s Ă  trois obstacles Ă  la reconnaissance de notre organisation par le rĂ©gulateur gouvernemental. Tout d’abord, il nous fallait prouver que nous menons dĂ©jĂ  nos activitĂ©s en tant que syndicat avant de pouvoir ĂȘtre reconnu comme tel – un casse-tĂȘte Ă  l’image de celui de l’Ɠuf et de la poule. Ensuite, nous devions montrer que le syndicat agissait dans l’intĂ©rĂȘt collectif des travailleurs membres en rĂ©glementant la relation entre les employĂ©s et les employeurs tels qu’Uber. Cette tĂąche Ă©tait presque impossible, compte tenu de l’asymĂ©trie de pouvoir entre le syndicat et la puissance d’une sociĂ©tĂ© plateforme comme Uber ou Deliveroo et de leur refus absolu de reconnaĂźtre nos droits Ă  la nĂ©gociation collective. Finalement, nous avons satisfait Ă  la rĂ©glementation en dĂ©montrant une action collective suffisante au nom des travailleurs par le biais de la crĂ©ation de notre base de donnĂ©es pour les travailleurs, avec l’objectif de renforcer le pouvoir de nĂ©gociation collective en rendant les revenus et la rĂ©partition du travail plus transparents pour les membres du syndicat.

Enfin, lors de la certification, le régulateur gouvernemental nous a prévenu que si nous ne parvenions pas à nous faire reconnaßtre en tant que travailleurs devant la Cour su-

“...malgrĂ© les droits et libertĂ©s de grĂšve et de nĂ©gociation collective en Europe, ces droits sont en pratique menacĂ©s...”

prĂȘme, notre certification syndicale serait rĂ©voquĂ©e. En effet, en vertu de la lĂ©gislation syndicale britannique, les syndicats doivent ĂȘtre composĂ©s principalement de travailleurs. Par consĂ©quent, si la classification erronĂ©e avait Ă©tĂ© maintenue en raison de la technicitĂ© de la loi, comme cela a Ă©tĂ© le cas jusqu’à prĂ©sent pour les coursiers de Deliveroo, ceux qui ont le plus besoin de la protection syndicale de la collectivitĂ© en seraient privĂ©s. Dans l’état actuel des choses, la classe dirigeante et les tribunaux considĂšrent de maniĂšre absurde que les coursiers de Deliveroo font partie de la classe capitaliste parce qu’ils ne sont pas encore reconnus comme des travailleurs. En effet, la loi reconnaĂźt gĂ©nĂ©ralement le droit de substitution comme un critĂšre essentiel pour dĂ©terminer si une personne est un travailleur ou un entrepreneur indĂ©pendant. Pour les chauffeurs fournissant des services de transport de passagers, une telle substitution est gĂ©nĂ©ralement strictement interdite par les conditions locales d’octroi des licences de transport. Dans le secteur de la livraison de nourriture, le droit est offert non pas parce qu’une externalisation plus poussĂ©e est souhaitable ou nĂ©cessaire d’un point de vue commercial, mais parce qu’il s’agit d’un moyen de faire Ă©chouer les revendications en matiĂšre d’emploi. L’effet secondaire tragique est l’augmentation de la prĂ©caritĂ© dans l’industrie et des conditions d’esclavage moderne. Dans un cas examinĂ© par Worker Info Exchange, une demande d’accĂšs aux donnĂ©es a rĂ©vĂ©lĂ© que 49 travailleurs Ă©taient liĂ©s Ă  un seul compte bancaire sur la plateforme.

Pourtant, sans la protection limitĂ©e du statut de travailleur ou d’employĂ©, les syndicats ou les groupes d’employĂ©s se mettent en danger s’ils entreprennent une action collective. En 2018, le syndicat GMB a Ă©tĂ© contraint d’abandonner son action de grĂšve contre un fournisseur de services de livraison d’Amazon aprĂšs avoir Ă©tĂ© menacĂ© d’une action en responsabilitĂ© dĂ©lictuelle visant Ă  poursuivre les dommages rĂ©sultant de l’action de grĂšve entreprise par des chauffeurs qui n’étaient pas catĂ©gorisĂ©s comme travailleurs.5

De mĂȘme, en Espagne, les chauffeurs de taxi membres d’Elite Taxi et de Taxi Project ont Ă©tĂ© menacĂ©s d’une amende de 120 000 euros aprĂšs le dĂ©pĂŽt d’une plainte selon laquelle leur action de protestation contre Uber constituait une restriction du commerce prĂ©judiciable Ă  Uber.6 Sans statut d’emploi ou de travailleur, les travailleurs les plus prĂ©caires sont exposĂ©s Ă  ces risques juridiques redoutables.

“Dans le domaine de l’économie Ă  la demande, les erreurs de classification et la dĂ©sinformation ont brouillĂ© les pistes en ce qui concerne les progrĂšs vers la nĂ©gociation collective.”

Les grandes plateformes n’ont pas tardĂ© Ă  s’attirer les faveurs du gouvernement et de la classe dirigeante et Ă  aligner leurs intĂ©rĂȘts sur les leurs. En Californie, les plateformes de cette Ă©conomie Ă  la demande se sont alliĂ©es avec succĂšs pour faire pression en vue de l’inclusion d’une proposition sur les bulletins de vote lors d’une Ă©lection gĂ©nĂ©rale. Cette proposition Ă©tait en fait un rĂ©fĂ©rendum visant Ă  isoler les travailleurs Ă  la demande et Ă  leur refuser les droits Ă  l’emploi qu’ils avaient Ă©tablis devant les tribunaux en vertu de la lĂ©gislation de l’État. Cette proposition cruelle a Ă©tĂ© couronnĂ©e de succĂšs, bien que la contestation juridique de sa constitutionnalitĂ© se poursuive.

En Europe, Uber et d’autres plateformes de covoiturage ont menĂ© une stratĂ©gie d’intĂ©gration poussĂ©e dans leur offre de systĂšmes de transport public de masse. Cela inclut non seulement les services de covoiturage, mais aussi les services de micromobilitĂ© tels que les scooters et les bicyclettes. Dans le mĂȘme temps, la puissance de l’intelligence des plateformes s’est avĂ©rĂ©e trĂšs prĂ©cieuse pour les forces de police et de renseignement7 ainsi que pour la planification stratĂ©gique du gouvernement central dans le cadre de sa riposte face Ă  la crise Covid.8 Bien qu’il reste encore du chemin Ă  parcourir, il est facile de voir comment les entreprises de plateforme deviennent finalement non seulement trop grandes pour ĂȘtre rĂ©glementĂ©es, mais elles apparaissent Ă©galement indispensables Ă  la sociĂ©tĂ© au point que les actions de grĂšve pourraient ĂȘtre limitĂ©es dans la mesure oĂč elles sont « prĂ©vues par la loi, constituent des mesures nĂ©cessaires dans une sociĂ©tĂ© dĂ©mocratique Ă  la sĂ©curitĂ© nationale ou Ă  la sĂ»retĂ© publique, Ă  la dĂ©fense de l’ordre et Ă  la prĂ©vention du crime, Ă  la protection de la santĂ© ou de la morale, ou Ă  la protection des droits et libertĂ©s d’autrui. »

Ne vous y méprenez pas, malgré les droits et libertés de grÚve et de négociation collective en Europe, ces droits sont en pratique menacés. En 2022, le CongrÚs international des syndicats a signalé que le droit de grÚve était menacé en raison de la criminalisation accrue des grévistes, tandis que le droit de négociation collective subissait également une grave érosion.9

Dans le domaine de l’économie Ă  la demande, les erreurs de classification et la dĂ©sinformation ont brouillĂ© les pistes en ce qui concerne les progrĂšs vers la convention collective. En 2021, Uber a conclu un accord de reconnaissance avec le syndicat GMB.10 Cet accord ne prĂ©voit pas de convention collective pour rĂ©soudre le problĂšme des bas salaires persistants et de la non-reconnaissance du temps d’attente en tant que temps de travail rĂ©munĂ©rĂ©. En 2022, le GMB a signĂ© un accord de reconnaissance avec Deli-

veroo, qui stipule que les coursiers de l’entreprise ne sont pas des travailleurs, mais des entrepreneurs indĂ©pendants.11 Dans le cas d’Uber, les contrats actuels des chauffeurs nient expressĂ©ment tout Ă©lĂ©ment de nĂ©gociation collective en ce qui concerne les accords contractuels. Des accords similaires ont Ă©tĂ© signĂ©s aux États-Unis, au Canada, en Australie et en Belgique.

Dans ces accords, nous constatons peut-ĂȘtre que les tactiques des grands syndicats et les mĂ©thodes de nĂ©gociation industrielle d’une autre Ă©poque sont appliquĂ©es Ă  l’économie des services avec des employeurs qui n’agissent pas de bonne foi et qui ne sont pas encore disposĂ©s ou prĂȘts Ă  un vĂ©ritable partenariat dans la nĂ©gociation collective. Trop souvent, cette approche descendante se traduit par des accords syndicaux inefficaces avec l’employeur ou par le fait que les travailleurs peu rĂ©munĂ©rĂ©s du secteur des services sont tout simplement laissĂ©s pour compte.

En SuĂšde, malgrĂ© la longue histoire du cĂ©lĂšbre modĂšle social suĂ©dois, les travailleurs de l’économie Ă  la demande se retrouvent fermement en dehors des nĂ©gociations collectives, tant au niveau de l’entreprise qu’au niveau sectoriel, et donc en dehors de la protection de l’État. En SuĂšde, une grande partie de la gestion des relations de travail n’est pas prĂ©vue par la loi, mais reste du ressort du partenariat social entre les syndicats et les employeurs ; Raison pour laquelle la SuĂšde n’a pas jugĂ© nĂ©cessaire de lĂ©gifĂ©rer sur la question du salaire minimum.

En effet, en dĂ©cembre 2022, le gouvernement suĂ©dois s’est fermement opposĂ© Ă  la proposition de directive europĂ©enne sur le travail via des plateformes, au motif qu’elle interfĂ©rerait avec le modĂšle social suĂ©dois, y compris les nĂ©gociations collectives.12 De toute Ă©vidence, la stabilitĂ© atteinte par des conventions collectives bien organisĂ©es et influencĂ©es par l’État pourrait se rĂ©vĂ©ler inefficaces et contre-productives. De telles circonstances surviennent lorsque les objectifs de ces conventions collectives sont dĂ©connectĂ©s et Ă©loignĂ©s de la vĂ©ritable lutte des classes sous-jacente.

Worker Info Exchange et l’App Drivers & Couriers Union ont menĂ© une longue bataille pour les droits des travailleurs contre Uber. En parallĂšle, ils ont menĂ© une bataille pour la transparence algorithmique et l’accĂšs des travailleurs Ă  leurs donnĂ©es personnelles au travail contre Uber et Ola Cabs, dans le but de renforcer le pouvoir collectif des travailleurs des plateformes. Ola Cabs a fait valoir devant les tribunaux que ces objectifs constituaient un abus de droit au titre des articles 15 et 20 du rĂšglement gĂ©nĂ©ral sur la protection des donnĂ©es (RGPD). Les juridictions de premiĂšre instance ont rejetĂ© cet argument en dĂ©clarant que tant que l’objectif de la personne concernĂ©e incluait l’exercice du droit d’inspecter et de vĂ©rifier l’exactitude des donnĂ©es, il importait peu que les objectifs secondaires soient de partager les donnĂ©es avec leur syndicat dans le but de crĂ©er une base de donnĂ©es sur les travailleurs. La juridiction de premiĂšre instance a poursuivi en soulignant que l’un des objectifs de la portabilitĂ© garantie aux travailleurs par l’article 20 Ă©tait de « renforcer le contrĂŽle sur ses propres donnĂ©es »13 et que le transfert de donnĂ©es Ă  caractĂšre personnel Ă  un syndicat ou Ă  une base de donnĂ©es de travailleurs Ă©tait donc parfaitement compatible avec la loi.

Ola Cabs a fait appel de ce point et la Cour d’appel d’Amsterdam a Ă©galement rejetĂ© l’argument d’Ola Cabs selon lequel l’utilisation collective des donnĂ©es Ă©quivalait Ă  une procĂ©dure individuelle abusive. « Le fait que les demandes actuelles poursuivent Ă©galement certains intĂ©rĂȘts syndicaux ou renforcent la position de nĂ©gociation des chauffeurs ne change rien au fait que les requĂ©rants Ă©taient libres de soumettre les demandes actuelles en vertu du RGPD sans avoir Ă  prouver un quelconque intĂ©rĂȘt. En effet, les articles 15 et 20 du RGPD n’exigent pas un tel intĂ©rĂȘt. À cet Ă©gard, la Cour rappelle la jurisprudence de la Cour de justice de l’UE (ci-aprĂšs : CJUE), qui souligne que le RGPD vise notamment Ă  assurer un niveau Ă©levĂ© de protection des personnes physiques au sein de l’Union et que, Ă  cet Ă©gard, le cadre juridique gĂ©nĂ©ral créé par le RGPD donne effet aux exigences dĂ©coulant du droit fondamental Ă  la protection des donnĂ©es Ă  caractĂšre personnel garanti par l’article 8 de la Charte des droits fondamentaux de l’Union europĂ©enne, en particulier aux exigences expressĂ©ment Ă©noncĂ©es au paragraphe 2 de cet article ».14

L’article 28 de la Charte des droits fondamentaux de l’UE prĂ©voit explicitement un droit Ă  la nĂ©gociation collective et un droit de grĂšve. Toutefois, ces deux droits restent fortement limitĂ©s par les gouvernements des États membres. Nous devons cependant reconnaĂźtre que ces droits existent dans le contexte d’un conflit de classe permanent, un Ă©tat de rĂ©volution permanente oĂč les syndicats eux-mĂȘmes et les institutions gouvernementales sont soumis Ă  des pressions en matiĂšre de rĂ©forme et de renouvellement en phase avec la lutte de classe manifeste. Les droits de grĂšve et de nĂ©gociation collective doivent donc servir Ă  faciliter la lutte des classes, et non pas simplement Ă  la contenir ou Ă  la restreindre.

Fieke Jansen, chercheuse au sein du laboratoire d’infrastructures critiques de l’UniversitĂ© d’Amsterdam et organisatrice de la coalition Green Screen Climate Justice and Digital Rights.

La datafication de la vie quotidienne a fait passer les droits numĂ©riques d’une niche Ă  une question transversale qui englobe tous les aspects de la sociĂ©tĂ© et qui est considĂ©rĂ©e comme une condition prĂ©alable Ă  l’exercice des droits de l’homme. Cette Ă©volution sociĂ©tale a Ă©galement eu une incidence sur la maniĂšre dont les questions relatives aux droits numĂ©riques sont abordĂ©es. Alors que dans le passĂ©, les discussions sur les technologies de surveillance Ă©taient fermement ancrĂ©es dans le droit au respect de la vie privĂ©e et Ă  la protection des donnĂ©es, elles sont dĂ©sormais liĂ©es aux questions relatives Ă  la surveillance policiĂšre Ă  caractĂšre racial1 et Ă  la nature xĂ©nophobe de la forteresse europĂ©enne2. Les dĂ©bats sur la concurrence sont passĂ©s des principes de neutralitĂ© du rĂ©seau Ă  l’économie des donnĂ©es – la centralisation de la trĂ©sorerie, du pouvoir et de la richesse entre les mains de quelques entreprises technologiques. Cet article aborde un autre lien Ă©mergent : les droits numĂ©riques et le droit Ă  la protection de l’environnement, article 373 de la Charte europĂ©enne des droits fondamentaux. Il commencera par mettre en lumiĂšre les intersections entre le climat, l’environnement et la technologie. Ensuite, il abordera l’article 37 et les fondements nĂ©cessaires Ă  l’utilisation de ce droit fondamental pour limiter la nature extractiviste d’Internet et de son Ă©conomie des donnĂ©es.

Les rĂ©percussions environnementales d’Internet

L’augmentation du niveau des mers, les feux de forĂȘt, les sĂ©cheresses, les vagues de chaleur et d’autres changements mĂ©tĂ©orologiques affectent les communautĂ©s, les animaux et les plantes dans le monde entier. Ces Ă©vĂ©nements ne doivent pas ĂȘtre abordĂ©s comme des problĂšmes isolĂ©s, mais comme des manifestations interconnectĂ©es de l’ùre de dĂ©gradation de l’environnement et de crise climatique4 dans laquelle nous vivons actuellement. Nos Ă©conomies et nos industries, y compris l’économie des donnĂ©es et les grandes technologies, sont conçues pour exacerber les inĂ©galitĂ©s systĂ©miques et Ă©puiser rapidement la planĂšte. Pour Ă©viter de dĂ©passer les limites planĂ©taires, nous devons opĂ©rer un changement rapide et sans prĂ©cĂ©dent vers une sociĂ©tĂ© plus juste et plus durable. Cela implique de comprendre et d’agir sur le lien entre l’environnement, le climat et la technologie.

À cet effet, une coalition informelle d’individus, de praticiens de la justice climatique et des droits numĂ©riques, des organismes de financement et des universitaires a Ă©tĂ© mise sur pied il y a deux ans. La coalition Green Screen Climate Justice and Digital Rights (Écran vert pour la justice climatique et les droits numĂ©riques) a commencĂ© par explorer ce que signifie mettre en Ă©vidence la justice climatique sur les droits numĂ©riques5 et saisir les impacts environnementaux liĂ©s Ă  Internet. Nous sommes actuellement en train de nous rĂ©unir, de crĂ©er des coalitions entre les diffĂ©rents mouvements et d’identifier des pistes d’action Ă  suivre concernant un certain nombre de sujets, parmi lesquels le contentieux pourrait ĂȘtre l’un d’entre eux. Cet article s’inspire du travail, de la recherche et des discussions que nous avons entretenues au cours des deux derniĂšres annĂ©es avec des organisateurs communautaires, des activistes, des artistes, des organismes de financement et des universitaires.

Les recherches initiales6 commandĂ©es par la coalition Green Screen ont mis en Ă©vidence qu’au cƓur de la justice climatique et des droits numĂ©riques se trouvent les litiges sur les ressources naturelles, la dĂ©sinformation rampante des entreprises de combustibles fossiles en matiĂšre d’écoblanchiment et l’extraction de matiĂšres premiĂšres essentielles pour la fabrication de matĂ©riel informatique qui a un impact Ă©cologique considĂ©rable. Ce ne sont lĂ  que quelques-uns des nombreux problĂšmes complexes qui se situent Ă  l’intersection du climat et de la technologie. D’autres sujets qui ont Ă©tĂ© abordĂ©s depuis sont la nĂ©cessitĂ© d’identifier et la remise en question des solutions climatiques fausses et trompeuses7, l’extractivisme et le besoin de solidaritĂ© – soutenir les militants pour le climat, pour l’environnement et pour la terre. Je dĂ©velopperai ci-dessous le litige des ressources naturelles, les centres de donnĂ©es et l’extraction de matiĂšres premiĂšres essentielles. Des Ă©tudes dĂ©montrent , Internet et les technologies de communication reprĂ©sentaient en 2020 entre 1,8 % et 2,8 % des Ă©missions mondiales de gaz Ă  effet de serre8 et qu’elles devraient atteindre 14 % en 20409. De surcroĂźt, les centres de donnĂ©es sont en train de devenir l’une des frontiĂšres d’Internet en matiĂšre de conflit sur les droits de propriĂ©tĂ© fonciĂšre, d’électricitĂ©10 et d’eau11, entre les entreprises de donnĂ©es et les rĂ©sidents locaux. Aux Pays-Bas, on estime que le centre de donnĂ©es prĂ©vu par Meta absorbera deux fois la consommation d’énergie de la ville d’Amsterdam12, et que le centre de donnĂ©es de Microsoft sera le seul consommateur d’un parc Ă©olien Ă  grande Ă©chelle13. Les habi-

“Le mouvement Ă©cologiste jouit d’une longue expĂ©rience en matiĂšre de litiges stratĂ©giques qui lui ont permis d’obliger les entreprises et les États Ă  rĂ©duire leurs Ă©missions de carbone, d’attribuer les responsabilitĂ©s et de rĂ©clamer des dommages et intĂ©rĂȘts aprĂšs qu’une fuite de gaz ou de pĂ©trole a contaminĂ© le sol et l’eau, entraĂźnant une perte de valeur des biens, des dommages physiques et mentaux, et de mettre un terme Ă  la dĂ©livrance de nouveaux permis d’extraction de combustibles fossiles.”

tants de la campagne nĂ©erlandaise se sentent flouĂ©s14, car on leur avait promis une production locale d’énergie renouvelable pour la consommation locale, mais les politiciens ont donnĂ© la prioritĂ© Ă  l’industrie technologique plutĂŽt qu’aux besoins des mĂ©nages. De mĂȘme, Meta souhaite Ă©tendre son centre de donnĂ©es Ă  Los Lunes, au Nouveau-Mexique (États-Unis), ce qui soulĂšve le problĂšme de l’accĂšs Ă  l’eau15. Dans cette rĂ©gion oĂč l’eau est rare, les besoins en eau de Meta ont Ă©tĂ© privilĂ©giĂ©s par rapport au dĂ©triment des droits Ă©lĂ©mentaires des citoyens.

La nature extractiviste16 de notre Ă©conomie des donnĂ©es. Internet n’est pas un nuage17, c’est une infrastructure matĂ©rielle composĂ©e de cĂąbles, de fils, de commutateurs et d’appareils destinĂ©s aux utilisateurs en bout de chaĂźne. Il s’agit d’une infrastructure conçue, entretenue et rĂ©glementĂ©e par des personnes et des institutions dans un but d’interconnectivitĂ©, de rapiditĂ©, d’efficacitĂ© et de rĂ©sistance. La mĂ©taphore du nuage a masquĂ© la nature extractiviste d’Internet et la dĂ©pendance Ă  l’égard des matiĂšres premiĂšres essentielles. APC rapporte18 que « les minĂ©raux utilisĂ©s dans la fabrication des technologies continuent de provenir de zones et de rĂ©gions oĂč la destruction de l’environnement, les violations des droits humains et les conflits se produisent, et oĂč les reprĂ©sailles contre les dĂ©fenseurs de l’environnement et des terres par des acteurs Ă©tatiques et privĂ©s sont monnaie courante ». Les matiĂšres premiĂšres essentielles Ă  Internet et Ă  son Ă©conomie de donnĂ©es sont considĂ©rĂ©es comme rares dans la chaĂźne d’approvisionnement mondiale19 et proviennent principalement de Chine, de TĂŒrkiye, d’Afrique du Sud et du Triangle du lithium20 au Chili, en Argentine et en Bolivie.

Ces exemples mettent en Ă©vidence le lien entre la dĂ©gradation de l’environnement, la crise climatique, Internet et l’économie des donnĂ©es. Un champ naissant et croissant a commencĂ© Ă  examiner ces questions, Ă  remettre en question les solutions technologiques trompeuses en matiĂšre de climat et Ă  travailler Ă  la mise en place d’infrastructures Internet durables et Ă©quitables. Cependant, l’urgence de la crise climatique, le dĂ©sastre environnemental de l’exploitation miniĂšre et des dĂ©chets Ă©lectroniques, et l’exclusion de ceux qui sont touchĂ©s de maniĂšre disproportionnĂ©e par les solutions Ă  ces problĂšmes nous obligent tous Ă  agir. Dans la section suivante, cet article examinera comment Ă©tablir un lien entre la protection de l’environnement et les questions relatives aux droits numĂ©riques.

Article 37: Protection de l’environnement

Internet et son Ă©conomie de donnĂ©es ont un impact Ă©vident sur l’environnement. Pourtant, la Commission europĂ©enne21 considĂšre la technologie comme un moyen de sortir de la crise climatique. Les investissements dans les villes intelligentes et l’intelligence artificielle sont considĂ©rĂ©s comme des moyens d’attĂ©nuer la crise climatique et de s’y adapter. L’hypothĂšse sous-jacente est que la technologie rendra d’autres industries plus efficaces et moins polluantes et crĂ©era des systĂšmes d’alerte prĂ©coce qui permettront aux États d’attĂ©nuer l’augmentation du niveau des mers, les feux de forĂȘt, les sĂ©cheresses et d’autres changements mĂ©tĂ©orologiques. Il n’y a pas de rĂ©flexion critique sur la maniĂšre dont ces infrastructures et ces technologies contribuent et accentuent la dĂ©gradation de l’environnement, le changement climatique et la crise sociale.

En dissociant les deux transitions – le New Deal vert et l’agenda de numĂ©risation – et en donnant la prioritĂ© aux solutions techniques plutĂŽt qu’aux changements industriels rapides, l’Union europĂ©enne et ses États-nations privilĂ©gient les intĂ©rĂȘts Ă©conomiques et la position gĂ©opolitique par rapport Ă  la protection sociale et environnementale. La question est de savoir : quel est le lien avec l’article 37 de la Charte europĂ©enne des droits fondamentaux relatif Ă  la protection de l’environnement22 ? L’article 37 stipule qu’« un niveau Ă©levĂ© de protection de l’environnement et l’amĂ©lioration de sa qualitĂ© doivent ĂȘtre intĂ©grĂ©s dans les politiques de l’Union et garantis conformĂ©ment au principe du dĂ©veloppement durable ». Quelques recherches juridiques de l’article 37 mettent en Ă©vidence un certain nombre de dĂ©fis.

« Son libellĂ© diffĂšre de maniĂšre frappante de celui d’une disposition classique sur les droits : le terme “droit” lui-mĂȘme est omis, tout comme des termes similaires utilisĂ©s dans d’autres dispositions de la Charte qui accordent et protĂšgent des droits individuels. »

En somme, l’article 37 est une dĂ©claration de principes. Il ne stipule aucun droit judiciaire individuel Ă  la protection de l’environnement ou Ă  un environnement sain, et ne prĂ©cise aucun bĂ©nĂ©ficiaire. L’article donne des directives administratives vagues, Ă©tablit

le devoir des autoritĂ©s publiques d’inclure des considĂ©rations environnementales dans l’élaboration et la mise en Ɠuvre des politiques sans dĂ©finir ou opĂ©rationnaliser des concepts tels que « un niveau Ă©levĂ© de protection de l’environnement » et « les principes du dĂ©veloppement durable ». Ainsi, chaque autoritĂ© publique peut interprĂ©ter de maniĂšre flexible ces concepts larges et non dĂ©finis. Enfin, l’article 37 fait abstraction des droits procĂ©duraux en matiĂšre d’environnement, ne garantissant pas les droits d’accĂšs Ă  l’information et de participation du public aux processus dĂ©cisionnels concernant leur environnement, comme le stipule la Convention d’Aarhus.

Il n’y a d’ailleurs aucune jurisprudence recourant Ă  l’article 37 pour contester l’impact sur l’environnement des infrastructures et des nouvelles technologies Internet. Ce qui n’est pas surprenant puisque la question de l’impact environnemental et climatique d’Internet est une question Ă©mergente. Cet article ne peut donc pas illustrer la maniĂšre dont l’article 37 a Ă©tĂ© mis en application pour limiter la nature extractiviste de cette industrie. Cependant, il s’appuiera sur le travail de la Green Screen Coalition pour mettre en Ă©vidence les conditions d’une collaboration entre mouvements, qui pourrait permettre au dit mouvement d’utiliser le potentiel de la Charte de l’UE pour dĂ©fendre et protĂ©ger les droits numĂ©riques et environnementaux. La crĂ©ation d’une coalition pour la justice climatique et les droits numĂ©riques nĂ©cessite un investissement dans l’articulation d’un point d’entrĂ©e commun, la construction d’une communautĂ©, l’articulation d’une idĂ©ologie politique, la recherche d’un terrain d’entente, l’apprentissage mutuel et la dĂ©finition d’un programme d’action commun.

Collaboration inter-mouvements

Articuler un point d’entrĂ©e. Dans son livre Pollution is Colonialism23, Max Libioron affirme qu’il est nĂ©cessaire d’étudier et de s’éloigner d’une approche axĂ©e sur les prĂ©judices pour se tourner vers une approche axĂ©e sur la violence. Un cadre axĂ© sur les prĂ©judices se concentre sur les raisons pour lesquelles une certaine industrie pollue Ă  un certain moment et dans un certain espace, c’est-Ă -dire qu’une quantitĂ© x d’énergie renouvelable est priorisĂ©e par rapport aux besoins des mĂ©nages ou qu’une quantitĂ© x de lithium et d’eau est utilisĂ©e dans la production d’un ordinateur. Cette approche crĂ©e des opportunitĂ©s technocratiques permettant de trouver des conditions dans lesquelles la pollution est jugĂ©e acceptable. Un cadre fondĂ© sur la violence soutient qu’étant donnĂ© l’ampleur d’Internet et de l’économie des donnĂ©es, nous pouvons supposer qu’ils utiliseront x quantitĂ©s d’énergie et d’eau pour fonctionner et x quantitĂ©s de matiĂšres premiĂšres essentielles pour exister. En tant que telle, cette industrie est un pollueur.

Construire un rĂ©seau de droits numĂ©riques et de justice climatique. La plupart des personnes entreprenant des travaux sur ce lien sont des experts dans le domaine des droits numĂ©riques, de la justice climatique ou de la justice environnementale. L’ampleur et la profondeur de ce domaine exigent que les diffĂ©rents mouvements travaillent en collaboration, trouvent des moments stratĂ©giques pour se connecter, exploitent les possibilitĂ©s d’actions conjointes et partagent leur apprentissage et leurs expĂ©riences sur des sujets spĂ©cifiques.

Construire une communautĂ© Ă  la hauteur de la complexitĂ© du problĂšme. Nous avons besoin des voix et de l’expertise des personnes les plus touchĂ©es, du mouvement environnemental et climatique et de la communautĂ© des droits numĂ©riques pour mettre fin aux pratiques extractives, trouver des solutions et influencer activement la prochaine Loi sur les semi-conducteurs et la Loi sur les matiĂšres premiĂšres essentielles. Pour ce faire, il convient d’adopter une approche respectueuse des communautĂ©s les plus touchĂ©es par la crise climatique, la pollution, la mauvaise gestion de l’environnement et les pratiques industrielles nĂ©fastes, afin de s’assurer que les solutions ne rĂ©pĂštent pas les systĂšmes d’oppression existants.

Articuler une idĂ©ologie politique24. La diversitĂ© des voix permet de rassembler une myriade de besoins, de perspectives, de prioritĂ©s, de privilĂšges et d’approches. Cela nĂ©cessite l’articulation d’une thĂ©orie du pouvoir. Historiquement, les deux mouvements ont eu des relations diffĂ©rentes avec le marchĂ© et l’État. Par exemple, les entreprises Ă©taient des alliĂ©s naturels de la communautĂ© des droits numĂ©riques au dĂ©but d’Internet, alors que le mouvement climatique et environnemental entretient une relation critique et conflictuelle avec le marchĂ© et plus particuliĂšrement avec les entreprises de combustibles fossiles. MĂȘme si cette dynamique a changĂ© et que la relation avec les grandes entreprises technologiques est devenue plus conflictuelle, les coalitions doivent discuter de leur thĂ©orie du pouvoir.

“L’article 37 de la Charte de l’Union europĂ©enne, qui Ă©nonce le droit Ă  la protection de l’environnement, pourrait ĂȘtre un moyen de forcer ceux qui investissent, gĂšrent et profitent d’Internet et de son Ă©conomie de donnĂ©es Ă  changer.”

Trouver un terrain d’entente. Les diffĂ©rents mouvements ont leur propre histoire, leurs luttes, leur vocabulaire, leurs communautĂ©s et leur rĂ©pertoire d’actions. Pour Ă©tablir un lien entre la protection de l’environnement et les droits numĂ©riques, trouver un terrain d’entente s’avĂšre nĂ©cessaire. Il faut pour cela faire preuve de curiositĂ© et d’humilitĂ© pour apprendre des autres mouvements et trouver une cause commune autour de laquelle se rallier. Un thĂšme naturel pourrait ĂȘtre l’extractivisme25, qui fait rĂ©fĂ©rence Ă  l’extraction de minerais rares essentiels aux appareils numĂ©riques, Ă  la consommation d’autres ressources naturelles, telles que l’eau, tant dans le processus d’extraction que dans celui de traitement des donnĂ©es, et Ă  l’approche extractiviste plus large du secteur technologique, axĂ©e sur le profit.

Apprendre les uns des autres. Le mouvement Ă©cologiste jouit d’une longue expĂ©rience en matiĂšre de litiges stratĂ©giques qui lui ont permis d’obliger les entreprises et les États Ă  rĂ©duire leurs Ă©missions de carbone, d’attribuer les responsabilitĂ©s et de rĂ©clamer des dommages et intĂ©rĂȘts aprĂšs qu’une fuite de gaz ou de pĂ©trole a contaminĂ© le sol et l’eau, entraĂźnant une perte de valeur des biens, des dommages physiques et mentaux, et de mettre un terme Ă  la dĂ©livrance de nouveaux permis d’extraction de combustibles fossiles. RĂ©cemment, Urgenda a gagnĂ© un procĂšs contre l’État nĂ©erlandais pour non-respect de son devoir de protection et d’amĂ©lioration de l’environnement en raison de son manque d’action en matiĂšre de rĂ©duction des Ă©missions de gaz Ă  effet de serre. En pratique, cela signifie qu’en 2020, la Cour d’appel de La Haye a statuĂ© que l’État devait rĂ©duire les Ă©missions de CO2 de 25 % par rapport Ă  1990.

Conclusion

L’urgence de la crise climatique impose Ă  tous les secteurs d’activitĂ© de s’orienter vers un avenir durable et Ă©quitable dans le cadre de leurs activitĂ©s actuelles. Cela englobe l’économie des donnĂ©es et exige que ce secteur s’éloigne fondamentalement de sa nature extractiviste, de la recherche d’une croissance infinie et des solutions technologiques trompeuses Ă  des problĂšmes complexes. Cela ne se fera pas naturellement. L’article 37 de la Charte de l’Union europĂ©enne, qui Ă©nonce le droit Ă  la protection de l’environnement, pourrait ĂȘtre un moyen de contraindre ceux qui investissent, gĂšrent et profitent d’Internet et de son Ă©conomie de donnĂ©es Ă  changer. Pour y parvenir, nous devons investir dans la construction d’une coalition de personnes touchĂ©es, de personnes qui Ɠuvrent pour l’environnement, la justice climatique ainsi que le mouvement des droits numĂ©riques.

Remerciements : Cet article est le fruit des innombrables conversations que j’ai eues avec Michelle Thorne, Maya Richman, la Green Screen Coalition et ses auteurs, tout particuliĂšrement ceux qui ont Ă©mis une analyse du paysage et qui les notes de synthĂšse26, ainsi que les participants aux rĂ©unions de Berlin et de San Jose, et bien d’autres encore.

Toutes les opinions exprimées ici sont personnelles.

Alexandre Biard, BEUC – The European Consumer Organisation

L’article 38 de la Charte de l’Union europĂ©enne stipule qu’« un niveau accru de protection des consommateurs est assurĂ© dans les politiques de l’Union ». Il fait partie, avec d’autres articles sur les soins de santĂ©, la protection de l’environnement ou la sĂ©curitĂ© sociale, d’un titre IV plus large intitulĂ© « SolidaritĂ© », qui Ă©tablit les principes fondamentaux des politiques de l’UE. L’art. 38 est basĂ© sur l’article 169 du traitĂ© sur le fonctionnement de l’Union europĂ©enne (TFUE).1 Toutefois, alors que l’article 169 TFUE fournit des informations supplĂ©mentaires sur la maniĂšre dont l’Union doit assurer un niveau accru de protection des consommateurs, la formulation de l’article 38 reste brĂšve et abstraite. Comme pour l’ensemble du Titre IV, l’histoire lĂ©gislative de l’article 38 a Ă©tĂ© tumultueuse.2 La version initiale de la Charte faisait rĂ©fĂ©rence Ă  « un niveau Ă©levĂ© de protection de la santĂ©, de la sĂ©curitĂ© et des intĂ©rĂȘts des consommateurs ».3 Les amendements ultĂ©rieurs ont occasionnĂ© une proposition visant Ă  supprimer l’Art. 38 dans son intĂ©gralitĂ©4 ou de le changer en un droit subjectif pour les consommateurs.5 La version finale adoptĂ©e a finalement Ă©tĂ© qualifiĂ©e de compromis.6

À premiĂšre vue, l’article 38 semble jouer un double rĂŽle. D’une part, son insertion dans la Charte vĂ©hicule un message symbolique fort, car il fait de la protection des consommateurs l’un des objectifs fondamentaux des politiques de l’UE. Il reconnaĂźt Ă©galement le rĂŽle croissant jouĂ© par la protection des consommateurs dans l’UE. D’autre part, la dimension opĂ©rationnelle de l’article 38 soulĂšve plusieurs questions. Tout d’abord, bien qu’il soit inclus dans la Charte des droits fondamentaux de l’UE, l’article 38 tend Ă  Ă©tablir simplement un principe et non un droit qui pourrait ĂȘtre invoquĂ© directement par les individus. Ensuite, sa formulation large soulĂšve des questions quant Ă  la mesure dans laquelle il guide rĂ©ellement l’intervention des dĂ©cideurs politiques de l’UE lors de la prĂ©paration de nouvelles propositions lĂ©gislatives. Au-delĂ  de ces doutes, la question est de savoir si et comment l’art. 38 pourrait jouer un rĂŽle plus pratique Ă  l’avenir.

Une pertinence ex ante (limitĂ©e) du point de vue de l’élaboration des politiques

L’article 38 Ă©tablit le « niveau accru de protection des consommateurs » comme un objectif primordial guidant la politique de l’UE. La question est de savoir si la rĂ©fĂ©rence Ă  l’article 38 par les institutions de l’UE lors de l’élaboration de nouvelles politiques est significative et bien pensĂ©e ou si elle Ă©quivaut simplement Ă  une forme d’édulcoration. Une attention particuliĂšre aux travaux prĂ©paratoires qui ont accompagnĂ© plusieurs lĂ©gislations europĂ©ennes rĂ©centes dans le domaine de la protection des consommateurs peut contribuer Ă  Ă©clairer cette question.

Examinons tout d’abord la proposition d’une directive europĂ©enne sur les actions reprĂ©sentatives (directive UE 2020/1828). Dans son exposĂ© des motifs, la Commission europĂ©enne a soulignĂ© que « la proposition contribue Ă  assurer un niveau accru de protection des consommateurs (article 38 de la Charte) ».7 Cependant, elle n’a pas fourni de prĂ©cisions supplĂ©mentaires sur son implication en termes pratiques. Le contraste est saisissant si l’on considĂšre le paragraphe suivant consacrĂ© Ă  l’article 47 de la Charte de l’UE oĂč la Commission europĂ©enne explique concrĂštement pourquoi et comment la proposition lĂ©gislative rĂ©pond aux exigences de l’article 47.8

La mĂȘme observation vaut pour la proposition relative Ă  une meilleure application et Ă  une modernisation des rĂšgles de l’UE en matiĂšre de protection des consommateurs (directive 2019/2161 de l’UE). Son exposĂ© des motifs se contente d’indiquer que « la proposition est conforme Ă  l’article 38 de la Charte des droits fondamentaux selon lequel l’UE doit assurer un niveau Ă©levĂ© de protection des consommateurs », mais ne dĂ©finit pas clairement son implication en pratique. Enfin, il convient Ă©galement d’examiner la proposition de lĂ©gislation sur l’intelligence artificielle. L’exposĂ© des motifs explique que « [
] la proposition renforcera les droits d’un certain nombre de groupes particuliers dans diffĂ©rents domaines d’intervention, notamment les droits des travailleurs Ă  des conditions de travail justes et Ă©quitables (article 31), le droit des consommateurs Ă  un niveau Ă©levĂ© de protection (article 38) [
] ». Cependant, au-delĂ  de dĂ©clarations de principe, la lĂ©gislation sur l’IA, telle qu’elle est proposĂ©e par la Commission europĂ©enne, ne contribue pas Ă  un niveau Ă©levĂ© de protection des consommateurs. Comme l’a soulignĂ© le BEUC :

« Au-delĂ  de la dĂ©claration non contraignante contenue dans les considĂ©rants, la protection des consommateurs est absente de la proposition de lĂ©gislation sur l’IA. La proposition ne mentionne pas la protection des consommateurs contre les effets nĂ©gatifs de l’IA parmi les objectifs lĂ©gislatifs de la lĂ©gislation sur l’IA. Les consommateurs ne se voient pas accorder de droits horizontaux dans la proposition et sont ex-

clus du cadre conceptuel puisque la dĂ©finition de « l’utilisateur » dans la proposition n’est dĂ©finie que comme un utilisateur institutionnel ou commercial».9

En raison de sa formulation vague, qui peut ĂȘtre interprĂ©tĂ©e de diffĂ©rentes maniĂšres, et de la difficultĂ© Ă  dĂ©finir ce qu’implique concrĂštement un « niveau Ă©levĂ© de protection des consommateurs », la fonction normative de l’article 38 semble limitĂ©e en pratique, avec le risque que sa mise en Ɠuvre par les dĂ©cideurs politiques de l’UE reste souvent une coquille vide.

Une pertinence ex post (croissante) du point de vue de la mise en Ɠuvre

Lors de la rĂ©daction de la Charte, la Convention a considĂ©rĂ© l’article 38 comme un principe et non comme un droit substantiel pour les individus.10 Cela n’est pas sans consĂ©quences puisque l’article 51 prĂ©voit que les droits prĂ©vus par la Charte doivent ĂȘtre respectĂ©s, tandis que les principes doivent seulement ĂȘtre observĂ©s. La question est maintenant de savoir s’il est possible d’aller au-delĂ  de cette hypothĂšse initiale et de faire de l’article 38 un instrument utile qui pourrait ĂȘtre utilisĂ© par les individus et les organisations de la sociĂ©tĂ© civile. Il est intĂ©ressant de noter que dans son rapport 2020, l’Agence des droits fondamentaux semble dĂ©jĂ  brouiller les pistes lorsqu’elle parle d’un « droit Ă  la protection des consommateurs » et utilise la protection des consommateurs dans le contexte d’un litige stratĂ©gique :

« Les organisations de la sociĂ©tĂ© civile (OSC) et les autres organisations actives dans le domaine des droits fondamentaux, telles que les INDH, les ONG ou les avocats spĂ©cialisĂ©s dans les droits de l’homme et d’autres dĂ©fenseurs des droits de l’homme, peuvent utiliser la Charte dans tous les aspects de leur travail quotidien. Cela inclut les campagnes et contentieux stratĂ©giques, les activitĂ©s de sensibilisation et de formation, le suivi et la recherche. La nature supranationale de la Charte et son libellĂ© explicite en font un outil important pour les contentieux stratĂ©giques. Citons par exemple le droit Ă  la protection des donnĂ©es, le droit Ă  la protection des consommateurs et le droit Ă  un tribunal impartial. »11

Un examen de la jurisprudence de la Cour de justice de l’Union europĂ©enne (CJUE) fournit quelques indications sur la maniĂšre de faire appel Ă  l’article 38. Dans deux dĂ©cisions concernant les droits des passagers aĂ©riens, la CJUE a utilisĂ© l’article 38 pour Ă©quilibrer et restreindre l’application d’autres droits Ă©galement en jeu. Plus prĂ©cisĂ©ment, l’affaire C-12/11 (Mc Donagh c/ Ryanair)12 concernait un litige entre un transporteur aĂ©rien et un passager qui s’était vu refuser la prise en charge prĂ©vue par la lĂ©gislation europĂ©enne 261/2004 aprĂšs qu’une Ă©ruption volcanique ait entraĂźnĂ© l’annulation de vols. La compagnie aĂ©rienne a notamment fait valoir que l’obligation de prendre en charge les passagers, telle que prĂ©vue par la lĂ©gislation de l’UE, portait atteinte Ă  ses droits fondamentaux au titre de l’article 16 (libertĂ© d’entreprise) et de l’article 17 (droit de propriĂ©tĂ©) de la Charte de l’Union europĂ©enne. La compagnie aĂ©rienne a donc soutenu que les dispositions pertinentes du droit europĂ©en Ă©taient invalides. La Cour s’est rĂ©fĂ©rĂ©e Ă  l’article 38 pour limiter la portĂ©e des droits fondamentaux de l’entrepreneur. Tout d’abord, la Cour a soulignĂ© qu’« [
] il importe Ă©galement de tenir compte de l’article 38 qui [
] tend Ă  assurer, dans les politiques de l’Union, un niveau Ă©levĂ© de protection des consommateurs, y compris les passagers aĂ©riens »,13 puis a jugĂ© que « l’importance que revĂȘt l’objectif de protection des consommateurs, y compris donc les passagers aĂ©riens, est susceptible de justifier des consĂ©quences Ă©conomiques nĂ©gatives, mĂȘme considĂ©rables, pour certains opĂ©rateurs Ă©conomiques ». Cette approche a ensuite Ă©tĂ© confirmĂ©e dans une autre dĂ©cision (affaire C-28/20 Airhelp) oĂč la Cour a jugĂ© que « la libertĂ© d’entreprendre et le droit de propriĂ©tĂ© ne constituent pas des prĂ©rogatives absolues et qu’ils doivent [
] ĂȘtre conciliĂ©s avec l’article 38 de la Charte qui, Ă  l’instar de l’article 169 TFUE, tend Ă  assurer, dans les politiques de l’Union, un niveau Ă©levĂ© de protection des consommateurs, y compris les passagers aĂ©riens ».14

De mĂȘme, au niveau national, les tribunaux ont examinĂ© l’application de l’article 38 de la Charte. À titre d’illustration, une affaire en RĂ©publique tchĂšque traitait de la situation d’un particulier qui avait conclu un contrat en ligne avec une sociĂ©tĂ© pour la relecture d’une thĂšse. Faute de satisfaction du rĂ©sultat final, la personne s’est retirĂ©e du contrat sans payer les honoraires convenus. L’entreprise a portĂ© plainte contre le particulier et le tribunal de district a statuĂ© en faveur de l’entreprise. Le montant en jeu Ă©tant faible, le jugement n’était pas susceptible d’appel. Le particulier a dĂ©posĂ© une plainte devant

la Cour constitutionnelle en invoquant le droit Ă  la protection des consommateurs sur la base de l’article 38 de la Charte. La Cour constitutionnelle a jugĂ© que le tribunal de district aurait dĂ» - Ă  la lumiĂšre de l’article 38 de la Charte - appliquer les dispositions du Code civil tchĂšque relatives Ă  la protection des consommateurs et a donc confirmĂ© le droit du plaignant Ă  la protection des consommateurs et a annulĂ© le premier jugement du tribunal de district.15 En Slovaquie, de mĂȘme un tribunal rĂ©gional a utilisĂ© (entre autres) l’article 38 pour dĂ©clarer illĂ©gale une clause contractuelle imposant des frais de pĂ©nalitĂ© Ă  un consommateur. Comme l’a soulignĂ© le tribunal :

« La sanction contractuelle n’a pas Ă©tĂ© convenue individuellement, il s’agit d’un contrat standard qui crĂ©e une disproportion majeure dans les droits et obligations des parties contractantes, dĂ©savantageant le consommateur, il est en conflit avec la protection des droits du consommateur, en conflit avec la Charte des droits fondamentaux de l’Union europĂ©enne (art. 38), selon laquelle pour remplir l’un des droits fondamentaux de l’Union europĂ©enne, les politiques de l’État doivent assurer un niveau Ă©levĂ© de protection du consommateur, et il est donc possible d’utiliser tous les moyens efficaces pour protĂ©ger les consommateurs afin d’accroĂźtre la confiance des consommateurs dans le marchĂ© qui ne devrait pas imposer aux consommateurs des pratiques dĂ©raisonnables ».16

Le potentiel de l’article 38 doit encore ĂȘtre dĂ©veloppĂ© par la jurisprudence et la doctrine, mais sa valeur ajoutĂ©e semble d’ores et dĂ©jĂ  prometteuse.

Un potentiel Ă  exploiter

L’article 38 reconnaĂźt l’importance de la protection des consommateurs en tant que valeur fondamentale de l’UE. Toutefois, son effet opĂ©rationnel reste paradoxal. Tout d’abord, l’article 38 a Ă©tĂ© initialement conçu comme un principe directeur des politiques de l’UE. Pourtant, dans la pratique, son impact normatif semble souvent limitĂ©. Par ailleurs, cet article n’a pas Ă©tĂ© conçu Ă  l’origine pour donner des droits subjectifs et pourtant l’expĂ©rience tend Ă  montrer qu’il a Ă©tĂ© invoquĂ© pour dĂ©fendre les intĂ©rĂȘts des consommateurs.

En fin de compte, le principe de protection des consommateurs Ă©noncĂ© Ă  l’article 38 peut ĂȘtre utilisĂ© en conjonction avec d’autres droits substantiels,17 tels que l’article 47 (sur le recours effectif) ou l’article 8 (sur la protection des donnĂ©es). L’un des principaux dĂ©fis Ă  venir consistera Ă  Ă©laborer progressivement une nouvelle comprĂ©hension de la politique de protection des consommateurs de l’UE et de l’article 38, en tenant compte d’autres droits fondamentaux clĂ©s protĂ©gĂ©s par la Charte, tels que le droit Ă  la non-discrimination (Art. 21) (important par exemple dans le contexte du dĂ©veloppement de l’intelligence artificielle), les droits de l’enfant (Art. 24), des personnes ĂągĂ©es (Art. 25) et des personnes handicapĂ©es (Art. 26) (important pour la protection des consommateurs vulnĂ©rables). Ces droits fondamentaux doivent ĂȘtre pleinement pris en compte lors de la rĂ©gulation des marchĂ©s et contribuer Ă  l’élaboration d’une dĂ©finition renouvelĂ©e et moderne de la protection des consommateurs dans l’UE.

“L’un des principaux dĂ©fis Ă  venir consistera Ă  Ă©laborer progressivement une nouvelle comprĂ©hension de la politique de protection des consommateurs de l’UE et de l’article 38, en tenant compte d’autres droits fondamentaux clĂ©s protĂ©gĂ©s par la Charte.”

Notes

Article 11

1. CDH, 2018, p. 18, § 48: “Pour se doter de garanties de non-discrimination dignes de ce nom, les entreprises doivent dĂ©passent les approches formalistes selon lesquelles toutes les caractĂ©ristiques protĂ©gĂ©es sont Ă©galement exposĂ©es aux violences, au harcĂšlement et Ă  diverses formes de censure.” Le Rapporteur spĂ©cial sur la promotion et la protection du droit Ă  la libertĂ© d’opinion et d’expression reconnaĂźt ici que l’abus et le harcĂšlement, par leur effet de rĂ©duction au silence, constituent une forme de censure.

2. Quintais et al., 2022, p. 24: « il convient de noter que le principe des obligations positives constitue un Ă©lĂ©ment important de l’article 10 de la CEDH et de l’article 11 de la Charte. En vertu du droit Ă  la libertĂ© d’expression, les États ont non seulement l’obligation nĂ©gative de “s’abstenir” d’entraver la libertĂ© d’expression, mais ils ont Ă©galement l’obligation positive de protĂ©ger la libertĂ© d’expression, “mĂȘme dans la sphĂšre des relations entre individus”, y compris entre un individu et une “sociĂ©tĂ© privĂ©e” ».

3. Frosio, Husovec, 2020 p. 15: « GrĂące au principe de protection en matiĂšre de responsabilitĂ©, les fournisseurs sont partiellement libĂ©rĂ©s de la responsabilitĂ© du contenu de leurs utilisateurs. Ils ont donc effectivement le pouvoir de dĂ©cider du contenu que les utilisateurs publient. Toutefois, ce pouvoir n’est pas complĂ©tĂ© par une responsabilitĂ© envers leurs utilisateurs de respecter leurs droits d’expression sous une forme particuliĂšre. C’est ce qui a conduit Tushnet Ă  parler de “pouvoir sans responsabilitĂ©â€. »

4. Quintais et al., 2022, p. 26: « L’article 20 (4) semble impliquer que les utilisateurs peuvent directement porter plainte auprĂšs de la plateforme sur la maniĂšre dont leurs droits fondamentaux ont Ă©tĂ© pris en compte dans la dĂ©cision de modĂ©ration de contenu d’une plateforme. Cela signifie que la plateforme ne doit pas seulement examiner si le comportement ou le contenu Ă©tait illĂ©gal ou en violation de ses CGU, mais aussi examiner son propre processus d’application et de mise en Ɠuvre et vĂ©rifier si les droits fondamentaux de l’utilisateur ont Ă©tĂ© pris en compte de maniĂšre appropriĂ©e. »

5. Business Insider, 2018, selon Jimmy Wales, cofondateur de WikipĂ©dia: « L’une de mes plus grandes prĂ©occupations concernant les filtres de tĂ©lĂ©chargement obligatoires est que cela ne ferait qu’asseoir le pouvoir de Google et Facebook qui ont dĂ©jĂ  la capacitĂ© technique de faire ce genre de choses, et les plus petits acteurs, les start-ups, toutes les autres plateformes que les gens utilisent vont ĂȘtre un peu exclus. »

6. Tel que décrit dans le documentaire « The Cleaners » (de Hans Block et Moritz Riesewiec, 2018).

7. Politico, 2022: « Ces derniĂšres semaines, le gouvernement allemand a qualifiĂ© Ă  plusieurs reprises le projet de loi d’atteinte Ă  la vie privĂ©e et aux droits fondamentaux, son Ministre de l’économie numĂ©rique Volker Wissing avertissant cette semaine que le projet de loi “dĂ©passe une limite”. »

8. Frosio, Husovec, 2020, p. 6: « Les blocages de virement ont privĂ© Wikileaks de 95 % de ses revenus, lorsque PayPal, Moneybookers, Visa et MasterCard ont cessĂ© d’accepter les dons du public. Aucune procĂ©dure judiciaire n’a jamais Ă©tĂ© engagĂ©e contre Wikileaks. »

Article 18

1. Article 18, Droit d’asile, Charte des droits fondamentaux de l’Union europĂ©enne [2008] 2000/C 364/01 : « Le droit d’asile est garanti dans le respect des rĂšgles de la convention de GenĂšve du 28 juillet 1951 et du protocole du 31 janvier 1967 relatifs au statut des rĂ©fugiĂ©s et conformĂ©ment au traitĂ© sur l’Union europĂ©enne et au traitĂ© sur le fonctionnement de l’Union europĂ©enne (ci-aprĂšs dĂ©nommĂ©s “les traitĂ©s”). »

2. Article 19 de la Charte, Protection en cas d’éloignement, d’expulsion et d’extradition: « 1. Les expulsions collectives sont interdites. 2. Nul ne peut ĂȘtre Ă©loignĂ©, expulsĂ© ou extradĂ© vers un État oĂč il existe un risque sĂ©rieux qu’il soit soumis Ă  la peine de mort, Ă  la torture ou Ă  d’autres peines ou traitements inhumains ou dĂ©gradants. »

3. MyAidbyFAR est un exemple d’initiative qui vise Ă  aider les individus Ă  prendre des dĂ©cisions Ă©clairĂ©es concernant leurs procĂ©dures d’immigration et d’aider les membres de la sociĂ©tĂ© civile Ă  leur fournir des informations. Elle a Ă©tĂ© prĂ©sentĂ©e lors d’une confĂ©rence le vendredi 17 mars 2023 Ă  la Vrij Universiteit Amsterdam, https://vu.nl/en/ events/2023/legal-technology-a-stance-for-socialjustice, consultĂ© le 3 avril 2023.

4. Le projet LeaveNoOneBehind associe la localisation tĂ©lĂ©phonique des personnes Ă  une photo pour fournir une preuve de leur prĂ©sence dans l’UE. Mathias Monroy, Projet LeaveNoOneBehind: Une appli pour le droit d’asile (digit.site36, 17 octobre 2022), https://digit.site36. net/2022/10/17/sea-watch-an-app-for-the-right-toasylum/, consultĂ© le 3 avril 2023.

5. Article 7 de la Charte : respect de la vie privée et familiale.

6. Article 52 de la Charte : portée et interprétation des droits et des principes.

7. Affaire C-291/12, Michael Schwarz c. Ville de Bochum [2013] CJUE, EU:C:2013:670.

8. Schwarz, cons. 43.

9. Schwarz, cons. 36-37.

10. Affaires jointes C-148/13 Ă  C-150/13, A, B, C c. Staatssecretaris van Veiligheid en Justitie [2014] Conclusions de l’avocat gĂ©nĂ©ral Sharpston, EU:C:2014:2111.

11. Affaires jointes C-148/13 Ă  C-150/13, A, B, C c. Secretary of State for Security and Justice [2014] CJUE, EU:C:2014:2406.

12. Selon le dictionnaire Oxford, le terme « pseudoscience » est « utilisĂ© pour dĂ©signer des idĂ©es et des thĂ©ories qui semblent avoir fait l’objet de recherches approfondies et ĂȘtre scientifiques mais qui, en rĂ©alitĂ©, ne sont pas Ă©tayĂ©es par des preuves suffisantes », comme nous l’avons lu pour la premiĂšre fois dans le contexte de ce billet de blog : Nuno Ferreira et Denise Venturi, Tell me what you see and I’ll tell you’re gay : Analysing the Advocate General’s Opinion in Case C-473/16, F v BevĂĄndorlĂĄsi Ă©s ÁllampolgĂĄrsĂĄgi Hivatal (eumigrationlawblog.eu, 24 novembre 2017), https://eumigrationlawblog.eu/tell-me-what-yousee-and-ill-tell-you-if-youre-gay-analysing-the-advocate-generals-opinion-in-case-c-47316-f-v-bevandorlasi-es-allampolgarsagi-hivatal/, consultĂ© le 03 avril 2023.

13. Affaire C-473/16, F/Office de l’immigration et de la nationalitĂ© [2018] CJUE, EU:C:2018:36, cons. 58.

14. Affaire C-473/16, F/Office de l’immigration et de la nationalitĂ© [2018] CJUE, EU:C:2018:36, cons. 53.

15. Ozkul, D., « Automating Immigration and Asylum: The Uses of New Technologies in Migration and Asylum Governance in Europe », Oxford: Refugee Studies Centre, 2023, University of Oxford p. 50-53. « EU deportations organized on the basis of social media profiles » (Statewatch, 13 février 2023), https://www.statewatch.org/news/2023/february/eu-deportations-organized-on-the-basis-of-social-media-profiles/, consulté le 03 avril 2023.

16. Dr. Francesca Palmiotto et Dr. Derya Ozkul, « “Like Handing My Whole Life Over”: The German Federal Administrative Court’s Landmark Ruling on Mobile Phone Data Extraction in Asylum Procedures » (Verfassungsblog, 28 fĂ©vrier 2023), https://verfassungsblog.de/like-handing-my-whole-lifeover/, consultĂ© le 03 avril 2023.

17. Nuno Ferreira et Denise Venturi, « Tell me what you see and I’ll tell you if you’re gay: Analysing the Advocate General’s Opinion in Case C-473/16, F v BevĂĄndorlĂĄsi Ă©s ÁllampolgĂĄrsĂĄgi Hivatal » (eumigrationlawblog.eu, 24 novembre 2017), https://eumigrationlawblog.eu/tell-mewhat-you-see-and-ill-tell-you-if-youre-gay-analysingthe-advocate-generals-opinion-in-case-c-47316-f-vbevandorlasi-es-allampolgarsagi-hivatal/, consultĂ© le 03 avril 2023.

18. « Joint statement: The EU Artificial Intelligence Act must protect people on the move » (Statewatch, 06 décembre 2022), https://www.statewatch.org/news/2022/december/ joint-statement-the-eu-artifical-intelligence-act-mustprotect-people-on-the-move/, consulté le 03 avril 2023.

19. Niovi Vavoula, « Databases for Non-EU Nationals and the Right to Private Life: Towards a System of Generalised Surveillance of Movement? » in Francesca Bignami (dir.), EU Law in Populist Times: Crises and Prospects, Cambridge University Press, 2020, p. 229.

20. Nouvelle carte en ligne des bases de donnĂ©es « interopĂ©rables » de l’UE en matiĂšre d’immigration et de police (Statewatch, 09 novembre 2022), https://www. statewatch.org/news/2022/november/new-online-mapof-the-eu-s-interoperable-immigration-and-policingdatabases, consultĂ© le 04 avril 2023.

21. Article 8 de la Charte: protection des données à caractÚre personnel.

22. Proposition modifiĂ©e de rĂšglement du Parlement europĂ©en et du Conseil relatif Ă  la crĂ©ation d’« Eurodac » pour la comparaison de donnĂ©es biomĂ©triques aux fins de l’application effective du rĂšglement (UE) XXX/XXX [rĂšglement relatif Ă  la gestion de l’asile et de la migration] et du rĂšglement (UE) XXX/XXX [rĂšglement relatif Ă  la rĂ©installation], pour l’identification des ressortissants de pays tiers ou des apatrides en sĂ©jour irrĂ©gulier, et relatif aux demandes de comparaison avec les donnĂ©es Eurodac prĂ©sentĂ©es par les autoritĂ©s rĂ©pressives des États membres et Europol Ă  des fins rĂ©pressives, et modifiant les rĂšglements (UE) 2018/1240 et (UE) 2019/818 [2020] COM/2020/614 final.

23. Affaire C-503/03, Commission des CommunautĂ©s europĂ©ennes c. Royaume d’Espagne [2006] CJUE EU:C:2006:74.

24. Article 47: Droit à un recours effectif et à accéder à un tribunal impartial.

25. Affaires jointes C-225/19 et C-226/19, R.N.N.S. et K.A. c. Minister van Buitenlandse Zaken [2020] CJUE EU:C:2020:951.

26. Norris, C., de Hert, P., L’Hoiry, X., & Galleta, A. (dir.), « The unaccountable state of surveillance: Exercising access rights in Europe » (Law, Governance and Technology Series; Vol. 34, 2017), Springer International.

27. Comité Helsinki hongrois, The Right to Know - Comparative Report on Access to Classified Data in National Security Immigration Cases in Cyprus, Hungary and Poland (13 septembre 2021) https://helsinki.hu/en/comparative-report-on-access-to-classified-data-in-national-security-immigration-cases/ consulté le 3 avril 2023.

28. Affaire C-362/14, Maximillian Schrems c. Commissaire à la protection des données [2015] CJUE EU: C:2015:650.

29. Laura Dreschler, “Wanted: LED adequacy decisions: How the absence of any LED adequacy decision is hurting the protection of fundamental rights in a law enforcement context”, International Data Privacy Law, 11(2), 2021, p. 182-195.

30. En raison de l’augmentation des donnĂ©es stockĂ©es et Ă©changĂ©es dans les systĂšmes d’information europĂ©ens sur la migration et l’asile.

31. Jane Kilpatrick, Chris Jones, « Empowering the police, removing protections: the new Europol Regulation », Statewatch, 2022, https://www.statewatch.org/publications/reports-and-books/empowering-the-police-removing-protections-the-new-europol-regulation/, consulté le 03 avril 2023.

32. Luděk Stavinoha, Apostolis Fotiadis et Giacomo Zandonini, « EU’s Frontex Tripped in Its Plan for ‘Intrusive’ Surveillance of Migrants », (Balkan Insight, 7 juillet 2022), https://balkaninsight.com/2022/07/07/eus-frontex-tripped-in-planfor-intrusive-surveillance-of-migrants/, consultĂ© le 03 avril 2023.

33. Observations formelles du CEPD sur la proposition de rÚglement relatif au corps européen de garde-frontiÚres et de garde-cÎtes (30 novembre 2018, CEPD), https://edps. europa.eu/data-protection/our-work/publications/comments/formal-comments-edps-proposal-regulation-european_de, consulté le 03 avril 2023.

34. Wojciech Wiewiórowski, « Privacy and data protection too often suspended at EU borders » (27 janvier 2023, Euractiv), https://www.euractiv.com/section/data-privacy/opinion/ it-is-time-to-tear-down-this-wall/, consulté le 03 avril 2023.

35. Teresa Quintel, Managing Migration Flows by processing Personal Data within the adequate Data Protection Instrument: Scoping Exercise between general and law enforcement Data Protection Rules applicable to Third Country Nationals, Upsala Universiteit et Université du Luxembourg, ThÚse de doctorat, 2021. p. 290. http://uu.diva-portal.org/smash/record.jsf?pid=diva2%3A1569545&dswid=135, consulté le 03 avril 2023.

36. Petra Molnar, « Technological Testing Grounds: Border tech is experimenting with people’s lives » (9 novembre 2019, EDRI and the refugee law lab), https://edri.org/ our-work/technological-testing-grounds-border-techis-experimenting-with-peoples-lives/, consultĂ© le 03 avril 2023.

37. Agence des droits fondamentaux (2022) Establishing national independent mechanisms to monitor fundamental rights compliance at EU external borders, https://fra. europa.eu/es/publication/2022/border-rights-monitoring, consulté le 3 avril 2023.

Article 20

1. Frantz Fanon, Peau noire, Masques blancs, Éditions du Seuil, coll. Esprit, 1952, p. 88-89.

2. Un compte-rendu plus complet de ses expériences est disponible dans son discours TEDxBeaconStreet: Joy Buolamwini, Code4Rights, Code4All (2016)

3. Joy Buolamwini y Timnit Gebru, «Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification», Proceedings of Machine Learning Research 81 (2018) 77-91

4. Simone Browne, Dark Matters. On the Surveillance of Blackness, Duke University Press, 2015, p. 8.

5. Pour des aperçus et des exemples, outre les ouvrages citĂ©s dans les autres notes de bas de page, voir par exemple Cathy O’Neil, Weapons of Math Destruction. How Big Data Increases Inequality and Threatens Democracy (Crown, 2016) ; Virginia Eubanks, Automating Inequality : How High-tech Tools Profile, Police, and Punish the Poor (St. Martin’s Press, 2018) ; Catherine D’Ignazio et Lauren F. Klein, Data Feminism (MIT Press, 2020) ; Jens T. Theilen y otros, «Feminist Data Protection: An Introduction», Internet Policy Review 10 (2021) doi:10.14763/2021.4.1609

6. Pour une discussion sur ce point dans le contexte des technologies numériques, voir Julie E. Cohen, Between Truth and Power : The Legal Constructions of Informational Capitalism (Oxford University Press, 2019), p. 239 ; Tendayi E. Achiume, Racial discrimination and emerging digital technologies: a human rights analysis (2020), UN Doc. A/ CDH/44/57.

7. Voir Shoshana Zuboff, The Age of Surveillance Capitalism: The Fight for a Human Future at the new Frontier of Power (Public Affairs, 2019).

8. Par exemple, CJCE, affaire C-414/16 - Egenberger, considérant 76.

9. Pour une critique du « cadre dominant actuel Ă  axe unique au sein de la lĂ©gislation de l’UE sur l’égalitĂ© » ainsi que des pistes possibles, voir Nozizwe Dube, “Not Just Another Islamic Headscarf Case”, European Law Blog, 19 janvier 2023.

10. Pour une vue d’ensemble des dĂ©bats sur l’intersectionnalitĂ©, voir Patricia Hill Collins et Sirma Bilge, Intersectionality (2e Ă©d., Polity 2020), en particulier les pages 127-138 sur les mĂ©dias sociaux et la violence numĂ©rique ; dans le contexte de la lĂ©gislation antidiscrimination, voir KimberlĂ© Crenshaw, “Demarginalizing the Intersection of Race and Sex : A Black Feminist Critique of Antidiscrimination Doctrine, Feminist Theory and Antiracist Politics”, University of Chicago Legal Forum, 1989, p. 139 ; Shreya Atrey, Intersectional Discrimination (Oxford University Press, 2019) ; Anna Lauren Hoffmann, “Where Fairness Fails : Data, Algorithms, and the Limits of Antidiscrimination Discourse », Communication & Society, n° 22, 2019, p. 900

11. Safiya Umoja Noble, Algorithms of Oppression. How Search Engines Reinforce Racism (New York University Press, 2018).

12. Center for Intersectional Justice, Intersectional Discrimination in Europe : Relevance, Challenges and Ways Forward (2019), p. 20 ; un pas dans la bonne direction est fourni par le Parlement europĂ©en, RĂ©solution du 6 juillet 2022 sur la discrimination intersectionnelle dans l’Union europĂ©enne (P9_TA(2022)0289)

13. Aisha P.L. Kadiri, “Data and Afrofuturism: An Emancipated Subject?”, Internet Policy Review, n° 10 (4), 2021, doi:10.14763/2021.4.1597

14. Os Keyes, “The Misgendering Machines: Trans/HCI Implications of Automatic Gender Recognition”, Proceedings of the ACM on Human-Computer Interaction, n° 2, 2018, p. 88 ; Foad Hamidi, Morgan Klaus Scheuerman et Stacy M.

Branham, “Gender Recognition or Gender Reductionism? The Social Implications of Automatic Gender Recognition Systems”, CHI ‘18: Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems, n° 1, 2018, p. 8.

15. Voir Ă©galement Morgan Klaus Scheuerman, Madeleine Pape et Alex Hanna, “Auto-essentialization: Gender in Automated Facial Analysis as Extended Colonial Project”, Big Data & Society, n° 8 (2), 2021, doi:10.1177/20539517211053712.

16. Mar Hicks, “Sexism is a Feature, Not a Bug” in Thomas S. Mullaney et al. (dir.), Your Computer is on Fire (MIT Press, 2021) ; voir notamment leur chapitre « When Did the Fire Start? » issu du mĂȘme ouvrage.

17. Ruha Benjamin, « Race After Technology. Abolitionist Tools for the New Jim Code », (Polity, 2019), p. 44.

18. P. Khalil Saucier et Tryon P. Woods, « Ex Aqua: The Mediterranean Basin, Africans on the Move and the Politics of Policing », Theoria, n° 61, 2014, p. 55-75.

19. Dean Spade, “Intersectional Resistance and Law Reform”, Signs, n° 38, 2013, p. 1031-1055.

20. bell hooks, ‘The Oppositional Gaze. Black Female Spectators’, Black Looks: Race and Representation (South End Press, 1992), p. 116.

21. Marika Cifor et al., Feminist Data Manifest-No (2019), principe n° 21.

Article 21

1. Parmi les travaux importants en la matiùre, citons Safiya Umoja Noble, Algorithms of oppression : How search engines reinforce racism (New York University Press, 2018) ; Joy Buolamwini et Timnit Gebru, “Gender Shades : Intersectional Accuracy Disparities in Commercial Gender Classification”, Conference on Fairness, Accountability, and Transparency, Proceedings of Machine Learning Research, n° 81, 2018, p. 77-91 ; Ruha Benjamin, Race after technology : Abolitionist tools for the new Jim code (Oxford University Press, 2020).

2. C-617/10 Åklagaren c. Hans Åkerberg Fransson EU:C:2013:105, cons. 26.

3. L’étendue de la protection est inĂ©gale selon les domaines protĂ©gĂ©s : le domaine du travail, par exemple, est intĂ©gralement couvert, alors que l’accĂšs aux biens et aux services ne l’est qu’en matiĂšre d’égalitĂ© des genres et de race.

4. C-414/16 Vera Egenberger c. Evangelisches Werk fĂŒr Diakonie und Entwicklung e.V. EU:C:2018:257, cons. 81.

5. Ibid, cons. 76-79.

6. Cf. par exemple C-406/15 Petya Milkova c. Izpalnitelen direktor na Agentsiata za privatizatsia i sledprivatizatsionen kontrol EU:C:2017:198 et C-528/13 Geoffrey LĂ©ger c. Ministre des Affaires sociales, de la SantĂ© et des Droits des femmes and Établissement français du sang EU:C:2015:288.

7. Voir Claire Kilpatrick, “Article 21: Non-Discrimination” in S. Peers, T. Hervey, J. Kenner et A. Ward, The EU Charter of Fundamental Rights. A Commentary (Hart Publishing, 2014) ; Emmanuelle Bribosia et al., « Article 21: Non-Discrimination » in F. Picod, S. van Drooghenbroeck et C. Rizcallah, Charte des droits fondamentaux de l’Union europĂ©enne: Commentaire article par article (Bruylant, 2017).

8. RĂšglement relatif Ă  la protection des personnes physiques Ă  l’égard du traitement des donnĂ©es Ă  caractĂšre personnel et Ă  la libre circulation de ces donnĂ©es, et abrogeant la directive 95/46/CE (RĂšglement gĂ©nĂ©ral sur la protection des donnĂ©es) [2016] JO 2 119/1.

9. Voir J. Buolamwini and T. Gebru, “Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification”, Proceedings of Machine Learning Research, n° 81, 2018, p. 77-91 ; ainsi qu’H. F. Menezes, A. S. C. Ferreira, E. T. Pereira et H. M. Gomes, “Bias and Fairness in Face Detection”, 34th SIBGRAPI Conference on Graphics, Patterns and Images (SIBGRAPI), 2021, p. 247-254.

10. Le droit europĂ©en ne fixe que des exigences minimales pour la protection contre la discrimination et le droit national peut accorder une protection plus Ă©tendue tant qu’il reste conforme aux traitĂ©s de l’UE. Toutefois, les considĂ©rations relatives au droit national sortent du cadre de cet essai.

11. Article 3 (1) (g) de la Directive 2000/43/EC.

12. C-414/16 Egenberger EU:C:2018:257.

13. Voir College voor de Rechten van de Mens, jugement 2022-146 (7 dĂ©cembre 2022), disponible Ă  l’adresse https://oordelen.mensenrechten.nl/oordeel/2022-146

14. Pour ce faire, il s’est appuyĂ© sur la constatation de la CJUE selon laquelle un requĂ©rant peut « étayer une apparence de discrimination en se fondant sur des donnĂ©es statistiques gĂ©nĂ©rales [
] dans le cas oĂč il ne saurait ĂȘtre attendu de l’intĂ©ressĂ© qu’il produise des donnĂ©es plus prĂ©cises relatives au groupe de travailleurs pertinent, celles-ci Ă©tant difficilement accessibles, voire indisponibles ». Voir C-274/18 Minoo Schuch-Ghannadan c. Medizinische UniversitĂ€t Wien EU:C:2019:828, cons. 56.

15. L’Institut s’est rĂ©fĂ©rĂ© Ă  la dĂ©cision de la Cour europĂ©enne des droits de l’homme dans l’affaire Basu c. Allemagne, requĂȘte n° 215/19 (Cour europĂ©enne des droits de l’homme, 18 octobre 2022).

16. Voir Janneke Gerards et Frederik Borgesius, « Protected Grounds and the System of Non-discrimination Law in the Context of Algorithmic Decision-making and Artificial Intelligence », Colorado Technology Law Journal, n° 20 (1), 2022.

17. Cf. C-354/13 Fag og Arbejde (FOA) c. Kommunernes Landsforening (KL) EU:C:2014:2463, cons. 36 et 39.

18. Voir RaphaĂ«le Xenidis, Beyond the “Master’s Tools” : Putting Intersectionality to Work in European Non-Discrimination Law (2020) Institut universitaire europĂ©en.

19. Joy Buolamwini et Timnit Gebru, “Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification”, Conference on Fairness, Accountability, and Transparency, Proceedings of Machine Learning Research, n° 81, 2018, p. 1-15.

20. C-443/15 David L. Parris c. Trinity College Dublin and Others EU:C:2016:897.

21. La discrimination directe et indirecte entraĂźne l’application de rĂ©gimes de justification diffĂ©rents. Comme mentionnĂ© ci-dessus, la discrimination indirecte peut ĂȘtre justifiĂ©e en satisfaisant aux trois critĂšres du test de proportionnalitĂ©. En revanche, les dĂ©rogations Ă  la discrimination directe sont limitĂ©es Ă  quelques exceptions explicitement prĂ©vues dans les directives europĂ©ennes.

22. Voir RaphaĂ«le Xenidis, “Algorithmic Neutrality vs Neutralising Discriminatory Algorithms : For a Paradigm Shift in EU Anti-Discrimination Law”, Lavoro e Diritto, n° 4, 2022, p. 765-771 et RaphaĂ«le Xenidis, “When computers say no : Towards a legal response to algorithmic discrimination in Europe” in Bartosz BroĆŒek, Olia Kanevskaia & PrzemysƂaw PaƂka (dir.), Research Handbook on Law and Technology (Edward Elgar, Ă  paraĂźtre).

23. Voir RaphaĂ«le Xenidis, “The Polysemy of Anti-discrimination Law: The Interpretation Architecture of the Framework Employment Directive at the Court of Justice”, Common Market Law Review, n° 58 (6), 2021, p. 1649-1696.

24. Un contre-argument potentiel pour la partie dĂ©fenderesse pourrait ĂȘtre que le systĂšme vise Ă  garantir l’équitĂ© et le mĂ©rite dans les examens, qui sont des dimensions clĂ©s du

droit fondamental Ă  l’éducation protĂ©gĂ© par l’article 14 de la Charte.

25. Des difficultĂ©s se posent Ă©galement en ce qui concerne l’évaluation du choix par les fournisseurs de systĂšmes de mesures et d’interventions adĂ©quates en matiĂšre d’équitĂ©.

1. Bits of freedom, We want more than “symbolic” gestures in response to discriminatory algorithms, 10 February 2021, https://edri.org/our-work/we-want-more-than-symbolic-gestures-in-response-to-discriminatory-algorithms/

2. BNNVARA, Veel meer kinderen van toeslagenschandaal-ouders uit huis geplaatst dan tot nu toe bekend was, 30 November 2022, https://www.bnnvara.nl/joop/artikelen/veel-meer-kinderen-van-toeslagenschandaal-oudersuit-huis-geplaatst-dan-tot-nu-toe-bekend-was

3. Belastingdienst/Toeslagen, De verwerking van de nationaliteit van aanvragers van kinderopvangtoeslag, Onderzoeksrapport | z2018-22445,

4. https://autoriteitpersoonsgegevens.nl/uploads/imported/ onderzoek_belastingdienst_kinderopvangtoeslag.pdf

5. Amnesty International, Toeslagenschandaal is mensenrechtenschending, zegt Amnesty International, 25 October 2021, https://www.amnesty.nl/actueel/toeslagenaffaire-is-mensenrechtenschending-zegt-amnesty-international

6. Bits of freedom, De Belastingdienst laat internationaal goed zien hoe het dus niet moet, 28 October 2021, https:// www.bitsoffreedom.nl/2021/10/28/de-belastindienst-laatinternationaal-goed-zien-hoe-het-dus-niet-moet/

7. Controlealtdelete, Etnisch en religieus geladen risicoprofielen bij Belastingdienst, https://controlealtdelete. nl/articles/etnisch-en-religieus-geladen-risicoprofielen-bij-belastingdienst

8. K.W. Crenshaw (2017), On Intersectionality: Essential Writings, The New York Press, https://scholarship.law.columbia. edu/books/255/

9. Rechtbank Den Haag, ECLI:NL:RBDHA:2020:865,

10. https://uitspraken.rechtspraak.nl/#!/details?id=ECLI:NL:RBDHA:2020:1878

11. NOS, Ouders zwartgelakte dossiers: ‘Ik weet nog steeds niet wat ik fout heb gedaan’, 11 December 2019, https:// nos.nl/artikel/2314288-ouders-zwartgelakte-dossiers-ikweet-nog-steeds-niet-wat-ik-fout-heb-gedaan

12. deRechtspraak, Reflectie bestuursrechters rechtbanken op toeslagenaffaire gepubliceerd, Toeslagenaffaire: ‘Belang rechtsbescherming individu moet zwaarder wegen dan vaste lijn jurisprudentie’, 8 October 2021, https://www. rechtspraak.nl/Organisatie-en-contact/Organisatie/ Raad-voor-de-rechtspraak/Nieuws/Paginas/Toeslagenaffaire-Belang-rechtsbescherming-individu-moet-zwaarder-wegen-dan-vaste-lijn-jurisprudentie.aspx

Article 8

1. Affaires jointes C 203/15 et C 698/15 Tele2 Sverige AB c. Post- och telestyrelsen, cons. 129.

2. Affaire C 131/12 Google Spain SL c. AEPD.

3. RĂšglement (UE) 2016/679 du Parlement europĂ©en et du Conseil du 27 avril 2016 relatif Ă  la protection des personnes physiques Ă  l’égard du traitement des donnĂ©es Ă  caractĂšre personnel et Ă  la libre circulation de ces donnĂ©es, et abrogeant la directive 95/46/CE (rĂšglement gĂ©nĂ©ral sur la protection des donnĂ©es) (Texte prĂ©sentant de l’intĂ©rĂȘt pour l’EEE).

4. Directive (UE) 2016/680 du Parlement europĂ©en et du Conseil du 27 avril 2016 relative Ă  la protection des personnes physiques Ă  l’égard du traitement des donnĂ©es Ă 

Article 7

caractĂšre personnel par les autoritĂ©s compĂ©tentes Ă  des fins de prĂ©vention et de dĂ©tection des infractions pĂ©nales, d’enquĂȘtes et de poursuites en la matiĂšre ou d’exĂ©cution de sanctions pĂ©nales, et Ă  la libre circulation de ces donnĂ©es, et abrogeant la dĂ©cision-cadre 2008/977/JAI du Conseil.

5. Voir, par exemple, lien supra (RĂšglement 2016/679), arts. 4 (1) et 4 (2).

6. Affaire C-73/07 Tietosuojavaltuutettu c. Satakunnan Markkinapörssi Oy, cons. 36-37.

7. Affaire C 434/16 Nowak c. DPC, cons. 34.

8. Affaire C-582/14 Breyer c. RĂ©publique fĂ©dĂ©rale d’Allemagne, cons. 44.

9. Voir affaire C 291/12 Schwarz c. Stadt Bochum, cons. 28.

10. Supra note n°1.

11. Directive 2002/58/CE du Parlement européen et du Conseil du 12 juillet 2002 concernant le traitement des données à caractÚre personnel et la protection de la vie privée dans le secteur des communications électroniques (directive vie privée et communications électroniques), OJ L 201, art. 1 (3).

12. Supra note n°1, cons. 67-81.

13. Affaire C 623/17 Privacy International c. SSFCA.

14. Ibid, cons. 40-41.

15. Voir, entre autres, les affaires jointes C 92/09 et C 93/09, Schecke c. Land Hessen, Rec. 2010, p. I-11063.

16. Voir, par exemple, les affaires jointes C 293/12 et C 594/12 Digital Rights Ireland c. Minister for Communications, Marine and Natural Resources, cons. 36.

17. Christopher Docksey, “Four fundamental rights: finding the balance”, International Data Privacy Law, Vol. 6, 2016, p. 195.

18. Supra note n° 15, cons. 52.

19. Voir FRA/ECtHR/EDPS, Manuel de droit europĂ©en en matiĂšre de protection des donnĂ©es, Publication de l’Agence des droits fondamentaux de l’Union europĂ©enne, 2018, p. 20.

20. R (Bridges) v CCSWP [2019] EWHC 2341 (Admin).

21. Herke Kranenborg, “Article 8” in Steve Peers, Tamara Hervey, Jeff Kenner et Angela Ward (dir.), The EU Charter of Fundamental Rights: A Commentary, Hart, 2021, p. 242.

22. Supra note n° 16, cons. 39-40.

23. Ibid, cons. 40.

24. Maja Brkan, “The Essence of the Fundamental Rights to Privacy and Data Protection: Finding the Way Through the Maze of the CJEU’s Constitutional Reasoning”, German Law Journal, vol. 20, 2019, p. 864 et s., p. 878.

25. Affaire C 73/16 PuĆĄkĂĄr c. FinančnĂ© riaditeÄŸstvo Slovenskej republiky, cons. 64.

26. Affaire C 205/21 V.S., cons. 125-128.

27. Affaires jointes C 511/18, C 512/18 et C 520/18 La Quadrature du Net c. Premier ministre, cons. 136-137.

28. Supra note n° 2, cons. 81.

29. Affaires jointes C 37/20 et C 601/20 WM c. Luxembourg Business Registers, cons. 83-86.

Article 41

1. Les auteurs sont introduits par ordre alphabétique, leur contribution à cet essai est égale.

2. https://eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=OJ:JOC_1988_180_R_0007_01&from=ES

3. https://curia.europa.eu/juris/document/document. jsf;jsessionid=1A4F9052F6441373B59362B8770E246D?text=&docid=130241&pageIndex=0&doclang=ES&mode=lst&dir=&occ=first&part=1&cid=1552373

4. https://curia.europa.eu/juris/document/document.jsf?text=&docid=234205&pageIndex=0&doclang=ES&mode=ls-

t&dir=&occ=first&part=1&cid=1553564

5. Ibid

6. https://curia.europa.eu/juris/showPdf.jsf;jsessionid=7DA478E8C73B02CCE9126CEC38D3B3C8?text=&docid=97440&pageIndex=0&doclang=ES&mode=lst&dir=&occ=first&part=1&cid=124762

7. https://curia.europa.eu/juris/document/document.jsf?text=&docid=110209&pageIndex=0&doclang=ES&mode=lst&dir=&occ=first&part=1&cid=129508

8. https://verfassungsblog.de/frontex-and-algorithmic-discretion-part-i/

9. https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=celex:32021R1152

10. https://raley.english.ucsb.edu/wp-content/Engl800/Pasquale-blackbox.pdf

11. https://www.europarl.europa.eu/RegData/etudes/ IDAN/2021/690706/EPRS_IDA(2021)690706_EN.pdf

12. https://scholarlypublications.universiteitleiden.nl/handle/1887/3439725

13. https://arxiv.org/pdf/1606.08813.pdf

14. S. Wachter, B. Mittelstadt, L. Floridi, Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation, International Data Privacy Law, 7(2):76–99, https://doi.org/10.1093/idpl/ipx005

15. https://curia.europa.eu/juris/showPdf.jsf?text=&docid=45418&pageIndex=0&doclang=ES&mode=lst&dir=&occ=first&part=1&cid=2109541

16. https://curia.europa.eu/juris/showPdf.jsf?text=&docid=99241&pageIndex=0&doclang=ES&mode=lst&dir=&occ=first&part=1&cid=14505857

17. https://curia.europa.eu/juris/document/document.jsf?text=&docid=65303&pageIndex=0&doclang=ES&mode=lst&dir=&occ=first&part=1&cid=14505723

18. Busuioc, M., Curtin, D., & Almada, M. (2023). Reclaiming transparency: contesting the logics of secrecy within the AI Act. European Law Open, 2(1), 79–105. doi:10.1017/ elo.2022.47

Article 47

1. Chisnall, M., “Digital slavery, time for abolition?”, Policy Studies, 2020, 41 (5), p. 488-506.

2. Voir par exemple : RĂšglement 2016/679/UE du Parlement europĂ©en et du Conseil du 27 avril 2016 relatif Ă  la protection des personnes physiques Ă  l’égard du traitement des donnĂ©es Ă  caractĂšre personnel et Ă  la libre circulation de ces donnĂ©es [2016].

3. Van Dalen, S. Gilder, A. Hooydonk, E. Ponsen, E. (2016) System Risk Indication An Assessment of the Dutch Anti-Fraud System in the Context of Data Protection and Profiling https://pilpnjcm.nl/wp-content/uploads/2016/06/memorandum_1_-_system_risk_indication_an_assessment_of_ the_dutch_anti-fraud_system_in_the_context_of_data_ protection_and_profiling-1.pdf

4. Rachovitsa, A., & Johann, N., “The human rights implications of the use of AI in the digital welfare state: Lessons learned from the Dutch SyRI case”, Human Rights Law Review, 2022, 22 (2), ngac010.

5. Ibid.

6. Loi SUWI, Art. 65 (1).

7. MĂ©moire du rapporteur spĂ©cial des Nations unies sur l’extrĂȘme pauvretĂ© et les droits humains en tant qu’amicus curiae dans l’affaire NJCM c.s./De Staat der Nederlanden (SyRI) devant le tribunal de district de La Haye (numĂ©ro d’affaire C/09/550982/ HA ZA 18/388).

8. Ibid.

9. Ibid.

10. Lenaerts, K., “Exploring the limits of the EU charter of fundamental rights”, European Constitutional Law Review, 2012, 8 (3), p. 375-403.

11. Ibid.

12. Klamert, M., “The implementation and application of the Charter of Fundamental Rights of the EU in Austria”, Acta Universitatis Carolinae Iuridica, 2018, 64 (4), p. 89-99.

13. Pech, Laurent, et SĂ©bastien Platon, “Judicial independence under threat: the Court of Justice to the rescue in the ASJP case”, Common Market L. Rev., 2018, 55, p. 1827.

14. Mulders, S., “The relationship between the principle of effectiveness under Art. 47 CFR and the concept of damages under Art. 82 GDPR”, International Data Privacy Law, 2023, Vol. 00, No. 0.

15. Dans l’affaire Digital Rights Ireland Ltd c. Minister for Communications, Marine and Natural Resources, la Cour a dĂ©clarĂ© la directive europĂ©enne imposant des fournisseurs d’accĂšs Ă  Internet (FAI) invalide en vertu des articles 7 et 8 de la Charte. Dans l’affaire Tele2/Watson, la CJUE a dĂ©cidĂ© que la lĂ©gislation nationale permettant la conservation indiscriminĂ©e de donnĂ©es provenant d’appareils Ă©lectroniques Ă  des fins de lutte contre la criminalitĂ© violait les droits consacrĂ©s par les articles 7 et 8 de la Charte. Par ailleurs, l’affaire Google c. Espagne en 2014 et les affaires Schrems (2015 et 2020) ont portĂ© sur des questions liĂ©es au droit Ă  la suppression des donnĂ©es sur les plateformes et aux rĂšgles concernant le partage des donnĂ©es Ă  caractĂšre personnel avec des pays tiers. Voir Cameron, I., “Balancing data protection and law enforcement needs: Tele2 Sverige and Watson”, Common Market L. Rev., 2017, n° 54, p. 1467 et Voss, W. G., “European union data privacy law reform: General data protection regulation, privacy shield, and the right to delisting”, The Business Lawyer, 2016, 72 (1), p. 221-234.

9. ‘The Algorithm Addiction’ (Rapports Lighthouse), https:// www.lighthousereports.nl/investigation/the-algorithm-addiction.

10. Voir Choroszewicz, note n° 5 ; Human Rights Watch, “How the EU’s Flawed Artificial Intelligence Regulation Endangers the Social Safety Net: Questions and Answers”, https://www. hrw.org/news/2021/11/10/how-eus-flawed-artificial-intelligence-regulation-endangers-social-safety-net.

11. Mike Ananny et Kate Crawford, “Seeing without Knowing: Limitations of the Transparency Ideal and Its Application to Algorithmic Accountability”, New Media & Society, 2018, Vol. 20, p. 973.

12. Sandra Wachter, Brent Mittelstadt et Chris Russell, “Why Fairness Cannot Be Automated: Bridging the Gap between EU Non-Discrimination Law and AI”, Computer Law & Security Review, Vol. 41, 2021, 105567.

13. “Austria’s Employment Agency Rolls out Discriminatory Algorithm, Sees No Problem” (AlgorithmWatch), https:// algorithmwatch.org/en/austrias-employment-agency-ams-rolls-out-discriminatory-algorithm/ (consultĂ© le 27 fĂ©vrier 2023).

14. Ada Lovelace Institute, AI Now Institute and Open Government Partnership (2021), “Algorithmic accountability for the public sector”, https://www.opengovpartnership.org/ wp-content/uploads/2021/08/algorithmic-accountability-public-sector.pdf

15. Agence des droits fondamentaux de l’UE, Bien prĂ©parer l’avenir. L’intelligence artificielle et les droits fondamentaux, (Office des publications de l’Union europĂ©enne 2020), https://fra.europa.eu/en/publication/2020/artificial-intelligence-and-fundamental-rights

16. Frans Pennings, “Does the EU Charter of Fundamental Rights Have Added Value for Social Security?”, European Journal of Social Security, Vol. 24, 2022, p. 117.

Article 34

1. NUAG, « Rapport du Rapporteur spĂ©cial sur les droits de l’homme et l’extrĂȘme pauvreté », A/74/493, 11 octobre 2019.

2. Virginia Eubanks, Automating Inequality: How High Tech Tools Surveil, Profile and Punish the Poor, St. Martin’s Press, Inc., 2018.

3. Johns, F., “From Planning to Prototypes: New Ways of Seeing Like a State”, The Modern Law Review, 2019, Vol. 82, p. 833863. https://doi.org/10.1111/1468-2230.12442

4. Scott JC, Seeing Like a State: How Certain Schemes to Improve the Human Condition Have Failed, Yale University Press, 1998.

5. Algorithm Watch and Bertelsmann Stiftung, “Automating society report 2020”, 2020 ; Marta Choroszewicz et Beata MĂ€ihĂ€niemi, « Developing a Digital Welfare State: Data Protection and the Use of Automated Decision-Making in the Public Sector across Six EU Countries », Global Perspectives, 2020, n° 1 (1), 12910.

6. Agneta Ranerup et Helle Zinner Henriksen, “Digital Discretion: Unpacking Human and Technological Agency in Automated Decision Making in Sweden’s Social Services”, Social Science Computer Review, 2022, Vol. 40 (2), p. 445-461.

7. Voir Algorithm Watch, note n° 5.

8. Naomi Appelman, Ronan Ó Fathaigh et Joris van Hoboken, “Social Welfare, Risk Profiling and Fundamental Rights: The Case of SyRI in the Netherlands”, Journal of Intellectual Property, Information Technology & E-Commerce Law, Vol. 12 (4), 2021, p. 257.

17. Jaan Paju, « The Charter and Social Security Rights: Time to Stand and Deliver? » European Journal of Social Security, Vol. 24, 2022, p. 21. Ane Aranguiz, “Bringing the EU up to Speed in the Protection of Living Standards through Fundamental Social Rights: Drawing Positive Lessons from the Experience of the Council of Europe”, Maastricht Journal of European and Comparative Law, Vol. 28, 2021, p. 601.

18. Observation générale n° 19: Le droit à la sécurité sociale, adoptée le 23 novembre 2007, doc. E/C.12/GC/19.

Article 28

1. https://www.ilo.org/dyn/natlex/docs/ELECTRONIC/98373/117044/F1671923749/IRL98373.pdf

2. https://www.tuc.org.uk/research-analysis/reports/section-tucs-first-victories

3. En effet, l’article 11 (2) de la Convention europĂ©enne des droits de l’homme est trĂšs conditionnel Ă  cet Ă©gard : « L’exercice de ces droits ne peut faire l’objet d’autres restrictions que celles qui, prĂ©vues par la loi, constituent des mesures nĂ©cessaires, dans une sociĂ©tĂ© dĂ©mocratique, Ă  la sĂ©curitĂ© nationale Ă  la sĂ»retĂ© publique Ă  la dĂ©fense de l’ordre et Ă  la prĂ©vention du crime, Ă  la protection de la santĂ© ou de la morale, ou Ă  la protection des droits et libertĂ©s d’autrui. Le prĂ©sent article n’interdit pas que des restrictions lĂ©gitimes soient imposĂ©es Ă  l’exercice de ces droits par les membres des forces armĂ©es, de la police ou de l’administration de l’État. »

4. https://www.legislation.gov.uk/ukpga/2022/32/contents/ enacted

5. https://www.theguardian.com/business/2018/nov/22/ gmb-union-drops-support-for-dpd-courier-walkout-after-legal-threat

6. https://www.elpuntavui.cat/societat/article/5-societat/2254689-l-acco-planteja-una-sancio-de-mes-de-122000-euros-a-elite-taxi-per-boicotejar-uber.html

7. https://www.thetimes.co.uk/article/uber-gives-police-private-data-on-drivers-and-passengers-dm7l3gsxv

8. https://www.wired.co.uk/article/dominic-cummings-coronavirus-big-tech

9. https://files.mutualcdn.com/ituc/files/2022-ITUC-RightsIndex-Exec-Summ-ES.pdf

10. https://www.gmb.org.uk/news/uber-and-gmb-strike-historic-union-deal-70000-uk-drivers

11. https://www.gmb.org.uk/news/gmb-and-deliveroo-sign-historic-recognition-deal

12. Dans sa soumission Ă  la Commission de l’emploi et des affaires sociales du Parlement europĂ©en, le gouvernement suĂ©dois a fait savoir que : « Le Riksdag est fermement opposĂ© Ă  des directives plus contraignantes qui dĂ©truisent les modĂšles de marchĂ© du travail qui fonctionnent. Ces derniĂšres annĂ©es, le Riksdag a vu un certain nombre d’initiatives de la Commission europĂ©enne qui menacent directement le modĂšle suĂ©dois du marchĂ© du travail, dans lequel les partenaires sociaux traitent les questions par le biais de conventions collectives. Le Riksdag le voit trĂšs clairement dans la proposition de directive actuelle, en particulier Ă  l’article 4, oĂč la prĂ©somption d’une relation de travail invalide le concept suĂ©dois d’employĂ©. L’ensemble de la proposition repose sur cette prĂ©somption de relation de travail et est, en substance, mal conçue. En outre, la directive risque d’avoir des rĂ©percussions tant sur le systĂšme fiscal que sur le systĂšme d’assurance sociale, ce qui est inacceptable. Si la proposition de directive est adoptĂ©e, elle aura des consĂ©quences considĂ©rables pour les entreprises de plateforme existantes et pour l’ensemble de l’économie Ă  la demande. La proposition porte atteinte Ă  l’autonomie des partenaires sociaux et constitue une menace pour le modĂšle suĂ©dois du marchĂ© du travail. Le Riksdag prend note des vives inquiĂ©tudes des organes de saisine concernant les consĂ©quences de la proposition pour le modĂšle suĂ©dois du marchĂ© du travail, en particulier en ce qui concerne l’article 4 et son impact sur le concept suĂ©dois d’emploi. »

13. https://www.convert.com/eu-gdpr/recital-68-gdpr/

14. https://5b88ae42-7f11-4060-85ff-4724bbfed648.usrfiles. com/ugd/5b88ae_de414334d89844bea61deaaebedfbbfe. pdf

Article 37

1. Patrick Williams et Eric Kind, Data-driven Policing: The hardwiring of discriminatory policing practices across Europe. Project Report. European Network Against Racism (ENAR), 2019 ; EDRi, « Decolonising digital rights », 2023 https://edri.org/what-we-do/decolonising-digital-rights/

2. Metcalfe P., & Dencik L., “The politics of big borders: Data (in) justice and the governance of refugees”, First Monday, 2019 ; Andreea Belu, “Surveillance on the seas: Europe’s new Migration Pact”, EDRi, 2020, https://edri.org/news/ surveillance-on-the-seas-europes-new-migration-pact/

3. Union europĂ©enne, « Charte des droits fondamentaux de l’Union europĂ©enne ». Journal officiel de l’Union europĂ©enne C326/391 https://eur-lex.europa.eu/eli/treaty/char_2012/ oj?locale=fr

4. Michelle Thorne, « Funders Convening on Climate Justice and Digital Rights », 2022, https://michellethorne. cc/2022/04/funders-convening-on-climate-justice-anddigital-rights/

5. Fieke Jansen, “Framing the climate crisis as a digital rights issue”, Green Web Foundation, 2022 https://www. thegreenwebfoundation.org/news/framing-the-climatecrisis-as-a-digital-rights-issue/

6. Michael Brennan, “Intersections of Digital Rights and Environmental and Climate Justice”, 2022 https://www. fordfoundation.org/work/learning/learning-reflections/ intersections-of-digital-rights-and-environmental-andclimate-justice/

7. Becky Kazansky, Shayna Finnegan, & Maja Romano, “Solidarity not solutionism: Wayfinding just paths for digital infrastructure that serves the planet”, 2023, https://www. apc.org/en/node/38497/

8. Shayna Robinson, Remy Hellstern, & Mariana Dia, “Sea Change: Prioritizing the Environment in Internet Architecture”, For IAB workshop on Environmental Impact of Internet Applications and Systems, 2022. https://github. com/intarchboard/e-impact-workshop-public/blob/ main/papers/Robinson_Sea-Change-Prioritizing-theEnvironment-in-Internet-Architecture.pdf

9. Ibid, Robinson, et al, « Sea Change ».

10. Leslie Hook & Dave Lee, “How tech went big on green energy”, Financial Times, 2021, https://www.ft.com/ content/0c69d4a4-2626-418d-813c-7337b8d5110d

11. Sebastian Moss, “Los Lunas locals question Facebook’s data center expansion, worry about water use”, Data Center Dynmics, 2021 https://www.datacenterdynamics. com/en/news/los-lunas-locals-question-facebooks-datacenter-expansion-worry-about-water-use/

12. Merijn Renger et Carola Houtekamer, “Datacentra Zeewolde vragen twee keer zoveel stroom als Amsterdam”, NRC, 2020 https://www.nrc.nl/nieuws/2020/06/21/zeewolde-speeltstraks-champions-league-met-stroomverbruik-a4003548

13. Merijn Renger & Carola Houtekamer, “Gebroken beloftes: hoe de Wieringermeerpolder dichtslibde met windturbines en datacentra”, NRC, 2020 https://www. nrc.nl/nieuws/2020/06/05/gebroken-beloftes-hoe-dewieringermeerpolder-dichtslibde-met-windturbines-endatacentra-a4001882

14. Ibid, Renger et al., “Gebroken beloftes”.

15. Ibid, Moss, “Los Lunas locals question”.

16. Association for Progressive Communication, “Extractivism, mining, and technology in the Global South: Towards a common agenda for action”, in At the interstice of digital rights and environmental justice: Four issue briefs to inform funding, 2022.

17. Niels ten Oever, “Wired Norms: Inscription, resistance, and subversion in the governance of the Internet infrastructure”, PhD thesis University of Amsterdam, 2020, https://nielstenoever.net/wp-content/uploads/2020/09/ WiredNorms-NielstenOever.pdf

18. Ibid, Association for Progressive Communication, “Extractivism, mining”.

19. Thierry Breton, “Critical Raw Materials Act: securing the new gas & oil at the heart of our economy I Blog of Commissioner Thierry Breton”, European Commission, 2022, https://ec.europa.eu/commission/presscorner/detail/en/ STATEMENT_22_5523

20. Internal Market, Industry, Entrepreneurship and SMEs, “Critical raw materials. European Commission”, 2023, https://single-market-economy.ec.europa.eu/sectors/ raw-materials/areas-specific-interest/critical-rawmaterials_en

21. Commission europĂ©enne, « Livre blanc sur l’intelligence artificielle : une approche europĂ©enne axĂ©e sur l’excellence et la confiance », 2020, 19.2.2020 COM(2020) 65 final.

22. Union européenne, « Charte des droits fondamentaux ».

23. Max Liboiron, Pollution is colonialism, Duke University Press, 2021.

24. Shanon Dosemagen, Emelia Williams, Katie Hoeberling & Evelin Heidel, “Environmental justice, climate justice, and the space of digital rights”, Open Environmental Data Project and Open Climate, 2022.

25. Ibid, Association for Progressive Communication, « Extractivism, mining ».

26. Fieke Jansen, “Presenting new research climate justice x digital rights”, Green Web Foundation, 2022, https:// www.thegreenwebfoundation.org/news/presenting-newresearch-climate-justice-x-digital-rights/

Article 38

1. Juriste senior, BEUC – Bureau EuropĂ©en des Unions de Consommateurs (opinions personnelles).

2. L’article 169 du TFUE est libellĂ© comme suit: « Afin de promouvoir les intĂ©rĂȘts des consommateurs et d’assurer un niveau Ă©levĂ© de protection des consommateurs, l’Union contribue Ă  la protection de la santĂ©, de la sĂ©curitĂ© et des intĂ©rĂȘts Ă©conomiques des consommateurs ainsi qu’à la promotion de leur droit Ă  l’information, Ă  l’éducation et Ă  s’organiser afin de prĂ©server leurs intĂ©rĂȘts [
] »

3. Communication de la Commission sur la Charte des droits fondamentaux de l’Union europĂ©enne (Bruxelles, 13 septembre 2000) (voir pt 22).

4. CHARTE 4422/00, CONVENT 45 du 28 juillet 2000.

5. Par exemple, l’amendement de Lord Goldsmith QC proposant de supprimer l’article car « il est si vague qu’il n’apporte aucune restriction raisonnable aux institutions ni aucune aide aux individus pour les informer de leurs droits (
) ».

6. Par exemple, l’amendement de Ieke van den Burg proposant de reformuler l’article comme suit: « toute personne a le droit d’ĂȘtre protĂ©gĂ©e en tant que consommateur contre les risques pour la santĂ© et la sĂ©curitĂ© et a le droit de dĂ©fendre ses intĂ©rĂȘts individuellement et collectivement ».

7. I. Benöhr, EU consumer law and human rights, Oxford Studies in European Law, 2014, 272 p.

8. COM(2018) 185 final 2018/0089 (COD), 11 avril 2018.

9. COM(2018) 185 final 2018/0090 (COD), 11 avril 2018

10. BEUC, Regulating AI to protect the consumer, BEUC-X-2021-088, 7 October 2021.

11. I. Benöhr, EU consumer law and human rights, Oxford Studies in European Law, 2014, 272 p.

12. Agence des droits fondamentaux de l’Union europĂ©enne, La Charte dix ans aprĂšs : comment libĂ©rer pleinement son potentiel, 2020, p.14 (https://fra.europa.eu/sites/default/ files/fra_uploads/fra-2020-fundamental-rights-report2020-focus_fr.pdf), nous soulignons.

13. CJUE, affaire C-12/11 Mc Donagh c/ Ryanair, 31 janvier 2013, ECLI:EU:C:2013:43.

14. CJUE, affaire C-12/11 Mc Donagh c/ Ryanair, 31 janvier 2013, cons. 63.

15. CJUE, Affaire C-28/20 Airhelp, 23 mars 2021, ECLI:EU:C:2021:226

16. RĂ©publique tchĂšque / Cour constitutionnelle / II. ÚS 78/19 ( http://fra.europa.eu/en/caselaw-reference/czechiaconstitutional-court-ii-us-7819).

17. Slovaquie / Cour régionale Preƥov / 10Co/51/2017 (http:// fra.europa.eu/en/caselaw-reference/slovakia-regionalcourt-presov-10co512017#deeplink2).

18. I. Benöhr, EU consumer law and human rights, Oxford Studies in European Law, 2014, 272 p.

Crédits

Éditeur

Alexandra Giannopoulou

avec la contribution de Nikita Kekana et César Manso-Sayao

Auteurs

Anna Mazgal, Wikimedia Europe

Alexandre Biard, BEUC - The European Consumer Organisation

Divij Joshi, University College London

Fieke Jansen, Critical Infrastructure Lab, University of Amsterdam/Green Screen coalition Climate Justice and Digital Rights

Giulia Gentile, LSE Law School

Ioannis Kouvakas, Privacy International / Vrije Universiteit Brussels (VUB)

James Farrar, Worker Info Exchange

Jens Theilen, Helmut-Schmidt-University Hamburg

Melanie Fink, Leiden Law School

Nadia Benaissa, Bits of freedom

Nawal Mustafa, Public Interest Litigation Project (PILP)

Romain Lanneau, Statewatch

Raphaële Xenidis, SciencesPo Law School

Direction artistique

DFF & Justina Leston

Identité visuelle

Nicole Snaiderman

Illustration de couverture recto et verso

Nicole Snaiderman

Illustrations d’essais

Yorgos Konstantinou

Design graphique

Justina Leston

Notice légale

La sĂ©rie d’essais “Les droits numĂ©riques sont des droits garantis par la Charte” est publiĂ©e sous une licence CC BY-SA 4.0, permettant une utilisation libre avec mention des auteurs. Vous pouvez tĂ©lĂ©charger le PDF et suivre les lignes directrices suivantes : donner le crĂ©dit appropriĂ©, fournir un lien vers la licence, indiquer toute modification apportĂ©e et partager vos contributions sous la mĂȘme licence. Évitez d’impliquer l’approbation du donneur de licence et abstenez-vous d’ajouter des restrictions juridiques ou technologiques.

Pour en savoir plus: https://creativecommons.org/licenses/by-sa/4.0/deed.fr

Communications

Barbara Okeyo

Ekaterina Balueva

Traduction

Marie-Céline Pallas

Edition de texte

SincĂšre de Talla

FinancĂ© par l’Union europĂ©enne. Les points de vue et opinions exprimĂ©s n’engagent que leur(s) auteur(s) et ne reflĂštent pas nĂ©cessairement ceux de l’Union europĂ©enne ou de CERV. Ni l’Union europĂ©enne ni l’autoritĂ© responsable ne peuvent en ĂȘtre tenues pour responsables.

Turn static files into dynamic content formats.

Create a flipbook