Ăditorial
par Alexandra Giannopoulou
Un nombre considĂ©rable dâinteractions et de relations quotidiennes entre les individus, les entitĂ©s publiques et commerciales se sont dĂ©localisĂ©es en ligne, dĂ©sormais relayĂ©es par des infrastructures technologiques numĂ©riques. Ces nouvelles formes dâinteraction et dâengagement mutuel dans le domaine numĂ©rique Ă©mergent Ă une Ă©chelle et Ă un rythme sans prĂ©cĂ©dent. Au sein des recherches qui explorent, analysent et critiquent les effets nĂ©gatifs des systĂšmes informationnels et technologiques sur les individus, Ă©merge Ă©galement une discussion sur les injustices et inĂ©galitĂ©s systĂ©miques. Ainsi, des points de vue et des propositions alternatives visant Ă contrer ces prĂ©judices systĂ©miques, provoquĂ©s ou amplifiĂ©s par les systĂšmes technologiques et informationnels, gagnent en importance dans les espaces de dĂ©bats politiques, universitaires, communautaires et de la sociĂ©tĂ© civile contemporaines.
Cet ensemble dâessais explore les interrelations entre la numĂ©risation, la datafication et les droits fondamentaux. Cette transformation numĂ©rique offre, selon la Commission europĂ©enne, « de nouvelles possibilitĂ©s de rendre les droits fondamentaux plus effectifs, mais elle sâaccompagne aussi de dĂ©fis »1. Ă travers ces essais, nous invitons le lecteur Ă se pencher sur lâimportance de la protection des droits fondamentaux dans la sphĂšre numĂ©rique, ainsi que sur le rĂŽle crucial de la Charte des droits fondamentaux de lâUnion europĂ©enne (Charte de lâUE) dans la lutte contre les oppressions, les prĂ©judices et les injustices systĂ©miques qui semblent encodĂ©s dans les technologies existantes. Le potentiel Ă©mancipateur de la Charte de lâUE en tant que moyen de rĂ©sistance aux biais technologiques et Ă lâoppression est au cĆur de ces essais.
La Charte de lâUnion europĂ©enne, rĂ©digĂ©e au tournant du millĂ©naire, constitue un jalon important dans instruments juridiques contraignant qui dĂ©finissent le cadre europĂ©en des droits de lâhomme. Elle vient sâajouter Ă dâautres instruments internationaux et europĂ©ens relatifs aux droits de lâhomme, tels que la DĂ©claration universelle des droits de lâhomme (DUDH), la Convention europĂ©enne des droits de lâhomme (CEDH), une sĂ©rie dâinstruments spĂ©cifiques Ă certains domaines, ainsi que les constitutions nationales et les « dĂ©clarations des droits ».
La Charte est contraignante pour les institutions de lâUE ainsi que pour les Ătats membres lorsquâils agissent dans le cadre de la lĂ©gislation de lâUE. Elle peut donc sâassurer de combler les lacunes existantes dans les cadres nationaux et internationaux en matiĂšre de protection des droits de lâhomme et offrir un niveau de protection accru. Avec lâentrĂ©e en vigueur du TraitĂ© de Lisbonne, la Charte est devenue un instrument juridiquement contraignant, ayant la mĂȘme valeur juridique que les TraitĂ©s de lâUE. La Charte se profile dĂ©sormais comme la principale voie de recours en matiĂšre de droits fondamentaux, car elle peut offrir aux individus des possibilitĂ©s tangibles de faire respecter directement les droits fondamentaux quâelle consacre devant les tribunaux, y compris dans le cadre de la rĂ©glementation des relations entre acteurs privĂ©s.
Toutefois, dans la pratique, il a Ă©tĂ© dĂ©montrĂ© que « les rĂ©fĂ©rences Ă la Charte sont formelles, dĂ©claratoires, voire dĂ©coratives et combinĂ©es avec des rĂ©fĂ©rences Ă la CEDH, sans distinction »2. Il apparaĂźt donc clairement que le potentiel de nombreuses dispositions de la Charte nâa pas encore Ă©tĂ© exploitĂ©.
La multitude de droits et de libertĂ©s consacrĂ©s par la Charte des droits fondamentaux lui confĂšre lâimage dâun instrument moderne de protection des droits de lâhomme Ă lâĂšre du numĂ©rique. Câest le seul instrument juridique international contraignant qui mentionne clairement le droit Ă la protection des donnĂ©es, distinct du droit au respect de la vie privĂ©e. Comme en tĂ©moigne la jurisprudence et les commentaires abondants, les articles 7 et 8 de la Charte de lâUnion europĂ©enne apparaissent comme des droits fondamentaux autour desquels sâarticulent la plupart des affaires relatives aux droits numĂ©riques. Cependant, les essais inclus dans cette sĂ©rie dĂ©montrent quâil existe de nombreux autres droits et libertĂ©s de la Charte qui sont ou peuvent servir de base solide pour les contentieux en matiĂšre de droits numĂ©riques.
Le potentiel de la Charte pour la protection des droits numĂ©riques sâĂ©tend au-delĂ des droits fondamentaux classiques pour englober une sĂ©rie dâautres droits et libertĂ©s qui â face Ă la numĂ©risation et Ă la datafication continues des tĂąches et de la vie quotidiennes â sont susceptibles de revĂȘtir une importance et une utilitĂ© croissantes dans la sphĂšre numĂ©rique. Ces droits et libertĂ©s, au mĂȘme titre que tous les droits de lâhomme, sont conçus pour dĂ©fendre les valeurs de lâUnion europĂ©enne et lâĂtat de droit et, in fine, pour protĂ©ger les individus et les groupes contre lâinjustice, le traitement discriminatoire et la marginalisation. Cependant, dans le domaine numĂ©rique, ces abus sont de plus en plus frĂ©quents, notamment en raison de lâutilisation de lâintelligence artificielle (IA), de lâaccĂšs aux biens et services numĂ©riques et leur fourniture (parfois sĂ©lective), de lâĂ©mergence et lâexpansion de modĂšles commerciaux et de revenus basĂ©s sur lâextraction de donnĂ©es et de la dĂ©pendance croissante des entitĂ©s publiques et privĂ©es Ă lâĂ©gard des processus de prise de dĂ©cision basĂ©s sur la technologie.
De nombreux cas analysĂ©s dans cette sĂ©rie dâessais illustrent des prĂ©judices directs et soulignent lâimpact des violations des droits fondamentaux causĂ©es par des systĂšmes technosociaux invasifs. La compilation dâarticles visant Ă mettre en Ă©vidence le lien entre les droits fondamentaux et les droits numĂ©riques est en fin de compte une tentative dâaborder lâhĂ©ritage du pouvoir dans le contexte des technologies numĂ©riques, ainsi quâune opportunitĂ© de fournir une critique sur la valeur des protections des droits fondamentaux dans certains contextes ou environnements.
Abordant des questions Ă forte charge idĂ©ologique, ces essais ne peuvent prĂ©tendre Ă lâuniversalitĂ©, mais tentent plutĂŽt dâidentifier des domaines clĂ©s oĂč lâimpact des technologies numĂ©riques sur les droits fondamentaux est ou peut rapidement devenir visible. Nous avons invitĂ© des auteurs de divers horizons juridiques, politiques, universitaires et autres, qui explorent des questions telles que la numĂ©risation des procĂ©dures dâasile, la libertĂ© dâexpression et la modĂ©ration de contenu, lâĂ©galitĂ© et la non-discrimination algorithmique, la protection sociale et les services publics numĂ©riques en gĂ©nĂ©ral Ă lâĂšre du numĂ©rique, la nĂ©gociation collective et les travailleurs des plateformes. Les essais inclus dans cette sĂ©rie prĂ©sentent un Ă©ventail de discours juridiques, sociaux et technologiques, tout en partageant tous une approche commune visant Ă consolider la pensĂ©e critique qui soutient lâimportance des protections des droits fondamentaux dans les systĂšmes de technologies numĂ©riques. Nous espĂ©rons que ce numĂ©ro spĂ©cial inspirera une rĂ©flexion plus approfondie, plus critique et plus nuancĂ©e sur les droits fondamentaux dans le domaine numĂ©rique, Ă mesure que nous nous efforçons dâobtenir le respect de la protection des droits numĂ©riques.
1 Communication de la Commission au Parlement europĂ©en, au Conseil, au ComitĂ© Ă©conomique et social europĂ©en et au ComitĂ© des rĂ©gions, « StratĂ©gie visant Ă renforcer lâapplication de la Charte des droits fondamentaux dans lâUnion europĂ©enne », COM(2020) 711 final, 2 dĂ©cembre 2020, p. 2.
2 J. Adams-Prassl & M. Bobek, « Introduction » in M. Bobek & J. Adams-Prassl (dir.), The EU Charter of Fundamental Rights in the Member States, Hart Publishing, 2022, p. 7.
Anna Mazgal, Directrice exécutive de Wikimédia Europe
Introduction
Lâarticle 11 sur la libertĂ© dâexpression et dâinformation est ancrĂ© dans le paradigme europĂ©en du discours ouvert et libre qui privilĂ©gie la prise de risque en permettant aux individus de communiquer librement, voire de franchir les limites de lâacceptable sans ĂȘtre soumis Ă une censure prĂ©ventive. Ce paradigme repose Ă©galement sur la conviction selon laquelle, dans lâexercice de ce droit, les citoyens peuvent avoir besoin dâune protection spĂ©ciale contre les tentatives de lâĂtat de contrĂŽler la dissidence. Le paysage de la communication en ligne est principalement constituĂ© de plateformes qui servent dâintermĂ©diaires. Cela reprĂ©sente Ă la fois un dĂ©fi pour lâexercice de notre libertĂ© dâexpression et un besoin dâĂ©tendre la protection de la libertĂ© dâexpression aux entreprises et Ă leurs machines algorithmiques de modĂ©ration des propos. Cet exercice sâaccompagne de compromis.
En Europe, lâĂ©change dâinformations accĂ©lĂ©rĂ© par Internet pose un dĂ©fi Ă la fois aux utilisateurs et aux lĂ©gislateurs en raison de la nĂ©cessitĂ© dâappliquer un Ă©quilibre proportionnĂ© et appropriĂ© de tous les droits susceptibles dâĂȘtre affectĂ©s par la modĂ©ration de lâinformation en ligne. MalgrĂ© que les lĂ©gislateurs aient dĂ©veloppĂ© des cadres juridiques visant Ă Ă©liminer les discours illĂ©gaux, les utilisateurs, en particulier les communautĂ©s racisĂ©es et queers, sont les plus touchĂ©s. Ces discours prĂ©judiciables deviennent souvent eux-mĂȘmes une forme de censure, car ils reprĂ©sentent une forme de suppression au moyen dâun musellement violent1. Pour ces raisons, il est nĂ©cessaire dâassurer une protection solide des formes lĂ©gales dâexpression, non seulement Ă travers la suppression dâinterfĂ©rence, mais Ă©galement par le biais dâobligations positives de la part de lâĂtat2
La quantitĂ© dâinformations produites, divulguĂ©es et Ă©changĂ©es Ă travers les plateformes dâintermĂ©diation dĂ©passe de loin la capacitĂ© humaine de traitement. Les lĂ©gislateurs europĂ©ens ont donc choisi de confier aux intermĂ©diaires dâInternet, ou plateformes, le soin de dĂ©cider au jour le jour de ce qui est autorisĂ© ou pas dans le cadre de leurs services. Câest ainsi quâun systĂšme privatisĂ© de contrĂŽle de la libertĂ© dâexpression en ligne a vu le jour.
Le code fait loi, tout comme les conditions dâutilisation
Un examen rapide de la lĂ©gislation qui a vu le jour dans lâUE au cours des cinq derniĂšres annĂ©es dĂ©montre clairement que les conditions gĂ©nĂ©rales dâutilisation (CGU) des plateformes en ligne sont devenues essentielles dans la mise en place de cadres de gouvernance relatifs Ă la rĂ©glementation de la libertĂ© dâexpression. Ces obligations contractuelles entre une plateforme intermĂ©diaires et ses utilisateurs, notamment lorsquâelles Ă©manent de contraintes juridiques, crĂ©ent un Ă©cosystĂšme dâapplication privĂ©e en ligne.3 Les plateformes doivent par exemple intĂ©grer dans leurs CGU les exceptions au droit dâauteur mentionnĂ©es dans la Directive sur le droit dâauteur dans le marchĂ© unique numĂ©rique (Directive sur le droit dâauteur). Lâarticle 17 confĂšre Ă un utilisateur le droit dâutiliser une Ćuvre protĂ©gĂ©e par le droit dâauteur dâune tierce personne ou dây faire rĂ©fĂ©rence, par exemple Ă des fins de citation, de critique, de revue, de caricature, de parodie ou de pastiche. ParallĂšlement, ce mĂȘme article soumet Ă une obligation de modĂ©ration du contenu en vertu de laquelle les plateformes peuvent recourir Ă la modĂ©ration automatisĂ©e du contenu chargĂ© afin de faire respecter la protection des droits dâauteur. Cette obligation transforme les CGU en un cadre propice Ă un Ă©quilibre entre les droits contradictoires dâun titulaire de droits et dâun utilisateur bĂ©nĂ©ficiant dâune exception au droit dâauteur, garantissant ainsi la libertĂ© dâexpression et lâĂ©limination des contenus illĂ©gaux. De mĂȘme, le rĂšglement relatif Ă la lutte contre la diffusion des contenus Ă caractĂšre terroriste en ligne (TERREG) contraint les plateformes Ă inclure dans leurs CGU des dispositions relatives Ă lâutilisation abusive de leurs services par la diffusion de propagande terroriste (article 5 (1)). Cela signifie que la mise en Ćuvre des dispositions lĂ©gales dans leurs systĂšmes internes et leur application sont laissĂ©es Ă lâapprĂ©ciation des plateformes. Bien que cela soit logique du point de vue de la libertĂ© dâentreprise, le pouvoir de dĂ©cision en matiĂšre de qualification des contenus terroristes incombe alors entiĂšrement Ă une entreprise privĂ©e.
En vue de limiter les risques de dĂ©bordement de la surveillance des contenus, les lĂ©gislateurs obligent les plateformes Ă appliquer des « mesures spĂ©cifiques » en tenant compte des droits fondamentaux des utilisateurs en matiĂšre de libertĂ© dâexpression et dâinformation (article 5 (3) (c)). Cette pratique dĂ©coule dâun cadre normatif spĂ©cifique qui souligne lâimportance de garantir le respect des droits fondamentaux au sein des grandes plateformes privĂ©es : au niveau mondial, les Principes directeurs relatifs aux entreprises et aux droits de lâhomme adoptent de tels objectifs. Ces principes sont directement mentionnĂ©s dans le considĂ©rant 12 dâune autre rĂ©glementation europĂ©enne de rĂ©fĂ©rence, la lĂ©gislation sur les services numĂ©riques (DSA).
Lâimpact de ces cadres normatifs est difficile Ă estimer en lâabsence de recherches fondĂ©es sur des donnĂ©es probantes.
La DSA apparaĂźt comme un renforcement remarquable de la libertĂ© dâexpression, car elle stipule que le systĂšme interne obligatoire de traitement des plaintes peut ĂȘtre utilisĂ© non seulement pour des plaintes contre des dĂ©cisions spĂ©cifiques dâune plateforme, mais aussi contre des violations des droits fondamentaux.4
LâĆil de Sauron
Quâexige-t-on exactement des plateformes en ce qui concerne lâĂ©limination des contenus indĂ©sirables ? Dans le cas de TERREG et de la Directive sur le droit dâauteur, lâaccent est mis sur la garantie de lâindisponibilitĂ© du matĂ©riel illĂ©gal. Ces deux actes juridiques prĂ©voient un ensemble de mesures visant Ă garantir le retrait ou le blocage des contenus illĂ©gaux. Il est Ă noter que tout au long du processus lĂ©gislatif, les dispositions imposant aux plateformes dâutiliser des outils algorithmiques pour passer au crible tous les contenus Ă la recherche dâ Ă©lĂ©ments illĂ©gaux ont Ă©tĂ© considĂ©rĂ©es comme extrĂȘmement controversĂ©es dans le cadre de chacun de ces actes juridiques europĂ©ens. Dans le cas de la Directive sur le droit dâauteur, lâarticle 17 a suscitĂ© une opposition vĂ©hĂ©mente de la part de la sociĂ©tĂ© civile et un certain nombre de manifestations dans les rues. En signe de protestation, les versions espagnole, italienne et polonaise de WikipĂ©dia ont Ă©tĂ© dĂ©sactivĂ©es 5 Lâutilisation dâun logiciel pour faire correspondre les chargements avec une base de donnĂ©es de contenus illĂ©gaux (dans les cas tant des droits dâauteur que de la propagande terroriste) est semblable Ă un contrĂŽle de sĂ©curitĂ© dans un aĂ©roport : lâobjectif est de « scanner » les contenus illĂ©gaux, mais la machine dĂ©voile tous les contenus qui la traversent. Selon les opposants Ă lâintroduction de ces systĂšmes, la simple existence de tels systĂšmes les rend propices aux abus. Dans TERREG comme dans la Directive sur le droit dâauteur, le langage utilisĂ© pour ces mesures est marquĂ© par la pĂ©riphrase : alors que la Directive sur le droit dâauteur mentionne « leurs meilleurs efforts [âŠ] pour garantir lâindisponibilitĂ© dâĆuvres et autres objets protĂ©gĂ©s spĂ©cifiques », TERREG dĂ©crit des « mesures techniques » qui doivent ĂȘtre liĂ©es Ă des « mesures appropriĂ©es et efficaces [âŠ] notamment en matiĂšre de surveillance et de vĂ©rification humaines ».
Le TERREG et la Directive sur le droit dâauteur, respectivement, obligent ou permettent aux plateformes de faire recours au filtrage de contenu. Les algorithmes utilisĂ©s pour le filtrage des contenus par ces plateformes sont tous propriĂ©taires, de sorte quâil est difficile de se prononcer sur leur efficacitĂ© rĂ©elle, leur prĂ©cision et leur capacitĂ© Ă comprendre le contexte. Câest pourquoi la surveillance humaine est dâune importance capitale. Toutefois, compte tenu des pratiques connues en matiĂšre de vĂ©rification humaine du contenu par les plateformes, telles que la trĂšs courte durĂ©e des dĂ©lais dâĂ©valuation du contenu et la faible connaissance du contexte culturel et social par les modĂ©rateurs,6 il est difficile de dire si elle peut ĂȘtre effectuĂ©e de maniĂšre efficace.
Le chiffrement pourrait devenir la prochaine victime de cette approche gĂ©nĂ©ralisĂ©e qui sâapparente Ă une stratĂ©gie de gestion des risques selon laquelle il vaut mieux tout examiner pour repĂ©rer les contenus illicites en ligne. La proposition de rĂšglement Ă©tablissant des rĂšgles en vue de prĂ©venir et combattre les abus sexuels sur les enfants impose aux plateformes lâobligation dâanalyser les communications privĂ©es de tous les utilisateurs, y compris celles qui sont protĂ©gĂ©es par un chiffrement. Bien que la sĂ©curitĂ© et le bien-ĂȘtre des enfants sont dâune importance capitale, le « contrĂŽle des discussions» proposĂ© a Ă©tĂ© fortement critiquĂ© par la sociĂ©tĂ© civile, le ContrĂŽleur europĂ©en de la protection des donnĂ©es ainsi que le gouvernement allemand.7
Les plateformes interviennent dans diffĂ©rents domaines dâapplication des limitations de la libertĂ© dâexpression. Par exemple, les blocages de virement ont privĂ© Wikileaks de 95 % de ses revenus lorsque PayPal, Mastercard et Visa ont cessĂ© dâaccepter les dons, sans quâaucune procĂ©dure judiciaire nâait jamais Ă©tĂ© engagĂ©e Ă lâencontre de Wikileaks.8 Plus rĂ©cemment, le Conseil de lâUE a suspendu les licences de diffusion de Russia Today (RT) France (entre autres) dans lâensemble de lâUE, invoquant une propagande excessive et une distorsion des faits, devenues une menace pour la sĂ©curitĂ© internationale aprĂšs lâinvasion de lâUkraine par la Russie. Bien que la dĂ©cision ait Ă©tĂ© approuvĂ©e par le Tribunal de lâUnion europĂ©enne, certains experts estiment que cette mesure manquait de lĂ©gitimitĂ© et nâĂ©tait pas proportionnĂ©e, car elle ne concernait pas seulement le contenu illĂ©gal, mais aussi la capacitĂ© Ă fournir un accĂšs Ă des informations qui nâĂ©taient pas illĂ©gales.
Un Internet nouveau et propre ?
Il semble que lâeffort lĂ©gislatif conjoint pour Ă©liminer les contenus illĂ©gaux porte un coup Ă la libertĂ© dâexpression. Lâexercice du droit Ă la libertĂ© dâexpression en ligne ne peut se faire que si lâon sâexprime soi-mĂȘme. Par consĂ©quent, tout outil algorithmique qui filtre de maniĂšre prĂ©ventive notre discours en ligne au moment de son chargement constituera une violation directe de lâarticle 11 de la Charte.
Lâexercice dâĂ©quilibrage fondĂ© sur des concepts politisĂ©s tels que la sĂ©curitĂ© et la sĂ»retĂ© publiques, dâune part, et le secret dâentreprise sur les technologies propriĂ©taires, dâautre part, crĂ©e une lĂ©gislation qui est scrutĂ©e Ă travers le monde et copiĂ©e dans des rĂ©gions qui ont un bilan dĂ©sastreux en matiĂšre de protection des droits de lâhomme et des libertĂ©s. Des dĂ©cisions telles que lâinterdiction de diffusion de RT France constituent un prĂ©cĂ©dent extrĂȘmement dangereux en Europe, oĂč de nombreux Ătats membres sont confrontĂ©s Ă la montĂ©e de lâautoritarisme et au mĂ©pris de lâĂtat de droit, et oĂč de telles dĂ©cisions peuvent ĂȘtre prises Ă lâencontre des mĂ©dias â et des projets communautaires, tels que WikipĂ©dia âqui fournissent des informations vĂ©rifiĂ©es et permettent un dĂ©bat public.
Nous devons nous interroger sur lâimpact de ces mesures gĂ©nĂ©rales de prĂ©vention sur notre libertĂ© dâexpression. Il convient Ă©galement de se demander si leur unique objectif est de dĂ©barrasser Internet de toute difficultĂ©s et de toute complexitĂ©, ainsi que des sĂ©quelles passĂ©es et actuelles des injustices systĂ©miques et de lâimpĂ©rialisme europĂ©en.
La rĂ©glementation rĂ©cemment adoptĂ©e tente dâapporter des garanties dans le contexte de lâapproche gĂ©nĂ©ralisĂ©e et standardisĂ©e de la police de la parole, notamment par le biais de lignes directrices sur les mĂ©canismes de plainte et lâobligation dâinclure les droits fondamentaux dans les CGU. Les communautĂ©s racisĂ©es et queers, les immigrĂ©s et les rĂ©fugiĂ©s, ainsi que dâautres groupes victimes dâune oppression systĂ©mique, sont confrontĂ©s Ă des obstacles qui ne seront pas levĂ©s par cette rĂ©glementation. En nous contentant de ces garanties, nous risquons de reflĂ©ter une opinion plutĂŽt choquante Ă©mise par Voltaire lorsquâil Ă©crivit : « On nâa jamais prĂ©tendu Ă©clairer les cordonniers et les servantes ». Enfin, lâopacitĂ© des algorithmes et lâamplification algorithmique crĂ©ent une bulle qui renforce la dĂ©sinformation et les contenus qui divisent lâopinion publique. Ce sont les caractĂ©ristiques du modĂšle commercial basĂ© sur la surveillance, qui privilĂ©gie le droit au respect de la vie privĂ©e, au dĂ©triment de notre libertĂ© dâexpression. Ni les actes juridiques susmentionnĂ©s, ni aucun autre â y compris la lĂ©gislation sur les marchĂ©s numĂ©riques â ne sâattaque Ă la cause des problĂšmes actuels en matiĂšre de libertĂ© dâexpression .Face Ă lâinaction de la lĂ©gislation europĂ©enne,, il convient de se demander si lâintroduction des droits de lâhomme dans les relations entre entreprises et clients ne lĂ©gitime pas au passage lâexistence dâun capitalisme de surveillance, aussi bĂ©nĂ©fiques que soient les nouvelles rĂšglementations qui contraignent les entreprises Ă respecter les droits de lâhomme.
âLa Charte se profile dĂ©sormais comme la principale voie de recours en matiĂšre de droits fondamentaux, car elle peut offrir aux individus des possibilitĂ©s tangibles de faire respecter directement les droits fondamentaux quâelle consacre devant les tribunaux, y compris dans le cadre de la rĂ©glementation des relations entre acteurs privĂ©s.â
Romain Lanneau, chercheur Ă Statewatch
Lâarticle 18 de la Charte des droits fondamentaux de lâUnion europĂ©enne (la Charte) garantit le droit dâasile, mais ne lâaccorde pas automatiquement Ă tous les demandeurs. En revanche, la Charte stipule que toute personne a droit Ă un examen de sa demande de protection internationale conformĂ©ment au droit international et au droit de lâUE.1 Ce principe est renforcĂ© par lâarticle 19 de la Charte, qui interdit strictement les expulsions collectives ainsi que le renvoi, lâexpulsion ou lâextradition de toute personne « vers un Ătat oĂč il existe un risque sĂ©rieux quâil soit soumis Ă la peine de mort, Ă la torture ou Ă dâautres peines ou traitements inhumains ou dĂ©gradants. »2
Au cours des deux derniĂšres dĂ©cennies, les procĂ©dures dâasile au sein de lâUE ont Ă©tĂ© de plus en plus imprĂ©gnĂ©es de technologies numĂ©riques. La plupart de ces Ă©volutions ont Ă©tĂ© initiĂ©es dans le but de contrĂŽler et de surveiller les demandeurs dâasile ainsi que dâempĂȘcher leur arrivĂ©e dans lâUE. Cependant, certaines initiatives de la sociĂ©tĂ© civile se sont Ă©galement efforcĂ©es dâexploiter les technologies numĂ©riques dans le but dâaider les demandeurs dâasile Ă remplir leurs demandes3 ou de les protĂ©ger contre les refoulements 4
MalgrĂ© leur importance, les droits numĂ©riques dans le contexte des procĂ©dures dâasile sont souvent nĂ©gligĂ©s par les praticiens du droit, les demandeurs dâasile eux-mĂȘmes et les acteurs de la sociĂ©tĂ© civile. Ces droits sont rarement considĂ©rĂ©s comme prioritaires, surtout lorsquâils sont confrontĂ©s Ă un risque de dĂ©tention ou dâexpulsion. Cependant, la volontĂ© des autoritĂ©s de renforcer le dĂ©ploiement et lâutilisation des technologies numĂ©riques, des donnĂ©es et de lâintelligence artificielle (IA) nâa pas faibli, et ce dans le double objectif de limiter lâentrĂ©e des demandeurs dâasile sur le territoire de lâUE et dâĂ©valuer les demandes de ceux qui en dĂ©posent une. En consĂ©quence, le droit dâasile est dĂ©sormais inextricablement liĂ© aux technologies numĂ©riques. Cet essai vise Ă explorer la relation complexe entre ces deux concepts et Ă examiner comment les droits numĂ©riques peuvent ĂȘtre mis Ă profit dans la protection des droits des demandeurs dâasile.
Le droit à la vie privée : Protéger les
demandeurs dâasile
contre les technologies invasives et la « pseudoscience »
Lâarticle 7 de la Charte garantit le droit au respect de la vie privĂ©e, protĂ©geant les individus contre les intrusions injustifiĂ©es, inutiles et disproportionnĂ©es dans leur vie privĂ©e.5Ce droit peut toutefois ĂȘtre restreint par les autoritĂ©s publiques conformĂ©ment au principe de proportionnalitĂ© Ă©noncĂ© Ă lâarticle 52 6 Au sein de lâUE par exemple, tous les demandeurs de passeport sont obligĂ©s de fournir leurs empreintes digitales aux autoritĂ©s afin de permettre une identification plus prĂ©cise,7 mĂȘme sâil « nâest pas dĂ©terminant » que cette mĂ©thode « ne soit pas totalement fiable ».8
Dans le cadre des demandes dâasile, la protection de la vie privĂ©e est dâautant plus cruciale, car les autoritĂ©s sâefforcent souvent dâamasser le plus dâinformations possible sur chaque demandeur. Cette prĂ©occupation est dâautant plus importante quâil est dĂ©sormais possible dâaccĂ©der Ă dâĂ©normes volumes de donnĂ©es numĂ©riques sur les individus. La plus haute juridiction de lâUE a dâailleurs estimĂ© que la prĂ©vention de lâentrĂ©e illĂ©gale sur le territoire de lâUE constitue un objectif dâintĂ©rĂȘt gĂ©nĂ©ral.9 Cette position oblige les demandeurs dâasile Ă compromettre leur vie privĂ©e pour avoir une chance dâobtenir une protection. La question qui se pose alors est de savoir dans quelle mesure les autoritĂ©s peuvent ĂȘtre autorisĂ©es Ă fouiller dans la vie privĂ©e dâun demandeur dâasile.
La vĂ©rification de lâidentitĂ© et de la vĂ©racitĂ© des rĂ©cits des demandeurs dâasile est un Ă©lĂ©ment essentiel du processus dâĂ©valuation des demandes. Si certaines caractĂ©ristiques de lâidentitĂ© â comme les empreintes digitales â sont relativement faciles Ă vĂ©rifier, dâautres sont plus difficiles Ă confirmer, Ă lâinstar de lâĂąge et lâidentitĂ© sexuelle. Il apparaĂźt souvent impossible de valider par des documents lâaffirmation dâun demandeur dâasile selon laquelle il est mineur ou quâil sâidentifie comme homosexuel, bien que ces informations puissent avoir un impact significatif sur lâissue de sa demande, le dĂ©roulement des entretiens et son hĂ©bergement.
Les autoritĂ©s publiques ont longtemps cherchĂ© un test dĂ©finitif qui permettrait de sĂ©parer le bon grain de lâivraie. Avant lâintervention de la Cour de justice de lâUnion europĂ©enne (CJUE) en 2014, les demandeurs dâasile Ă©taient parfois soumis Ă des questions intrusives et humiliantes dans le cadre de la validation de leurs rĂ©cits. Par exemple, les autoritĂ©s nĂ©erlandaises incitaient frĂ©quemment les demandeurs dâasile Ă fournir leur propre vidĂ©o pornographique lors de leurs entretiens, comme preuve de leur prĂ©tendue orientation sexuelle. Bien quâil sâagisse officiellement dâun choix, lâavocat gĂ©nĂ©ral Sharpston
âLa Charte se profile dĂ©sormais comme la principale voie de recours en matiĂšre de droits fondamentaux, car elle peut offrir aux individus des possibilitĂ©s tangibles de faire respecter directement les droits fondamentaux quâelle consacre devant les tribunaux, y compris dans le cadre de la rĂ©glementation des relations entre acteurs privĂ©s.â
â...le droit dâasile est dĂ©sormais inextricablement liĂ© aux technologies numĂ©riques...â
a Ă©mis « de sĂ©rieux doutes quant Ă savoir si un demandeur, qui est la partie vulnĂ©rable dans la procĂ©dure de demande dâoctroi du statut de rĂ©fugiĂ©, peut rĂ©ellement ĂȘtre censĂ© avoir donnĂ© un consentement parfaitement libre et Ă©clairĂ© aux autoritĂ©s nationales dans de telles circonstances »,10 en particulier compte tenu de la dynamique de pouvoir en jeu. La CJUE a finalement aboli cette pratique dans sa dĂ©cision ABC, citant des atteintes Ă la dignitĂ© humaine (article 1 de la Charte) et au droit Ă la vie privĂ©e (article 7).11
Dans leur quĂȘte dâun moyen de distinguer les demandeurs lĂ©gitimes, les autoritĂ©s dâasile nationales ont eu recours Ă des mĂ©thodes pseudo-scientifiques, assimilables Ă la recherche dâun sĂ©rum de vĂ©ritĂ©.12 En 2018, dans le cadre de lâaffaire F c. Hongrie, lâutilisation de « tests de personnalitĂ© projectifs » pour dĂ©terminer la sexualitĂ© des demandeurs a Ă©tĂ© particuliĂšrement controversĂ©e. La CJUE a dĂ©clarĂ© quâun tel test « ne pourra ĂȘtre admis que si celui-ci est fondĂ© sur des mĂ©thodes et des principes rigoureux, reconnus par la communautĂ© scientifique internationale ».13 Dans le cadre de lâĂ©valuation de la sexualitĂ© dâun individu, les tests projectifs de personnalitĂ© sont loin de rĂ©pondre Ă ces critĂšres. La Cour a Ă©galement soulignĂ© dans sa dĂ©cision que le « consentement nâest pas nĂ©cessairement libre, Ă©tant de facto, imposĂ© sous la pression des circonstances dans lesquelles se trouvent les demandeurs de protection internationale ».14
Au cours des derniĂšres annĂ©es, des tribunaux nationaux ont Ă©tĂ© saisis de cas oĂč les autoritĂ©s chargĂ©es des demandes dâasile ont sollicitĂ© les tĂ©lĂ©phones des demandeurs15 afin dâextraire et dâanalyser des donnĂ©es stockĂ©es Ă la recherche de preuves susceptibles de soutenir les allĂ©gations des intĂ©ressĂ©s. En Allemagne, un tribunal a jugĂ© cette pratique illĂ©gale, Ă moins que des solutions moins intrusives aient Ă©tĂ© envisagĂ©es. Les juges ont clairement indiquĂ© que lâutilisation des nouvelles technologies doit ĂȘtre Ă la fois nĂ©cessaire et adaptĂ©e Ă lâobjectif visĂ©.16
Ă lâavenir, il est plausible que les autoritĂ©s aient recours Ă lâIA pour vĂ©rifier lâidentitĂ© dâune personne.17 Toutefois, les assertions selon lesquelles les technologies de vision artificielle peuvent dĂ©terminer la sexualitĂ© dâune personne Ă©voquent davantage la pseudoscience quâelles nâoffrent de garanties crĂ©dibles. La rĂ©glementation sur lâIA de lâUE, actuellement en cours de nĂ©gociation, nâaborde ni ne prĂ©vient de maniĂšre adĂ©quate contre les prĂ©judices potentiels liĂ©s Ă lâutilisation de lâIA dans le contexte des migrations 18 Par consĂ©quent, les dĂ©fis juridiques fondĂ©s sur le droit Ă la vie privĂ©e resteront cruciaux pour dĂ©finir les limites des pratiques numĂ©riques acceptables dans le cadre des procĂ©dures dâasile.
Le droit à la protection des données individuelles : Une condition préalable à un recours effectif contre la prise de décision automatisée et semi-automatisée
LâUE a mis en place un ensemble complexe de bases de donnĂ©es19 destinĂ©es Ă identifier toutes les personnes qui cherchent Ă entrer au sein de lâUE. Ces systĂšmes dâinformation sont destinĂ©s Ă aider les autoritĂ©s migratoires et policiĂšres Ă prendre des dĂ©cisions concernant les personnes, telles que leur droit dâentrĂ©e ou de sĂ©jour dans lâattente dâune dĂ©cision en matiĂšre dâasile.20 Lâarticle 8 (2) de la Charte confĂšre Ă toute personne dont les donnĂ©es ont Ă©tĂ© collectĂ©es par une autoritĂ© europĂ©enne le droit Ă la protection des donnĂ©es individuelles. Cela inclut le droit dâaccĂ©der aux donnĂ©es stockĂ©es Ă leur sujet et de rectifier ou dâeffacer toute donnĂ©e incorrecte.21
Les demandeurs dâasile sont progressivement contraints Ă livrer des informations personnelles dĂ©taillĂ©es. Dans sa version la plus rĂ©cente, le systĂšme Eurodac recueillera les images faciales et les informations personnelles de demandeurs dâasile (et dâautres ressortissants Ă©trangers) ĂągĂ©s dâĂ peine six ans.22 Les autoritĂ©s nationales collectent et Ă©changent massivement les donnĂ©es personnelles des individus, qui nâen ont gĂ©nĂ©ralement pas conscience jusquâĂ ce que ces donnĂ©es servent de base Ă une dĂ©cision concernant leur cas.
Bien que la multiplication des bases de donnĂ©es nouvelles et Ă©largies puisse faciliter la prise de dĂ©cision, elles ne sauraient constituer la seule source dâinformation pour une dĂ©cision concernant les demandes dâasile. En 2006, dans lâaffaire Espagne c. Commission, la CJUE a statuĂ© que les autoritĂ©s ne devraient pas prendre de dĂ©cisions automatisĂ©es fondĂ©es uniquement sur des informations stockĂ©es dans un systĂšme dâinformation europĂ©en. Les dĂ©cisions doivent reposer sur une Ă©valuation individuelle de la situation du demandeur, y compris une Ă©valuation des motifs lĂ©gaux de refus dâentrĂ©e.23
NĂ©anmoins, la pratique consistant Ă refuser lâentrĂ©e et Ă expulser des personnes perçues comme prĂ©sentant un risque pour la sĂ©curitĂ© nationale persiste. Les Ătats concernĂ©s manquent souvent de transparence quant aux motifs de ces dĂ©cisions. En 2020, la CJUE a prĂ©cisĂ© quâune personne a le droit dâobtenir un minimum de motifs pour le refus dâentrĂ©e dans lâUnion. Lâarticle 47 de la Charte24, qui consacre le principe de lâĂ©galitĂ© des armes, exige des autoritĂ©s nationales quâelles divulguent le nom de lâĂtat Ă lâorigine du partage des informations ayant servi de base Ă la dĂ©cision, ainsi que les motifs spĂ©cifiques de lâĂ©valuation des risques. Cette divulgation permet aux demandeurs dâexercer un recours effectif contre la dĂ©cision.25 De mĂȘme, en vertu de lâarticle 8 (2) de la Charte, le droit dâaccĂšs sert de « garde-fou permettant aux personnes concernĂ©es de poursuivre leur action »26, telles que demander la suppression ou la rectification dâaccusations injustifiĂ©es qui ont une incidence sur leur droit Ă un procĂšs Ă©quitable.
MalgrĂ© ces dispositions, lâaccĂšs Ă lâinformation est loin dâĂȘtre uniformĂ©ment respectĂ© par les Ătats membres. Bien trop souvent, les demandeurs dâasile dĂ©couvrent que des preuves « secrĂštes » sont utilisĂ©es contre eux. Dans certains cas, câest le pays duquel une personne demande lâasile qui fournit les donnĂ©es sur lesquelles les autoritĂ©s fondent leur dĂ©cision.27 MĂȘme si lâĂ©change de donnĂ©es avec un pays tiers doit respecter les normes de protection de lâUE,28 y compris lâinterdiction dâutiliser des informations obtenues sous la torture, dans la pratique, cela ne fait pas lâobjet dâun contrĂŽle adĂ©quat 29
Depuis la mise en Ćuvre du dernier rĂšglement sur les systĂšmes dâinformation30 et du rĂšglement Europol31, le risque que les autoritĂ©s nationales sâappuient sur des donnĂ©es inexactes ou illĂ©gales a Ă©tĂ© amplifiĂ©. NĂ©anmoins, les normes de protection des donnĂ©es pour les demandeurs dâasile sâavĂšrent bien moins strictes que celles dont bĂ©nĂ©ficient les citoyens de lâUE. Le rĂ©cent scandale du « Traitement des donnĂ©es personnelles pour lâanalyse des risques » (PeDRA - Processing of Personal Data for Risk Analysis), dans lequel Frontex a proposĂ© la collecte de donnĂ©es personnelles intrusives, violant de maniĂšre flagrante les droits de protection des donnĂ©es, en est un exemple32. Dans le mĂȘme temps, le ContrĂŽleur europĂ©en de la protection des donnĂ©es (CEPD) a affirmĂ© que les rĂšgles rĂ©gissant lâagence sont vagues en ce qui concerne les « conditions ou limites du partage des donnĂ©es avec dâautres agences, Ătats et pays tiers, ainsi que les recours disponibles pour les individus ».33
Comme lâa soulignĂ© le CEPD, « la vie privĂ©e et la protection des donnĂ©es font partie des droits de lâhomme trop souvent suspendus aux frontiĂšres de lâUnion europĂ©enne ».34 Cette affirmation met en Ă©vidence un thĂšme rĂ©current dans la rĂ©glementation en matiĂšre dâasile, de migration et de frontiĂšres, illustrant la tendance Ă considĂ©rer certains groupes de migrants comme des problĂšmes de sĂ©curitĂ© et ne mĂ©ritant pas les protections accordĂ©es aux citoyens ou Ă dâautres catĂ©gories de ressortissants Ă©trangers 35
Droits dâasile numĂ©riques : Un appel Ă des garanties accrues dans le contexte de la numĂ©risation des procĂ©dures
Les technologies publiques sont souvent utilisĂ©es par les autoritĂ©s dans la perspective dâamĂ©liorer lâefficacitĂ© et dâattĂ©nuer ou dâĂ©liminer les biais dans la prise de dĂ©cision humaine. Cependant, des Ă©tudes sur lâimpact de ces technologies montrent souvent des effets contraires.36 Les questions de discrimination et de racisme persistent, mais elles sâenchevĂȘtrent dans la complexitĂ© des systĂšmes techniques. Il est donc de plus en plus difficile de dĂ©terminer quand et comment se produisent les violations des droits.
Les nĂ©gociations lĂ©gislatives en cours au sein de lâUE visent Ă Ă©tendre lâutilisation des technologies numĂ©riques dans les procĂ©dures dâasile et de migration. NĂ©anmoins, ces nĂ©gociations ouvrent Ă©galement des perspectives de renforcement de la protection de la vie privĂ©e. La proposition de rĂšglement relatif Ă lâexamen des demandes dâasile pourrait permettre de renforcer la protection du droit Ă la vie privĂ©e des demandeurs dâasile. Cet objectif peut ĂȘtre atteint grĂące Ă lâinclusion dâun mĂ©canisme indĂ©pendant conçu pour contrĂŽler la protection des droits fondamentaux des personnes lors de leur identification par les autoritĂ©s frontaliĂšres. Toutefois, ce rĂšglement doit encore ĂȘtre approuvĂ©, et il relĂšvera en fin de compte de la compĂ©tence de lâAgence des droits fondamentaux et des Ătats membres dans le cadre de leurs juridictions respectives, afin de clarifier la procĂ©dure de ce nouveau mĂ©canisme.37
Dans les annĂ©es Ă venir, la numĂ©risation des procĂ©dures dâasile et dâimmigration devrait sâaccentuer. Il est donc primordial de renforcer la comprĂ©hension de la vie privĂ©e, de la protection des donnĂ©es et des autres droits numĂ©riques parmi les demandeurs dâasile, les migrants et les activistes de la migration, les professionnels du droit et les organisations non gouvernementales.
Jens Theilen, Université Helmut Schmidt, Hambourg
Inégalités numériques et historiques
Dans son livre Peau noire, masques blancs, le philosophe et rĂ©volutionnaire anticolonialiste Frantz Fanon dĂ©crit ce quâil appelle le « regard blanc » (« white gaze ») et ses implications: « Car le Noir nâa plus Ă ĂȘtre noir, mais Ă lâĂȘtre en face du Blanc. [âŠ] La connaissance du corps est une activitĂ© uniquement nĂ©gatrice. Câest une connaissance en troisiĂšme personne. »1 Plus dâun demi-siĂšcle plus tard, le rĂ©cit de Fanon trouve un Ă©cho Ă©trange dans les expĂ©riences de Joy Buolamwini, chercheuse noire au MIT Media Lab. Alors quâelle travaillait sur un projet qui consistait Ă projeter des masques numĂ©riques sur son reflet, elle sâest rendu compte que la technologie de reconnaissance faciale quâelle utilisait ne pouvait pas dĂ©tecter suffisamment les contours de son visage Ă moins quâelle ne porte un masque blanc. La juxtaposition par Fanon de la peau noire et des masques blancs dans le titre de son livre prend ainsi un sens littĂ©ral inattendu. Buolamwini a appelĂ© ce phĂ©nomĂšne le « regard codĂ© » (« coded gaze »): une forme de biais algorithmique aux effets discriminatoires. On en observe un exemple dans lâutilisation des logiciels de reconnaissance faciale par les forces de lâordre, oĂč une identification erronĂ©e peut entraĂźner une surveillance et des arrestations accrues.2 Dans une publication ultĂ©rieure en collaboration avec Timnit Gebru, Buolamwini a analysĂ© trois classificateurs commerciaux de genre. Lâanalyse a rĂ©vĂ©lĂ© que « les sujets masculins Ă©taient classĂ©s avec plus de prĂ©cision que les sujets fĂ©minins », que « les sujets Ă la peau claire Ă©taient classĂ©s avec plus de prĂ©cision que les sujets Ă la peau foncĂ©e » et que « tous les classificateurs avaient les pires performances pour les sujets fĂ©minins Ă la peau foncĂ©es ».3
Le parallĂšle entre le concept de « regard blanc » de Fanon et celui de « regard codĂ© » de Buolamwini montrent clairement que les structures oppressives telles que le racisme et le (cis)sexisme restent centrales dans les environnements numĂ©riques. Internet nâa pas instaurĂ© un espace utopique exempt dâinĂ©galitĂ©s, et il serait illusoire de placer nos espoirs dans la technologie en tant que solution facile aux problĂšmes sociĂ©taux. Ă lâinverse, il nâest pas non plus judicieux de considĂ©rer les inĂ©galitĂ©s numĂ©riques comme des problĂšmes entiĂšrement nouveaux, apparus uniquement avec les avancĂ©es technologiques. Elles sont en rĂ©alitĂ© enracinĂ©es dans des pratiques historiques de surveillance et de traitement des donnĂ©es qui ont longtemps Ă©tĂ© utilisĂ©es comme outils dâesclavage, de colonialisme, de patriarcat et dâautres formes de domination. Comme lâa dit Simone Browne, spĂ©cialiste de la surveillance: « La surveillance nâest pas une nouveautĂ© pour les Noirs. Câest le fait de lâantiblackness » ». Elle met en garde contre le fait de considĂ©rer la surveillance comme « un phĂ©nomĂšne rĂ©cent apparu avec les nouvelles technologies telles que la reconnaissance faciale automatisĂ©e ou les vĂ©hicules autonomes sans conducteur (ou les drones) », et affirme quâelle est continue, permanente et profondĂ©ment ancrĂ©e dans le racisme, lâantiblackness et dâautres pratiques, performances et politiques oppressives.4 Les inĂ©galitĂ©s numĂ©riques ne sont que la continuitĂ© des inĂ©galitĂ©s historiques.
La promesse dâĂ©galitĂ©
Face aux inĂ©galitĂ©s sous toutes ses formes, le droit fait la promesse dâĂ©galitĂ©. Lâarticle 20 de la Charte des droits fondamentaux de lâUnion europĂ©enne (UE) (« la Charte ») exprime cette promesse de façon concise: « Toutes les personnes sont Ă©gales devant la loi ». Cette formulation trĂšs gĂ©nĂ©rale prend une forme plus concrĂšte dans la clause de non-discrimination de lâarticle 21 (ainsi que dans divers actes de droit dĂ©rivĂ©), qui interdit toute discrimination fondĂ©e sur une longue liste, non limitative, de motifs, dont le sexe, la race, la religion, le handicap, lâĂąge ou lâorientation sexuelle. La nĂ©cessitĂ© de telles listes montre clairement que si lâĂ©galitĂ© et la non-discrimination sont aujourdâhui largement acceptĂ©es comme des idĂ©aux abstraits, dans la pratique, leur promesse nâest toujours pas tenue. Un nombre dĂ©courageant dâexemples atteste que cela vaut pour les contextes numĂ©riques et lâutilisation des nouvelles technologies: la politique prĂ©dictive qui cible de maniĂšre disproportionnĂ©e les personnes de couleur et les populations dĂ©favorisĂ©es; les discours de haine sur les rĂ©seaux sociaux visant les personnes queers, les femmes, et en particulier les femmes transgenres et les femmes de couleur; la discrimination des femmes sur le marchĂ© du travail basĂ©e sur des dĂ©cisions algorithmiques; les stĂ©rĂ©otypes racistes et sexistes reflĂ©tĂ©s dans les rĂ©sultats des moteurs de recherche en ligne; ainsi que bien dâautres exemples.5
Le dĂ©calage entre lâidĂ©al et la rĂ©alitĂ© met en lumiĂšre des possibilitĂ©s dâamĂ©lioration: nous pouvons utiliser la promesse dâĂ©galitĂ© pour lutter contre les inĂ©galitĂ©s, y compris leurs manifestations dans le domaine numĂ©rique. Ă cet Ă©gard, les clauses dâĂ©galitĂ© et de
â...les inĂ©galitĂ©s (sont) enracinĂ©es dans des pratiques historiques de surveillance et de traitement des donnĂ©es qui ont longtemps Ă©tĂ© utilisĂ©es comme outils dâesclavage, de colonialisme, de patriarcat et dâautres formes de domination...â
non-discrimination de la lĂ©gislation europĂ©enne recĂšlent un potentiel inexploitĂ© considĂ©rable, dâautant plus quâelles sâappliquent aussi bien aux acteurs privĂ©s quâaux organismes publics. Depuis toujours, les droits fondamentaux et les droits de lâhomme sont dirigĂ©s contre lâĂtat, mais ne contraignent pas â du moins pas directement â les actions des acteurs privĂ©s.6 Cependant, dans la conjoncture actuelle de capitalisme de surveillance7, le pouvoir de gĂ©nĂ©rer et de maintenir les inĂ©galitĂ©s numĂ©riques nâappartient plus seulement Ă lâĂtat, mais aussi Ă des acteurs privĂ©s tels que les entreprises multinationales: les entreprises qui proposent et utilisent des logiciels gĂ©nĂ©riques de reconnaissance faciale, qui gĂšrent les plateformes de mĂ©dias sociaux et les moteurs de recherche et qui dĂ©terminent qui peut ĂȘtre banni ou non pour discours haineux, et quels algorithmes sont utilisĂ©s pour gĂ©nĂ©rer des rĂ©sultats de recherche, et ainsi de suite. Le droit europĂ©en diffĂšre du droit international des droits de lâHomme en ce quâil oblige ces acteurs privĂ©s Ă respecter la promesse dâĂ©galitĂ©, au moins dans certains cas.8
Est-ce que « toutes les personnes » sont égales devant la loi ?
Le droit nâest cependant pas une panacĂ©e, et cette promesse dâĂ©galitĂ© peut ĂȘtre indĂ©finiment reportĂ©e pour certains. Lâune des critiques frĂ©quemment formulĂ©es Ă lâencontre de la lĂ©gislation sur la non-discrimination est quâelle tend Ă considĂ©rer les motifs de discrimination, tels que le genre et la race, comme des catĂ©gories distinctes et homogĂšnes.9 Ă lâinverse, lâutilisation de lâintersectionnalitĂ© comme cadre de rĂ©fĂ©rence illustre la maniĂšre dont les systĂšmes dâoppression tels que le racisme et le (cis-)sexisme sâimbriquent et ont un impact sur diffĂ©rentes personnes de diffĂ©rentes maniĂšres.10 Ă titre dâexemple, comme indiquĂ© prĂ©cĂ©demment, lâanalyse de Buolamwini et Gebru sur les classificateurs commerciaux de genre a non seulement rĂ©vĂ©lĂ© une diminution de la prĂ©cision en fonction de la race et du genre, mais a Ă©galement rĂ©vĂ©lĂ© que les rĂ©sultats Ă©taient particuliĂšrement mauvais pour les femmes de couleur. Les algorithmes peuvent Ă©galement intĂ©grer des reprĂ©sentations culturelles et des stĂ©rĂ©otypes connus spĂ©cifiquement pour les femmes noires ou Ă dâautres femmes de couleur. Un exemple flagrant en est lâancien cas des recherches Google sur les « filles noires », oĂč les premiers rĂ©sultats affichaient majoritairement du contenu pornographique. Ce nâest quâaprĂšs une pression publique soutenue que des changements ont Ă©tĂ© apportĂ©s.11
MalgrĂ© une prise de conscience croissante de lâimportance de lâanalyse intersectionnelle, un rapport rĂ©cent du Center for Intersectional Justice a rĂ©vĂ©lĂ© que « les organes juridiques europĂ©ens ne sont pas encore suffisamment outillĂ©s pour traiter efficacement les cas de discrimination intersectionnelle ».12 Des progrĂšs considĂ©rables en la matiĂšre seraient nĂ©cessaires pour combattre les inĂ©galitĂ©s sans nĂ©gliger les plus vulnĂ©rables. Comme le dit Aisha Kadiri, « la prise en compte du type unique de biais auquel les personnes concernĂ©es sont confrontĂ©es exige la reconnaissance de lâintersectionnalitĂ© dĂšs le dĂ©part ».13 Bien que la doctrine juridique la considĂšre comme subsidiaire par rapport Ă des clauses de non-discrimination plus spĂ©cifiques, la promesse dâĂ©galitĂ© pour « toutes les personnes » inscrite dans lâarticle 20 de la Charte devrait servir Ă rappeler que la discrimination ne peut ĂȘtre cloisonnĂ©e en motifs de discrimination distincts, mais quâelle doit ĂȘtre apprĂ©hendĂ©e de maniĂšre holistique.
Il nây a pas de solution miracle
Adopter une approche intersectionnelle pour lutter contre les inĂ©galitĂ©s numĂ©riques implique Ă©galement de de sâinterroger sur les bĂ©nĂ©ficiaires et les victimes du dĂ©ploiement de nouvelles technologies. Ă titre exemple, il y a quelques annĂ©es, la principale sociĂ©tĂ© de transport public de Berlin a utilisĂ© la classification automatisĂ©e du genre sur certains de ses distributeurs de billets pour accorder une rĂ©duction aux femmes Ă lâoccasion de la JournĂ©e internationale de la femme. Ce qui semble Ă premiĂšre vue ĂȘtre un projet bĂ©nin visant Ă rĂ©duire lĂ©gĂšrement lâĂ©cart de rĂ©munĂ©ration, sâavĂšre toutefois nâĂȘtre avantageux que pour certaines femmes, au dĂ©triment dâautres. Des Ă©tudes comme celle de Buolamwini et Gebru dĂ©montrent non seulement que les femmes de couleur sont davantage susceptibles de ne pas bĂ©nĂ©ficier de la rĂ©duction, mais Ă©galement la notion mĂȘme dâattribution dâun genre binaire aux individus sur la base de lâapparence physique
de leur visage est fondamentalement discriminatoire pour les transgenres. La classification automatisĂ©e du genre contribue Ă normaliser lâidĂ©e erronĂ©e que le genre est identifiable Ă partir de lâapparence physique et sâoppose donc Ă une identitĂ© de genre autodĂ©terminĂ©e â câest pourquoi de nombreuses personnes transgenres rejettent cette technologie dans son ensemble, plutĂŽt que de militer pour une rĂ©forme visant Ă la rendre plus inclusive.14 Cet exemple montre que les nouvelles technologies ne contribuent pas uniquement Ă la crĂ©ation dâinĂ©galitĂ©s entre les groupes, mais aussi, par la maniĂšre dont elles catĂ©gorisent les personnes et normalisent certains modes de pensĂ©e, aux processus mĂȘmes de genrisation et de racialisation.15
Il est important de comprendre lâampleur des problĂšmes, car cela met en Ă©vidence une question rĂ©currente en ce qui concerne les Ă©galitĂ©s numĂ©riques. Souvent, il nây a pas de solution miracle, car ces inĂ©galitĂ©s sont intimement liĂ©es Ă la technologie en question. Ce constat ne se limite pas quâaux conceptions trans-exclusionnistes du genre, mais il sâapplique aussi Ă de nombreuses formes de technologie, lorsquâelles sont considĂ©rĂ©es dans le contexte plus large de leur dĂ©veloppement, de leur utilisation et de leur institutionnalisation. Les historiens de la technologie ont dĂ©montrĂ© quâĂ maintes reprises, les nouvelles technologies nâont pas seulement servi les intĂ©rĂȘts des dĂ©tenteurs du pouvoir, mais quâelles ont Ă©tĂ© dĂ©libĂ©rĂ©ment dĂ©veloppĂ©es et utilisĂ©es pour soutenir les efforts de domination, de maintien de lâordre et de surveillance. Que ce soit par le biais de schĂ©mas de classification des genres et des races ou dâautres mĂ©thodes, les inĂ©galitĂ©s sont enracinĂ©es dans les fondements mĂȘmes des infrastructures numĂ©riques qui nous semblent aujourdâhui si familiĂšres. « Le sexisme est une caractĂ©ristique, pas un bug »,16 et « le racisme anti-Noir, que ce soit dans les rĂ©sultats de recherche ou dans les systĂšmes de surveillance, nâest pas seulement un symptĂŽme ou une consĂ©quence, mais une condition prĂ©alable Ă la fabrication de ces technologies ».17 Les bugs, les symptĂŽmes et les rĂ©sultats peuvent ĂȘtre facilement corrigĂ©s, mais les problĂšmes sont plus profonds.
Les limites des revendications en matiĂšre dâĂ©galitĂ©
Le langage de lâĂ©galitĂ© et de la non-discrimination fait courir le risque de ne se limiter quâĂ revendiquer lâinclusion et lâexactitude des rĂ©sultats, tout en ignorant le rĂŽle crucial des structures oppressives telles que le racisme et le (cis-)sexisme dans la conception mĂȘme des technologies numĂ©riques, ainsi que les contextes politiques, institutionnels et Ă©conomiques de leur utilisation. Pour reprendre lâexemple de la reconnaissance faciale, il apparaĂźt rapidement quâoutre lâobjectif commercial de son utilisation, ces systĂšmes technologiques intĂ©ressent principalement les organismes chargĂ©s de lâapplication de la loi, tels que la police et les services de contrĂŽle aux frontiĂšres. l est important de noter que ces derniers dĂ©pendent souvent de technologies privĂ©es et dâimportantes sociĂ©tĂ©s de conseil en technologie. Ces institutions sont gangrĂ©nĂ©es par le racisme et dâantiblackness ; le contrĂŽle aux frontiĂšres de lâEurope, en particulier, est fondĂ© sur des logiques coloniales violentes qui considĂšrent que la vie des Noirs nâest pas indispensable.18 Il est difficile dâapprĂ©hender des problĂšmes de ce type dans le langage juridique de lâĂ©galitĂ© et de la non-discrimination. Comme le souligne Dean Spade, juriste et activiste trans, des questions structurelles telles que les disparitĂ©s de richesse, le ciblage des sanctions pĂ©nales, les atteintes Ă lâenvironnement, lâapplication des lois relatives Ă lâimmigration et bien dâautres sont « considĂ©rĂ©es comme neutres par le principe de non-discrimination ».19 Ainsi, les revendications dâĂ©galitĂ© en droit peuvent donc lĂ©gitimer des institutions profondĂ©ment injustes, mĂȘme si des changements superficiels sont apportĂ©s au niveau des symptĂŽmes ou des rĂ©sultats. Une reconnaissance faciale plus prĂ©cise serait en effet, Ă premiĂšre vue, plus Ă©galitaire en termes de genre et de race. Cependant, dans le contexte de son utilisation par les forces de lâordre, la promesse dâĂ©galitĂ© perd son attrait.
Revenons Ă la notion de « regard blanc » de Frantz Fanon et au « regard codĂ© » de Joy Buolamwini, qui lâa revisitĂ©e. Dans ces rĂ©fĂ©rences au « regard », comme dans dâautres, la vision est liĂ©e au pouvoir â comme le dit la fĂ©ministe noire bell hooks, il y a « un pouvoir dans le regard ». Elle dĂ©veloppe la notion de « regard oppositionnel » (« oppositional gaze ») pour exprimer le pouvoir de regarder en retour de maniĂšre provocante et courageuse: « Je ne me contenterai pas de regarder fixement. Je veux que mon regard change la rĂ©alitĂ© ».20 Comment pouvons-nous transformer la rĂ©alitĂ© au moyen de revendications dâĂ©galitĂ©? Comme je lâai fait valoir plus haut, nous pouvons utiliser la promesse dâĂ©galitĂ© pour contester les inĂ©galitĂ©s, y compris leurs manifestations dans les environnements numĂ©riques. Nous devons cependant ĂȘtre conscients de ses limites. Dans le meilleur des cas, lâĂ©galitĂ© signifierait la rĂ©ciprocitĂ©, un regard mutuel basĂ© sur
âLa
promesse dâĂ©galitĂ© devant le droit ne doit pas Ă©puiser lâhorizon de notre imagination et de nos actions collectives.â
un mĂȘme pied dâĂ©galitĂ©, oĂč la noirceur ne se dĂ©finirait plus par rapport Ă la blancheur. Cependant, les revendications dâĂ©galitĂ© devant la loi nâaboutissent gĂ©nĂ©ralement pas Ă ce type de rĂ©ciprocitĂ©. Difficile de les utiliser pour remettre en question le regard dominant qui dĂ©finit dâemblĂ©e les sujets racialisĂ©s et genrĂ©s, et dont les intĂ©rĂȘts sont codĂ©s dans nos infrastructures numĂ©riques et nos nouvelles technologies. Dans de nombreux cas, nous devrions rĂ©sister Ă lâattrait de lâexactitude et de lâinclusion dans lequel lâĂ©galitĂ© se glisse si facilement, et nous concentrer sur lâopposition et le refus. Comme le disent les auteurs du Feminist Data Manifest-No: « Nous refusons de croire que convaincre des institutions injustes de nous Ă©couter est le seul moyen de faire avancer les choses. Nous nous engageons Ă co-construire notre langage et nos questions avec les communautĂ©s que nous servons afin de renforcer notre pouvoir ».21 La promesse de lâĂ©galitĂ© devant la loi ne doit pas Ă©puiser lâhorizon de notre imagination et de nos actions collectives.

RaphaĂ«le Xenidis, Professeure assistante en droit europĂ©en, Sciences Po Ăcole de droit
SĂ©rie dâarticles: Les droits numĂ©riques sont des droits fondamentaux de la Charte
Précisions
Les recherches menĂ©es dans cet article sont liĂ©es Ă un projet qui a bĂ©nĂ©ficiĂ© dâun financement du programme de recherche et dâinnovation Horizon 2020 de lâUnion europĂ©enne dans le cadre de la subvention Marie SkĆodowska-Curie n° 898937.
Introduction
Lâarticle 21 de la Charte des droits fondamentaux de lâUnion europĂ©enne (UE) (ci-aprĂšs « la Charte ») protĂšge le droit fondamental Ă la non-discrimination. Il comprend deux paragraphes : lâarticle 21 (1), une clause de non-discrimination ouverte, basĂ©e sur le modĂšle de lâarticle 14 de la Convention europĂ©enne des droits de lâhomme (CEDH), qui interdit « toute discrimination fondĂ©e notamment sur le sexe, la race, la couleur, les origines ethniques ou sociales, les caractĂ©ristiques gĂ©nĂ©tiques, la langue, la religion ou les convictions, les opinions politiques ou toute autre opinion, lâappartenance Ă une minoritĂ© nationale, la fortune, la naissance, un handicap, lâĂąge ou lâorientation sexuelle. » ; et lâarticle 21 (2), qui interdit « toute discrimination fondĂ©e sur la nationalitĂ© » « [d]ans le domaine dâapplication du traitĂ© instituant la CommunautĂ© europĂ©enne et du traitĂ© sur lâUnion europĂ©enne, et sans prĂ©judice des dispositions particuliĂšres desdits traitĂ©s ». De nombreuses recherches ont mis en lumiĂšre lâomniprĂ©sence de biais et dâinĂ©galitĂ©s dans les systĂšmes algorithmiques.1 Dans ce contexte, les protections et les garanties offertes par le droit fondamental Ă la non-discrimination sont dâune importance capitale. Le prĂ©sent article analyse la maniĂšre dont le droit Ă la non-discrimination consacrĂ© par lâarticle 21 pourrait ĂȘtre interprĂ©tĂ© et appliquĂ© dans un contexte numĂ©rique. Ă cet effet, la section 1 explore dâabord la pertinence du droit fondamental Ă la non-discrimination dans une sociĂ©tĂ© algorithmique et prĂ©sente lâexemple concret de la partialitĂ© raciale dans les logiciels de surveillance des examens utilisĂ©s par certaines universitĂ©s durant la pandĂ©mie de Covid-19. Ensuite, la section 2 met en Ă©vidence les questions dâinterprĂ©tation nĂ©es de la « transposition » du droit Ă la non-discrimination dans un contexte algorithmique. Enfin, la section 3 explique comment lâarticle 21 pourrait servir dâinstrument de prĂ©vention et de correction de la discrimination algorithmique.
1. La pertinence du droit fondamental à la nondiscrimination dans une société algorithmique
En raison du champ dâapplication de la Charte, tel quâexprimĂ© Ă lâarticle 51 paragraphe1, lâinterdiction de discrimination sâapplique aux « institutions et organes de lâUnion » ainsi quâaux « Ătats membres uniquement lorsquâils mettent en Ćuvre le droit de lâUnion ». Par consĂ©quent, il incombe Ă lâUE de sâabstenir de toute forme de discrimination fondĂ©e sur lâensemble des Ă©lĂ©ments Ă©numĂ©rĂ©s Ă lâarticle 21. Cela signifie, par exemple, que Frontex, une agence de lâUE, ne peut pas utiliser un logiciel de contrĂŽle des frontiĂšres qui discrimine les individus sur la base de facteurs tels que la couleur de la peau, lâorigine ethnique ou la langue.
Cependant, les Ătats membres ont une obligation plus limitĂ©e : la clause de non-discrimination contenue dans lâarticle 21 ne sâapplique que lorsquâil existe un « lien direct » avec la lĂ©gislation de lâUE.2 Dans le cadre du champ dâapplication matĂ©riel des quatre directives anti-discrimination de lâUE (directives 2000/43/CE, 2000/78/CE, 2004/113/CE et 2006/54/CE), les dispositions du droit dĂ©rivĂ© interdisent la discrimination fondĂ©e sur le sexe ou le genre, la race ou lâorigine ethnique, lâorientation sexuelle, le handicap, la religion ou les croyances et lâĂąge.3 Lâarticle 21 de la Charte, qui consacre le principe gĂ©nĂ©ral de lâĂ©galitĂ© de traitement, sâapplique dans le cadre spĂ©cifique dĂ©fini par ces directives.4 Toutefois, lorsque les directives ne peuvent pas, en principe, sâappliquer directement aux parties privĂ©es, la Cour de justice de lâUnion europĂ©enne (CJUE) a reconnu Ă lâarticle 21 (1) de la Charte des effets horizontaux directs.5 Ainsi, lâarticle 21 interdit aux employeurs privĂ©s au sein de lâUE de dĂ©ployer des outils de recrutement algorithmiques qui dĂ©favorisent indĂ»ment les femmes ou les candidats handicapĂ©s.
Dans les cas oĂč la situation ne relĂšve pas du champ dâapplication du droit dĂ©rivĂ© de lâUE, mais conserve un lien direct avec le droit de lâUE,6 lâarticle 21 fonctionne de maniĂšre subsidiaire.7 Par exemple, lâarticle 21 interdit Ă un Ătat membre de mettre en Ćuvre un systĂšme algorithmique discriminatoire dans le cadre du traitement de donnĂ©es Ă caractĂšre personnel, qui est rĂ©gi par le RĂšglement gĂ©nĂ©ral sur la protection des donnĂ©es de lâUE.8
Examinons un exemple concret. En 2022, une Ă©tudiante nĂ©erlandaise nommĂ©e Robin Pocornie, soutenue par le Racism and Technology Centre, a dĂ©posĂ© une plainte pour discrimination auprĂšs de lâorganisme nĂ©erlandais de promotion de lâĂ©galitĂ© et de lâinstitution nationale des droits de lâhomme, le College voor de Rechten van de Mens (lâInstitut des droits de lâhomme). Pocornie a affirmĂ© que lâutilisation par la Vrije Universiteit Amsterdam (lâUniversitĂ© libre dâAmsterdam) dâun logiciel de surveillance pour empĂȘcher la tricherie lors des examens passĂ©s Ă domicile pendant la pandĂ©mie de Covid-19 en 2020 Ă©tait discriminatoire Ă son Ă©gard en raison de sa race. Lâapplication nâa pas reconnu son visage Ă plusieurs reprises, compliquant ainsi sa participation aux examens et lui imposant un stress inutile. DâaprĂšs les preuves quâelle a recueillies, les Ă©tudiants non racisĂ©s nâont pas rencontrĂ© ce problĂšme. Son affirmation confirme les recherches universitaires montrant que les systĂšmes commerciaux de reconnaissance faciale sont nettement moins performants lorsquâils tentent dâidentifier les visages de personnes (et en particulier de femmes) Ă la peau plus foncĂ©e.9 Lorsque ces systĂšmes sont utilisĂ©s pour contrĂŽler lâaccĂšs aux ressources, aux services, aux institutions ou aux privilĂšges, leurs performances mĂ©diocres pour certains groupes dĂ©mographiques entraĂźnent des discriminations injustes.
2. Application de lâarticle 21 aux biais algorithmiques
Cette section est lâoccasion dâanalyser lâinterprĂ©tation juridique de lâarticle 21 en relation avec la partialitĂ© algorithmique. Dans le cas de lâapplication de surveillance biaisĂ©e, le systĂšme a Ă©tĂ© utilisĂ© pour surveiller les examens, qui font partie intĂ©grante des cours et permettent dâaccĂ©der Ă des opportunitĂ©s futures. ConformĂ©ment au droit europĂ©en,10 cette affaire relĂšve du champ dâapplication de la Directive 2000/43/CE relative au principe de lâĂ©galitĂ© de traitement entre les personnes sans distinction de race, qui sâĂ©tend au domaine de lâĂ©ducation.11 Le principe gĂ©nĂ©ral dâĂ©galitĂ© de traitement inscrit Ă lâarticle 21 sâapplique Ă©galement Ă ce cas, car la directive Ă©tablit le lien permettant aux Ătats membres dâĂȘtre considĂ©rĂ©s comme appliquant le droit communautaire. ConformĂ©ment Ă la dĂ©cision de la CJUE dans lâaffaire Egenberger, lâinterdiction de la discrimination est directement applicable aux entitĂ©s publiques et privĂ©es.12 Lâarticle 21 de la Charte confĂšre donc au requĂ©rant un droit directement exĂ©cutoire Ă lâĂ©galitĂ© de traitement algorithmique Ă lâencontre de la Vrije Universiteit Amsterdam (lâUniversitĂ© libre dâAmsterdam).
NĂ©anmoins, la transposition du droit fondamental Ă la non-discrimination dans le contexte des biais algorithmiques pose quelques dĂ©fis quant Ă la qualification juridique de ces biais. Par exemple, dans son jugement provisoire du 7 dĂ©cembre 2022, lâInstitut nĂ©erlandais des droits de lâhomme a mis lâaccent sur les difficultĂ©s rencontrĂ©es par Pocornie pour prĂ©senter des preuves que lâoutil de surveillance fonctionnait diffĂ©remment pour les Ă©tudiants ayant des couleurs de peau diffĂ©rentes.13 LâInstitut a soulignĂ© quâĂ©tant donnĂ© que « les registres [informatiques] nâĂ©taient pas fournis aux candidats Ă lâexamen », « la requĂ©rante [âŠ] nâavait aucune idĂ©e des notifications que le logiciel avait enregistrĂ©es dans son cas et ne pouvait donc pas les relier Ă un Ă©vĂ©nement particulier ou Ă une action (ou absence dâaction) de sa part ». Cette remarque met en Ă©vidence le dĂ©fi auquel sont confrontĂ©es les victimes de biais algorithmiques lorsquâil sâagit de faire naĂźtre un soupçon raisonnable de discrimination. Le manque dâaccĂšs Ă des informations comprĂ©hensibles sur le fonctionnement du systĂšme et lâ« atomisation » des expĂ©riences individuelles dans lâenvironnement en ligne entravent la comparaison heuristique traditionnelle qui sous-tend lâapplication de la loi sur la non-discrimination. Cependant, lâInstitut nĂ©erlandais des droits de lâhomme a analysĂ© lâexpĂ©rience de la candidate avec le logiciel de surveillance dans le contexte de la recherche existante sur les biais dans les logiciels de reconnaissance faciale afin dâĂ©tablir une prĂ©somption de discrimination. Cette prĂ©somption a dĂ©placĂ© la charge de la preuve sur le dĂ©fendeur, en lâoccurrence lâUniversitĂ© (et le fournisseur du logiciel).14
LâInstitut nĂ©erlandais des droits de lâhomme a catĂ©gorisĂ© lâaffaire comme un cas de discrimination indirecte, estimant quâil Ă©tait « possible que les algorithmes de dĂ©tection des visages [âŠ] aient, de maniĂšre pratique, une incidence plus particuliĂšrement sur les personnes ayant une couleur de peau plus foncĂ©e ». En vertu du droit dĂ©rivĂ© de lâUE, la constatation dâune discrimination indirecte aboutit Ă un test de proportionnalitĂ© ouvert, selon lequel une pratique discriminatoire prima facie peut ĂȘtre justifiĂ©e si elle rĂ©pond Ă un objectif lĂ©gitime par des moyens appropriĂ©s et nĂ©cessaires. Toutefois, du point de vue de lâarticle 21 de la Charte, la proportionnalitĂ© doit ĂȘtre Ă©valuĂ©e Ă lâaide des critĂšres Ă©noncĂ©s Ă lâarticle 52 (1). La prĂ©sente disposition stipule que « toute limitation de lâexercice des droits et libertĂ©s reconnus par la prĂ©sente Charte doit ĂȘtre prĂ©vue par la loi et respecter le contenu essentiel desdits droits et libertĂ©s », et que « des limitations ne peuvent ĂȘtre apportĂ©es que si elles sont nĂ©cessaires et rĂ©pondent effectivement Ă des objectifs dâintĂ©rĂȘt gĂ©nĂ©ral reconnus par lâUnion ou au besoin de protection des droits et libertĂ©s dâautrui ». Il en rĂ©sulte une seconde problĂ©matique liĂ©e Ă la transposition des paramĂštres du test de proportionnalitĂ© au fonctionnement dâun systĂšme algorithmique. Dans lâaffaire relative Ă la surveillance, la partie dĂ©fenderesse a soutenu que « la discrimination opĂ©rĂ©e est [âŠ] justifiĂ©e par lâintĂ©rĂȘt lĂ©gitime de prĂ©venir la fraude aux examens dans le contexte de la pandĂ©mie de [COVID-19] » et que « lâutilisation dâun logiciel de surveillance Ă©tait Ă la fois appropriĂ©e et nĂ©cessaire Ă cet Ă©gard ». Un dĂ©fendeur pourrait soutenir que la garantie de lâĂ©quitĂ© des examens et le maintien du mĂ©rite dans lâĂ©ducation sont un objectif dâintĂ©rĂȘt gĂ©nĂ©ral et que, compte tenu des circonstances, lâutilisation dâun logiciel de surveillance Ă©tait Ă la fois appropriĂ©e et nĂ©cessaire. En outre, un dĂ©fendeur pourrait affirmer que la proportionnalitĂ© stricto sensu est maintenue, car le signalement pourrait ne pas atteindre le seuil permettant de le qualifier de prĂ©judice discriminatoire, en particulier sâil ne rĂ©sulte pas en un prĂ©judice ultĂ©rieur. Ă lâinverse, lâInstitut nĂ©erlandais des droits de lâhomme, se rĂ©fĂ©rant Ă la jurisprudence de la Cour europĂ©enne des droits de lâhomme, a affirmĂ© que la signalisation constituait en soi un prĂ©judice discriminatoire et que « lâabsence allĂ©guĂ©e de consĂ©quences matĂ©riellement prĂ©judiciables dues au fait que la durĂ©e de lâexamen a Ă©tĂ© prolongĂ©e nâĂ©tait pas pertinente ».15
3. Mettre Ă profit les atouts de lâarticle 21 pour lutter contre la discrimination algorithmique
Si la section 2 a mis en lumiĂšre certains des problĂšmes rencontrĂ©s dans le traitement des biais algorithmiques sous lâangle du droit fondamental Ă la non-discrimination, lâarticle 21 de la Charte contient Ă©galement un certain nombre de dispositifs intĂ©ressants qui peuvent ĂȘtre exploitĂ©s pour interprĂ©ter la disposition de maniĂšre ciblĂ©e dans le contexte des systĂšmes algorithmiques.
PremiĂšrement, lâarticle 21 (1) fournit une liste ouverte de catĂ©gories protĂ©gĂ©es qui pourraient ĂȘtre exploitĂ©es dans le contexte de la diffĂ©renciation algorithmique systĂ©mique.16 Par exemple, lâ« origine sociale » et la « fortune » sont explicitement mentionnĂ©es Ă lâarticle 21 comme des Ă©lĂ©ments protĂ©gĂ©s, qui pourraient servir de base pour lutter contre la discrimination algorithmique fondĂ©e sur le revenu ou le profilage socio-Ă©conomique. NĂ©anmoins, cet article concerne exclusivement les situations dans lesquelles les Ătats membres appliquent le droit de lâUE, mais ces situations ne relĂšvent pas au champ dâapplication matĂ©riel des directives de non-discrimination. En effet, dans lâaffaire FOA, la CJUE a affirmĂ© que « il nây a pas lieu dâĂ©tendre le champ dâapplication de la directive 2000/78 par analogie au-delĂ des discriminations fondĂ©es sur les motifs Ă©numĂ©rĂ©s de maniĂšre exhaustive Ă lâarticle 1er de celle-ci ».17
La dimension ouverte de la clause de non-discrimination de lâarticle 21 de la Charte pourrait Ă©galement faciliter la correction des schĂ©mas complexes de discrimination algorithmique,18 un phĂ©nomĂšne dont la recherche a montrĂ© quâil Ă©tait trĂšs rĂ©pandu.19 Toutefois, la rĂ©ticence manifestĂ©e par la CJUE dans lâaffaire Parris Ă lâĂ©gard de la discrimination intersectionnelle, si elle se reflĂšte dans lâinterprĂ©tation de lâarticle 21, pourrait rĂ©duire lâefficacitĂ© de la Charte dans la lutte contre la discrimination algorithmique.20
En second lieu, en principe, lâapplication de lâarticle 21 ne nĂ©cessite pas la distinction conventionnelle entre la discrimination directe et indirecte.21 Pour les situations qui prĂ©sentent un lien direct avec le droit europĂ©en, mais qui nâentrent pas dans le champ dâapplication du droit dĂ©rivĂ© de lâUE en matiĂšre de lutte contre la discrimination, un rĂ©gime de justification unifiĂ© dĂ©coule de lâarticle 52 (1). Ătant donnĂ© la difficultĂ© de qualifier le
â...es droits fondamentaux protĂ©gĂ©s par la Charte, tels que la non-discrimination, devraient fonctionner de maniĂšre transparente audelĂ de la frontiĂšre entre les domaines physique et numĂ©rique...â
biais algorithmique en tant que discrimination directe ou indirecte,22 et les obstacles probables Ă la justification des cas de discrimination algorithmique directe, le cadre de justification unifiĂ© attachĂ© Ă lâarticle 21 de la Charte pourrait constituer une voie de recours intĂ©ressante. Toutefois, dans la pratique, la CJUE a tendance Ă intĂ©grer le cadre analytique diffĂ©renciĂ© prĂ©vu par les directives anti-discrimination de lâUE en ce qui concerne les justifications pour interprĂ©ter lâinterdiction de discrimination telle quâelle est dĂ©finie par la Charte.23
Les restrictions au droit fondamental Ă lâĂ©galitĂ© de traitement en vertu de lâarticle 21 ne peuvent ĂȘtre tolĂ©rĂ©es que si elles sont « prĂ©vues par la loi et respectent lâessence des droits et libertĂ©s », tels quâils sont garantis par la Charte. Ainsi, la marge de manĆuvre des entreprises privĂ©es est intrinsĂšquement rĂ©duite, car tout systĂšme discriminatoire doit sâaligner sur un cadre lĂ©gal et respecter « le contenu essentiel » du droit Ă la non-discrimination. En outre, le test de proportionnalitĂ© intĂ©grĂ© Ă la Charte impose deux conditions : les limitations doivent ĂȘtre « nĂ©cessaires » et « rĂ©pondent effectivement Ă des objectifs dâintĂ©rĂȘt gĂ©nĂ©ral reconnus par lâUnion ou au besoin de protection des droits et libertĂ©s dâautrui. » Dans le cas de lâoutil de surveillance algorithmique, on pourrait affirmer que lâatteinte au droit des Ă©tudiants Ă la non-discrimination nâĂ©tait pas prĂ©vue par la loi, ne respectait pas lâessence du droit fondamental garanti par lâarticle 21, ne correspondait pas vĂ©ritablement aux objectifs dâintĂ©rĂȘt gĂ©nĂ©ral reconnus par lâUE et nâĂ©tait pas nĂ©cessaire pour protĂ©ger les droits et les libertĂ©s dâautrui.24 Le rĂ©gime Ă©tabli Ă lâarticle 52 (1) restreint donc considĂ©rablement lâensemble des justifications admissibles avant mĂȘme de procĂ©der Ă une analyse de la proportionnalitĂ© stricto sensu. Cet aspect unique du droit Ă la non-discrimination, tel quâil est consacrĂ© Ă lâarticle 21 de la Charte, pourrait donc contribuer Ă anticiper et Ă contourner certaines des difficultĂ©s liĂ©es au contrĂŽle de la proportionnalitĂ© stricto sensu des dĂ©cisions prises dans le contexte des compromis entre lâĂ©quitĂ© et la prĂ©cision dans les systĂšmes algorithmiques.25
Conclusions
Afin de rappeler le titre de cette sĂ©rie dâarticles, la prise de conscience du fait que les droits garantis par la Charte sont des droits numĂ©riques et vice versa est dâune importance capitale dans le contexte dâune sociĂ©tĂ© algorithmique. En effet, les droits fondamentaux protĂ©gĂ©s par la Charte, tels que la non-discrimination, devraient fonctionner de maniĂšre transparente au-delĂ de la frontiĂšre entre les domaines physique et numĂ©rique. Une interprĂ©tation tĂ©lĂ©ologique de ces droits est essentielle pour garantir que les transformations sociotechniques, telles que le dĂ©ploiement gĂ©nĂ©ralisĂ© de systĂšmes algorithmiques dâĂ©valuation des risques et de prise de dĂ©cision, ne compromettent pas lâĂ©quilibre normatif inscrit dans les cadres juridiques. Par consĂ©quent, pour garantir une protection efficace des droits fondamentaux, il est nĂ©cessaire de réévaluer les rĂ©glementations existantes Ă la lumiĂšre de la maniĂšre dont les avancĂ©es technologiques modifient la dynamique du pouvoir et redistribuent les coĂ»ts et les bĂ©nĂ©fices sociĂ©taux.

Nadia Benaissa, Bits of freedom
Un
espace pour ĂȘtre et devenir : la protection de la vie privĂ©e, la base du dĂ©veloppement personnel
ConformĂ©ment Ă lâarticle 20 de la Charte des droits fondamentaux de lâUnion europĂ©enne (UE) (« la Charte »), toutes les personnes sont Ă©gales et se trouvent sur un pied dâĂ©galitĂ© en droit. Cependant, lâĂ©galitĂ© nâimplique pas lâhomogĂ©nĂ©itĂ©. Nous percevons, communiquons et aimons de diverses maniĂšres. Nous portons en nous des histoires familiales uniques, nous naviguons dans des structures de pouvoir diffĂ©rentes et nous portons la signification historique et sociale de notre race et de notre sexe dĂšs le jour de notre naissance. Et nous sommes constamment confrontĂ©s Ă des interprĂ©tations politiques de la maniĂšre dont nous nous exprimons, de ce que nous reprĂ©sentons et de ce en quoi nous croyons.
Nous sommes tous égaux, mais pas identiques.
De ce fait, nous avons besoin dâespace. De lâespace pour explorer, pour hĂ©siter, pour se dĂ©cider et changer Ă nouveau dâavis, pour persister et persĂ©vĂ©rer. De lâespace pour comprendre qui nous Ă©tions, qui nous sommes et qui nous aspirons Ă ĂȘtre. Un espace pour apprendre Ă connaĂźtre notre moi intĂ©rieur, sans lâinterfĂ©rence, la condescendance ou le dĂ©nigrement des autres. Et de lâespace pour vivre notre rĂ©alitĂ©, mĂȘme si cette rĂ©alitĂ© nâest pas populaire, aimĂ©e ou mĂȘme comprise.
Cet espace est lâĂ©lĂ©ment vital de notre dĂ©veloppement personnel et dâune sociĂ©tĂ© libre et ouverte. Il est en partie garanti par le droit au respect de la vie privĂ©e, tel que stipulĂ© dans la Charte : « Toute personne a droit au respect de sa vie privĂ©e et familiale, de son domicile et de ses communications. ». Le droit au respect de la vie privĂ©e est inextricablement liĂ© Ă dâautres droits de lâhomme. Par exemple, le traitement de donnĂ©es relatives au sexe, Ă la religion ou Ă lâappartenance ethnique pourrait porter atteinte aux droits de lâindividu Ă lâĂ©galitĂ© de traitement ou Ă la libertĂ© dâexpression religieuse. Par consĂ©quent, le droit au respect de la vie privĂ©e joue le rĂŽle de garant des autres droits de lâhomme. Cet article examine plusieurs cas rĂ©cents aux Pays-Bas oĂč la violation du droit au respect de la vie privĂ©e a entraĂźnĂ© la violation dâautres droits de lâhomme.
Des identités
réduites à des stéréotypes: le traitement des données et les dangers du réductionnisme stéréotypé
Avec lâavĂšnement de capacitĂ©s technologiques de traitement des donnĂ©es apparemment illimitĂ©es, le droit au respect de la vie privĂ©e est mis Ă rude Ă©preuve. Les donnĂ©es contenant des informations personnelles sont traitĂ©es, analysĂ©es et interprĂ©tĂ©es Ă une Ă©chelle sans prĂ©cĂ©dent. Les idĂ©es et les conclusions tirĂ©es de ces donnĂ©es sont diffusĂ©es et Ă©changĂ©es. Les aspects multiples qui construisent les identitĂ©s sont simplifiĂ©s, catĂ©gorisĂ©s et regroupĂ©s dans des profils prĂ©dĂ©terminĂ©s, un processus qui rĂ©duit les identitĂ©s complexes Ă de simples stĂ©rĂ©otypes.
En effet, le profilage pourrait simplifier la prĂ©diction de la rĂ©action dâun individu vis-Ă vis des stratĂ©gies publicitaires ou du succĂšs de traitements mĂ©dicaux. Mais dans quelle mesure est-il appropriĂ© dâestimer, sur la base du profilage, les convictions politiques dâun Ă©lecteur, la probabilitĂ© quâune personne soit impliquĂ©e dans des « transactions suspectes » ou quâelle commette une fraude aux prestations sociales ?
En outre, la prise de dĂ©cision automatisĂ©e basĂ©e sur le profilage a Ă©tĂ© annoncĂ©e comme une promesse de simplicitĂ©, dâefficacitĂ© et dâefficience. Malheureusement, il semble que ce soit le contraire qui se produise et que les consĂ©quences soient de plus en plus Ă©videntes, car nous constatons que divers droits fondamentaux sont fragilisĂ©s en raison de violations du droit au respect de la vie privĂ©e.
Une discrimination combinĂ©e: lâimpact cumulatif des biais
Le domaine de la sĂ©curitĂ© sociale numĂ©rique offre un exemple frappant dâatteintes Ă la vie privĂ©e entraĂźnant dâautres violations des droits de lâhomme. Le systĂšme de protection sociale numĂ©rique nĂ©erlandais a suscitĂ© le dĂ©sormais cĂ©lĂšbre scandale des allocations familiales1 En 2018, il est apparu que de nombreux parents qui recevaient des allocations familiales de lâadministration fiscale nĂ©erlandaise avaient Ă©tĂ© identifiĂ©s Ă tort comme fraudeurs. Cette classification erronĂ©e a contraint les parents Ă rembourser des milliers dâeuros Ă lâĂtat, plongeant nombre dâentre eux dans de graves difficultĂ©s financiĂšres, de se retrouver sans domicile fixe et de subir un stress et une pauvretĂ© aiguĂ«. Selon une rĂ©vĂ©lation alarmante, pas moins de 2090 enfants de parents concernĂ©s ont Ă©tĂ© pris en charge entre 2015 et 20222
Parmi les parents concernĂ©s, il sâest avĂ©rĂ© quâun nombre disproportionnĂ© dâentre eux Ă©taient issus de lâimmigration. Cette constatation a Ă©tĂ© corroborĂ©e par des enquĂȘtes ultĂ©rieures, qui ont rĂ©vĂ©lĂ© que lâadministration fiscale utilisait des donnĂ©es relatives Ă la nationalitĂ© des parents. LâautoritĂ© nĂ©erlandaise de protection des donnĂ©es3 a confirmĂ© cette affirmation et identifiĂ© trois processus de traitement illicites. PremiĂšrement, les doubles nationalitĂ©s Ă©taient traitĂ©es. DeuxiĂšmement, les donnĂ©es relatives Ă la nationalitĂ© Ă©taient utilisĂ©es comme indicateur pour le modĂšle de classification des risques. TroisiĂšmement, ce modĂšle Ă©tait utilisĂ© pour dĂ©tecter la fraude organisĂ©e. LâAutoritĂ© a conclu Ă lâexistence dâune discrimination fondĂ©e sur la nationalitĂ©. LâenquĂȘte complĂ©mentaire dâAmnesty International4 a rĂ©vĂ©lĂ© que la discrimination Ă©tait perpĂ©trĂ©e non seulement sur la base de la nationalitĂ©, mais aussi de lâappartenance ethnique. En effet, lâutilisation des donnĂ©es relatives Ă la nationalitĂ© a facilitĂ© le ciblage discriminatoire des minoritĂ©s ethniques par le modĂšle de classification des risques. Comme le souligne Amnesty dans son rapport, « le profilage ethnique viole lâinterdiction de la discrimination. Il conduit Ă la criminalisation de certains groupes de personnes et renforce les associations traditionnellement stĂ©rĂ©otypĂ©es entre la fraude et lâappartenance ethnique ».
En outre, lâenquĂȘte a rĂ©vĂ©lĂ© que les personnes qui recevaient des allocations plus Ă©levĂ©es Ă©taient plus susceptibles dâĂȘtre accusĂ©es de fraude. Les personnes issues de mĂ©nages Ă faibles revenus ont donc Ă©tĂ© touchĂ©es de maniĂšre disproportionnĂ©e en raison de leur plus grande dĂ©pendance vis-Ă -vis des prestations et des sommes plus importantes quâelles percevaient. De plus, les parents Ă faible revenu ont rencontrĂ© des difficultĂ©s Ă rembourser les sommes considĂ©rables exigĂ©es par le gouvernement nĂ©erlandais. LâĂ©valuation dâAmnesty a qualifiĂ© la situation de discrimination intersectionnelle5, car les personnes les plus touchĂ©es Ă©taient gĂ©nĂ©ralement des groupes ethniques minoritaires, qui sont gĂ©nĂ©ralement plus susceptibles dâavoir de faibles revenus. Pour aggraver le problĂšme, il semble par la suite quâun profilage religieux6 Ă©tait Ă©galement pratiquĂ©, les personnes ayant fait des dons Ă des mosquĂ©es Ă©tant considĂ©rĂ©es comme prĂ©sentant un risque plus Ă©levĂ©.
Le scandale des allocations familiales illustre de maniĂšre frappante la nature intersectionnelle de la discrimination, dans laquelle plusieurs axes de biais se renforcent mutuellement. Ce phĂ©nomĂšne nâest pas nouveau. DĂšs 1989, Crenshaw7 soulignait que lâintersection des couches politiques et sociales de nos identitĂ©s pouvait nous rendre plus vulnĂ©rables Ă la discrimination ou aux privilĂšges. Des facteurs tels que le sexe, lâappartenance ethnique, la classe sociale, lâorientation sexuelle, la religion, le poids et le handicap peuvent tous influer sur la position dâune personne dans le spectre du pouvoir au sein de la sociĂ©tĂ©. Lâintersection de multiples facteurs peut soit consolider une position de privilĂšge, soit exposer un individu Ă une discrimination aggravĂ©e. Ce phĂ©nomĂšne est bien illustrĂ© par le scandale des allocations familiales du type dâaide garde dâenfants. Par exemple, les personnes musulmanes, Ă faible revenu et possĂ©dant au moins une origine ethnique non nĂ©erlandaise ont Ă©tĂ© triplement pĂ©nalisĂ©es uniquement sur la base de ces classifications, sans tenir compte de leur situation individuelle.
Lâincrimination avant la transgression: le coĂ»t des prĂ©somptions
Ces formes distinctes de discrimination apparaissent lorsque des collecteurs de donnĂ©es, tels que le bureau de lâadministration fiscale du gouvernement nĂ©erlandais dans notre exemple prĂ©cĂ©dent, Ă©tablissent des profils sur la base des donnĂ©es collectĂ©es. Alors que
les individus peuvent soupçonner que leurs donnĂ©es peuvent ĂȘtre utilisĂ©es pour faire des suppositions Ă leur sujet, dans ce dernier cas, ces suppositions ont Ă©tĂ© utilisĂ©es pour prĂ©dire la probabilitĂ© que lâindividu commette une fraude Ă la sĂ©curitĂ© sociale. En outre, la tendance Ă suspecter des individus avant mĂȘme (ou malgrĂ© lâabsence) de violation des rĂšgles montre que les actions supposĂ©es de la catĂ©gorie Ă laquelle appartient une personne sont primordiales dans lâĂ©tablissement de son profil de risque. Il est essentiel de noter que le gouvernement nĂ©erlandais a justifiĂ© sa mise en Ćuvre du profilage algorithmique par le fait quâil contribuerait Ă la dĂ©tection et Ă la prĂ©vention efficaces de la fraude, servant ainsi lâintĂ©rĂȘt public. Ainsi, la question se pose de savoir si lâargument de lâintĂ©rĂȘt public doit lâemporter sur les droits et les intĂ©rĂȘts des citoyens individuels.
En 2020, la Cour de district de La Haye8 a contestĂ© cette notion, estimant que la prĂ©vention et la lutte contre la fraude dans lâintĂ©rĂȘt du bien-ĂȘtre Ă©conomique doivent ĂȘtre mises en balance avec les intrusions dans la vie privĂ©e des individus. La Cour a Ă©valuĂ© si la lĂ©gislation sur le Systeem Risico Indicatie (SyRI), qui permettait la confluence de diverses donnĂ©es pour lutter contre la fraude, Ă©tait en violation de lâarticle 8 de la Convention europĂ©enne des droits de lâhomme. La Cour a dĂ©terminĂ© que la lĂ©gislation SyRI ne rĂ©pondait pas au critĂšre du « juste Ă©quilibre » nĂ©cessaire pour justifier la violation du droit Ă la vie privĂ©e pour la dĂ©fense dâintĂ©rĂȘts plus larges. Par ailleurs, la Cour a notĂ© que lâutilisation de SyRI nâoffrait que peu de mesures de protection en raison de son manque de transparence et de vĂ©rifiabilitĂ©. La lĂ©gislation violant le droit europĂ©en, elle a Ă©tĂ© jugĂ©e illĂ©gale et non applicable. Les actions en justice intentĂ©es par des organisations de la sociĂ©tĂ© civile, notamment le ComitĂ© nĂ©erlandais des juristes pour les droits de lâhomme et la Plate-forme pour les droits civils, ont envoyĂ© un message clair : Les tribunaux et gouvernements doivent examiner judicieusement les intrusions dans la vie privĂ©e des individus, notamment par la collecte, la combinaison et le partage de donnĂ©es personnelles.
Le droit au respect de la vie privĂ©e: la sentinelle des droits de lâhomme
La collecte et le traitement de donnĂ©es Ă grande Ă©chelle ont des consĂ©quences considĂ©rables. En effet, les personnes considĂ©rĂ©es comme prĂ©sentant un risque Ă©levĂ© doivent en subir les consĂ©quences, quâelles soient au courant ou non de cette classification. Le scandale des allocations familiales illustre Ă quel point le coĂ»t humain de telles violations est important. En outre, alors que les allocations Ă©taient brusquement supprimĂ©es et que les demandes de remboursement sâaccumulaient, les parents ne savaient pas pourquoi ils avaient Ă©tĂ© accusĂ©s de fraude, et les demandes dâinformation9 se heurtaient Ă des dossiers lourdement rĂ©digĂ©s. MĂȘme la protection juridique sâest avĂ©rĂ©e insuffisante. Selon le Conseil judiciaire10, les familles ont Ă©tĂ© contraintes Ă une lutte inĂ©gale contre un gouvernement bien plus puissant.
Selon la Charte des droits fondamentaux de lâUE, la dignitĂ© humaine est inviolable et doit ĂȘtre respectĂ©e et protĂ©gĂ©e (article 1), et la discrimination est interdite (article 21). Les individus ont droit Ă la libertĂ© de pensĂ©e et de croyance (article 10), Ă la libertĂ© dâexpression (article 11), Ă lâĂ©galitĂ© en droit (article 20), au droit Ă la protection et aux soins des enfants (article 24), au droit Ă la sĂ©curitĂ© sociale si lâautosuffisance nâest pas rĂ©alisable (article 34) et au droit Ă la protection juridique (article 47). Les personnes ont le droit dâĂȘtre prĂ©sumĂ©es innocentes jusquâĂ ce que leur culpabilitĂ© soit prouvĂ©e. Tous ces droits garantis par la Charte ont Ă©tĂ© menacĂ©s dans le scandale des allocations familiales, qui a commencĂ© par le traitement illĂ©gal de donnĂ©es Ă caractĂšre personnel. Le fait que lâun des objectifs centraux du RĂšglement gĂ©nĂ©ral sur la protection des donnĂ©es soit de protĂ©ger tous les droits et libertĂ©s fondamentaux, en particulier (mais pas exclusivement) le droit Ă la protection des donnĂ©es Ă caractĂšre personnel, nâest pas sans fondement. La violation de la vie privĂ©e par le traitement de donnĂ©es Ă caractĂšre personnel peut porter atteinte Ă dâautres droits fondamentaux. Ainsi, nous qualifions le droit au respect de la vie privĂ©e de « garant » des autres droits de lâhomme. Ce constat souligne la raison pour laquelle nous devons continuer Ă dĂ©fendre le droit au respect de la vie privĂ©e en tant que droit fondamental : il est essentiel Ă la sauvegarde dâune sociĂ©tĂ© ouverte et libre dans laquelle chacun est Ă©gal et dont les diffĂ©rences sont prĂ©servĂ©es, respectĂ©es et valorisĂ©es.
âLa violation de la vie privĂ©e par le traitement de donnĂ©es Ă caractĂšre personnel peut porter atteinte Ă dâautres droits fondamentaux. Câest pourquoi nous qualifions le droit au respect de la vie privĂ©e de « gardien » des autres droits de lâhomme.â
Ioannis Kouvakas, Conseiller juridique principal et avocat général adjoint, Privacy International (PI) ; doctorant externe, Groupe de recherche sur le droit, la science, la technologie et la société (LSTS), Université libre de Bruxelles (VUB).
Remarques générales
Lâarticle 8 de la Charte des droits fondamentaux de lâUE (la Charte) consacre expressĂ©ment un droit Ă la protection des donnĂ©es Ă caractĂšre personnel, qui est distinct du droit au respect de la vie privĂ©e consacrĂ© Ă lâarticle 7 de la Charte et nâa pas dâĂ©quivalent dans la Convention europĂ©enne des droits de lâhomme (CEDH).1 Il contient un ensemble dâobligations et de limitations visant Ă rĂ©gir le traitement des donnĂ©es Ă caractĂšre personnel des personnes, notamment lâexigence que les donnĂ©es Ă caractĂšre personnel soient traitĂ©es « loyalement, Ă des fins dĂ©terminĂ©es et sur la base du consentement de la personne concernĂ©e ou en vertu dâun autre fondement lĂ©gitime prĂ©vu par la loi », tout en Ă©tablissant un droit dâaccĂšs et de rectification des donnĂ©es Ă caractĂšre personnel collectĂ©es Ă leur sujet (article 8 (2)). La Cour de justice de lâUE (CJUE) a Ă©galement introduit un droit Ă lâoubli en application de lâarticle 8.2 Lâarticle 8 (3) de la Charte soumet le respect des rĂšgles en matiĂšre de protection des donnĂ©es Ă la surveillance dâune autoritĂ© indĂ©pendante. Les acquis de lâUE en matiĂšre de protection des donnĂ©es sont complĂ©tĂ©s par le droit dĂ©rivĂ©, notamment le RĂšglement gĂ©nĂ©ral sur la protection des donnĂ©es (RGPD)3 et la Directive relative Ă lâapplication des lois4
En se concentrant sur la jurisprudence qui a façonnĂ© lâinterprĂ©tation de lâarticle 8 de la Charte, cet article examine certaines questions relatives Ă lâapplication de ce droit et Ă sa relation avec lâarticle 7 de la Charte Ă lâĂšre numĂ©rique.
Champ dâapplication
Lâarticle 8 sâapplique au « traitement » de « donnĂ©es Ă caractĂšre personnel ». Ces deux termes, dĂ©finis dans le droit dĂ©rivĂ© de lâUE,5 ont Ă©tĂ© largement interprĂ©tĂ©s par la CJUE. Les « donnĂ©es Ă caractĂšre personnel » englobent tous les types dâinformations relatives Ă une personne identifiĂ©e ou identifiable, quâelles soient de nature privĂ©e ou sensible,6 ainsi que les informations subjectives telles que les avis et les apprĂ©ciations.7 Il nâest pas nĂ©cessaire que lâidentitĂ© de la personne soit dĂ©jĂ connue ; ce qui compte, câest que lâentitĂ© responsable du traitement soit raisonnablement en mesure dâidentifier la personne. Dans lâaffaire Breyer, la CJUE a jugĂ© que les adresses IP dynamiques pouvaient constituer des donnĂ©es Ă caractĂšre personnel mĂȘme si les informations supplĂ©mentaires nĂ©cessaires pour identifier lâutilisateur dâun site web nâĂ©taient pas dĂ©tenues par le fournisseur de services de mĂ©dias en ligne qui collectait les adresses IP.8 ParallĂšlement, la notion de « traitement » doit ĂȘtre comprise comme toute opĂ©ration effectuĂ©e sur des donnĂ©es Ă caractĂšre personnel, y compris la collecte, la conservation, le transfert, lâeffacement, etc.9
En effet, lâarticle 8, tout comme les autres droits de la Charte, lie Ă la fois les organes de lâUE et les Ătats membres lorsquâils mettent en Ćuvre le droit de lâUE (article 51 (1) de la Charte). Dans lâaffaire Tele2, la CJUE a examinĂ© la validitĂ© dâune loi nationale imposant aux fournisseurs de services de tĂ©lĂ©communications lâobligation de conserver certaines donnĂ©es de tĂ©lĂ©communications Ă des fins judiciaires.10 Bien que les activitĂ©s relatives Ă la rĂ©pression soient explicitement exclues du champ dâapplication de la Directive vie privĂ©e et communications Ă©lectroniques, qui garantit la confidentialitĂ© des communications,11 la Cour a estimĂ© que la lĂ©gislation de lâUE couvrait toujours la conservation des donnĂ©es par les fournisseurs de services ainsi que lâaccĂšs Ă ces donnĂ©es par les autoritĂ©s, car, entre autres, ladite directive imposait des obligations visant Ă garantir la confidentialitĂ© des communications et prĂ©voyait des restrictions possibles, y compris en matiĂšre de rĂ©pression.12
La mĂȘme conclusion a Ă©tĂ© tirĂ©e dans lâaffaire Privacy International,13 sur des mesures similaires, mais cette fois dans le but de sauvegarder la sĂ©curitĂ© nationale, un domaine qui « reste de la seule responsabilitĂ© de chaque Ătat membre » (article 4 (2) du TraitĂ© sur lâUE). Appliquant le raisonnement suivi dans lâaffaire Tele2, la Cour a estimĂ© que les mesures lĂ©gislatives rĂ©glementant les activitĂ©s des fournisseurs de services de tĂ©lĂ©communications relevaient du champ dâapplication de la Directive vie privĂ©e et communications Ă©lectroniques (et, par consĂ©quent, du droit de lâUE) parce quâelles impliquaient le traitement de donnĂ©es Ă caractĂšre personnel par ces fournisseurs en vertu de cette mĂȘme directive.14
Interactions avec lâarticle 7 de la Charte
Dans sa distinction entre les articles 7 et 8 de la Charte, la CJUE ne suit pas une approche constante, dĂ©clarant en gĂ©nĂ©ral que la protection des donnĂ©es « est Ă©troitement liĂ©e au droit au respect de la vie privĂ©e ».15 Lorsquâelle examine sâil y a eu ingĂ©rence dans les articles 7 et 8, la CJUE concentre souvent son analyse sur la question de savoir sâil y a eu ingĂ©rence dans le droit au respect de la vie privĂ©e, puis dĂ©clare quâil y a Ă©galement ingĂ©rence dans le droit Ă la protection des donnĂ©es parce que la mesure en cause implique le traitement de donnĂ©es Ă caractĂšre personnel.16
De mĂȘme, cette derniĂšre a indĂ»ment insistĂ© sur le fait quâil fallait dâabord Ă©tablir lâexistence dâune ingĂ©rence dans lâarticle 7 avant de juger que lâarticle 8 Ă©tait Ă©galement en cause.17 Dans lâaffaire Schecke, par exemple, qui portait sur la validitĂ© de la lĂ©gislation europĂ©enne exigeant la publication de dĂ©tails sur les bĂ©nĂ©ficiaires de fonds agricoles, la Cour de Luxembourg nâa pas fait de distinction entre les deux droits et a traitĂ© les articles 7 et 8 comme un seul « droit au respect de la vie privĂ©e Ă lâĂ©gard du traitement des donnĂ©es Ă caractĂšre personnel ».18 Cette approche, fortement influencĂ©e par la jurisprudence de la Cour europĂ©enne des droits de lâhomme (Cour EDH), qui, pour faire valoir sa compĂ©tence, doit dâabord Ă©tablir une ingĂ©rence dans le droit au respect de la vie privĂ©e en vertu de lâarticle 8 de la CEDH, semble considĂ©rer la protection des donnĂ©es comme un sous-ensemble du droit au respect de la vie privĂ©e et pourrait compromettre lâexistence de la protection des donnĂ©es en tant que droit indĂ©pendant garanti par la Charte. Inversement, le large champ dâapplication de lâarticle 8 de la CEDH pourrait permettre de dĂ©clencher plus facilement lâapplicabilitĂ© de la Charte, voire dâĂ©tablir une ingĂ©rence dans lâarticle 8 de la CEDH, devant les juridictions nationales, Ă©tant donnĂ© que le traitement de donnĂ©es Ă caractĂšre personnel dans le contexte numĂ©rique est susceptible de constituer une ingĂ©rence dans le droit au respect de la vie privĂ©e.19 Par exemple, en dĂ©cidant que la reconnaissance faciale rĂ©alisĂ©e en public constituait une ingĂ©rence dans lâarticle 8 de la CEDH, la Divisional Court du Royaume-Uni a Ă©galement mis lâaccent sur les termes « donnĂ©es Ă caractĂšre personnel » et « traitement » contenus dans lâarticle 8 de la Charte :
58. La [CJUE] a Ă©galement soulignĂ© Ă plusieurs reprises que le droit Ă la protection des donnĂ©es Ă caractĂšre personnel est « Ă©troitement liĂ© au droit au respect de la vie privĂ©e » et que « le droit au respect de la vie privĂ©e Ă lâĂ©gard du traitement des donnĂ©es Ă caractĂšre personnel » est fondĂ© Ă la fois sur les articles 7 et 8 de la Charte des droits fondamentaux de lâUnion europĂ©enne et sâĂ©tend à « toute information concernant une personne identifiĂ©e ou identifiable ».20
Limites
Lâarticle 52 de la Charte Ă©nonce horizontalement une sĂ©rie de conditions auxquelles doivent rĂ©pondre les Ă©ventuelles limitations Ă lâexercice des droits garantis par la Charte. Les limitations doivent ĂȘtre prĂ©vues par la loi, respecter le contenu essentiel des droits et libertĂ©s et ĂȘtre proportionnĂ©es ; elles ne peuvent ĂȘtre apportĂ©es que si elles sont nĂ©cessaires et rĂ©pondent effectivement Ă des objectifs dâintĂ©rĂȘt gĂ©nĂ©ral reconnus par lâUnion europĂ©enne ou au besoin de protection des droits et libertĂ©s dâautrui (article 52 (1)).
Lâarticle 8 de la Charte ne prĂ©voyant quâun systĂšme de contrĂŽle auquel le traitement des donnĂ©es Ă caractĂšre personnel doit satisfaire, lâapplication de lâarticle 52 (1) Ă ce dernier revient Ă apprĂ©cier les limitations imposĂ©es aux Ă©lĂ©ments essentiels de ce droit. NĂ©anmoins, la CJUE sâest montrĂ©e plus Ă lâaise dans le cadre de lâapplication de lâarticle 52 (1) de la Charte dans le contexte de lâarticle 7.21
En ce qui concerne lâessence du droit Ă la protection des donnĂ©es, la Cour de Luxembourg considĂšre gĂ©nĂ©ralement quâil est respectĂ© Ă condition que la mesure en question contienne certaines dispositions relatives Ă la protection des donnĂ©es, en particulier Ă la sĂ©curitĂ© des donnĂ©es. Dans lâaffaire Digital Rights Ireland, la CJUE a estimĂ© que les obligations imposĂ©es aux fournisseurs de services de communication exigeant la conservation de certaines donnĂ©es de communication ne violaient pas lâessence des droits Ă©noncĂ©s aux articles 7 et 8 de la Charte.22 En ce qui concerne lâarticle 8, elle a soulignĂ© que « les Ătats membres veillent Ă lâadoption de mesures techniques et organisationnelles appropriĂ©es contre la destruction accidentelle ou illicite, la perte ou lâaltĂ©ration accidentelle des donnĂ©es ».23 Si le contenu essentiel de la protection des donnĂ©es est un
noyau minimal dont lâatteinte rend impossible lâexercice de ce droit24 ou, comme lâa dit la Cour, « remet en cause » le droit fondamental en tant que tel,25 une analyse des mesures techniques ou de sĂ©curitĂ© sera probablement insuffisante pour satisfaire aux exigences de lâarticle 52 (1) de la Charte.
Contrairement Ă la Cour EDH, la CJUE a appliquĂ© les principes de nĂ©cessitĂ© et de proportionnalitĂ© dâune maniĂšre beaucoup plus structurĂ©e, exigeant que toute limitation prĂ©vue Ă lâarticle 8 de la Charte soit strictement nĂ©cessaire 26 La Cour ne se contente pas dâexaminer si lâobjectif en question pourrait ĂȘtre atteint par des moyens moins restrictifs, mais propose souvent des approches lĂ©gislatives alternatives 27 Lorsquâil sâagit de mettre en balance la protection des donnĂ©es et dâautres droits ou intĂ©rĂȘts, la CJUE a adoptĂ© une position trĂšs protectrice Ă lâĂ©gard de lâarticle 8, en dĂ©fendant la protection des donnĂ©es Ă caractĂšre personnel contre les intĂ©rĂȘts Ă©conomiques des grandes entreprises technologiques,28 ainsi que lâaccĂšs du public aux documents 29
Conclusion
En somme, lâarticle 8 de la Charte confĂšre Ă la protection des donnĂ©es son propre fondement constitutionnel dans lâUE en tant que droit fondamental, en Ă©tablissant un ensemble de freins et de contrepoids pour rĂ©gir le traitement des donnĂ©es des personnes. Si la CJUE nâa pas hĂ©sitĂ© Ă interprĂ©ter largement les dispositions de lâarticle 8 et Ă dĂ©fendre la protection des donnĂ©es contre plusieurs autres intĂ©rĂȘts, elle nâa toutefois pas rĂ©ussi Ă distinguer systĂ©matiquement ce droit de celui consacrĂ© par lâarticle 7 de la Charte et Ă donner des indications claires sur la maniĂšre dont ses exigences, y compris son contenu, devraient ĂȘtre interprĂ©tĂ©es Ă la lumiĂšre de lâarticle 52 (1). MalgrĂ© ces lacunes, lâarticle 8, grĂące Ă son large champ dâapplication, reste une disposition clĂ© dans la dĂ©fense des droits numĂ©riques devant les tribunaux nationaux et europĂ©ens. De maniĂšre plus significative, et comme le suggĂšre la jurisprudence examinĂ©e ci-dessus, les affaires relevant de lâarticle 8 restent un outil prĂ©cieux pour atteindre des objectifs qui ne se limitent pas aux droits Ă la protection des donnĂ©es, mais qui peuvent avoir un impact plus large, dans le contexte des litiges relatifs aux droits numĂ©riques.
â...les affaires relevant de lâarticle 8 restent un outil prĂ©cieux pour atteindre des objectifs qui ne se limitent pas aux droits Ă la protection des donnĂ©es, mais qui peuvent avoir un impact plus large, dans le contexte des litiges relatifs aux droits numĂ©riques.â
Les auteurs sont introduits par ordre alphabétique, leur contribution à cet essai est égale.
Melanie Fink, Leiden Law School
Giulia Gentile, LSE Law School
Le droit Ă une bonne administration, garanti par lâarticle 41 de la Charte des droits fondamentaux de lâUnion europĂ©enne (UE) (« la Charte »), inscrit dans le droit constitutionnel le principe gĂ©nĂ©ral analogue dĂ©veloppĂ© dans la jurisprudence de lâUE1. Ce droit incarne la position de lâUE en tant que communautĂ© de droit, dans laquelle les individus sont protĂ©gĂ©s contre les dĂ©cisions administratives arbitraires et ont droit Ă des garanties fondamentales dans leurs interactions avec les institutions et organes de lâUE, destinĂ©es Ă assurer des procĂ©dures administratives justes et Ă©quitables.
Dans le cadre de la bonne administration, lâarticle 41 comprend plusieurs droits procĂ©duraux. Alors que chacun de ces droits peut avoir des effets sur le paysage numĂ©rique, certains revĂȘtent une importance particuliĂšre dans ce contexte, notamment le droit dâĂȘtre entendu, le droit Ă une dĂ©cision motivĂ©e, le droit Ă des dommages-intĂ©rĂȘts et le principe plus large de la transparence. Afin dâapporter une rĂ©flexion plus large sur la pertinence de lâarticle 41 dans le contexte numĂ©rique, cet article dĂ©crit dâabord le champ dâapplication de cette disposition, puis examine chacun de ces droits.
Champ
dâapplication des obligations dĂ©coulant de lâarticle 41
Le champ dâapplication de lâarticle 41 se limite Ă lâadministration de lâUE au sens strict, câest-Ă -dire aux institutions, organes et organismes de lâUE. En excluant les Ătats membres en tant que destinataires des obligations, lâarticle 41 sâĂ©carte du principe plus gĂ©nĂ©ralement applicable de lâarticle 51 (1), selon lequel la Charte sâapplique Ă©galement aux Ătats membres « lorsquâils mettent en Ćuvre le droit de lâUnion ». La Cour de justice de lâUnion europĂ©enne (CJUE) a parfois laissĂ© entendre que le champ dâapplication de lâarticle 41 Ă©tait plus large (voir, par exemple, affaire MM c. Minister for justice, paragraphes 81-942). Toutefois, la Cour adopte plus frĂ©quemment une interprĂ©tation littĂ©rale, excluant les Ătats membres du champ dâapplication de lâarticle 41 (voir, par exemple, affaire R.N.N.S et K.A c. Minister van Buitenlandse Zaken, paragraphe 333).
Lâarticle 41, considĂ©rĂ© frĂ©quemment comme une codification des principes gĂ©nĂ©raux du droit Ă©laborĂ©s par les tribunaux de lâUE, prĂ©sente un chevauchement important avec ces principes. Toutefois, contrairement Ă lâarticle 41, le droit Ă une bonne administration sâapplique non seulement Ă lâUE elle-mĂȘme, mais aussi aux autoritĂ©s des Ătats membres lorsquâelles agissent dans le cadre du droit de lâUE. Câest ce quâa explicitement indiquĂ© la CJUE dans lâaffaire R.N.N.S. et K.A. (paragraphe 344). En appliquant le droit Ă la bonne administration Ă lâensemble de lâadministration de lâUE, ces principes gĂ©nĂ©raux jouent un rĂŽle indĂ©pendant de celui de lâarticle 41.
Alors que le droit Ă la bonne administration sâapplique uniquement aux autoritĂ©s publiques de lâUE, une question pertinente dans le contexte numĂ©rique est de savoir si le droit lui-mĂȘme â ou les valeurs quâil consacre â peut ĂȘtre Ă©tendu aux entitĂ©s privĂ©es. Cette question devient particuliĂšrement pertinente lorsque ces entitĂ©s collaborent avec les autoritĂ©s publiques ou lorsquâelles utilisent des technologies numĂ©riques Ă grande Ă©chelle qui ont un impact significatif sur la vie des individus, ce qui les amĂšne Ă exercer des pouvoirs de nature quasi publique. Plusieurs rĂ©fĂ©rences abordant le principe de bonne administration ont Ă©tĂ© incluses dans la proposition de lĂ©gislation europĂ©enne sur lâintelligence artificielle (lĂ©gislation sur lâIA), suggĂ©rant lâapplicabilitĂ© de ce principe dans le cadre de cette rĂ©glementation, et donc aux entitĂ©s privĂ©es.
Le droit dâĂȘtre entendu
Lâarticle 41, paragraphe 2, alinĂ©a a, confĂšre Ă toute personne le droit dâĂȘtre entendue avant quâune mesure individuelle qui lâaffecterait dĂ©favorablement ne soit prise Ă son encontre. Ce droit stipule que les individus doivent avoir la possibilitĂ© de prĂ©senter leur position aux autoritĂ©s pendant la procĂ©dure au cours de laquelle la mesure en question est dĂ©cidĂ©e (Technische UniversitĂ€t MĂŒnchen, paragraphe 255). De plus, ces positions doivent ĂȘtre prises en considĂ©ration par les autoritĂ©s et doivent ĂȘtre reflĂ©tĂ©es dans les motifs de la dĂ©cision (Elf Aquitaine, cons. 1676). En permettant Ă la personne concernĂ©e
(1) Les auteurs sont introduits par ordre alphabétique, leur contribution à cet essai est égale.
â...une question pertinente dans le contexte numĂ©rique est de savoir si le droit lui-mĂȘme â ou les valeurs quâil consacre âpeut ĂȘtre Ă©tendu aux entitĂ©s privĂ©es. Cette question devient particuliĂšrement pertinente lorsque ces entitĂ©s collaborent avec les autoritĂ©s publiques ou lorsquâelles utilisent des technologies numĂ©riques Ă grande Ă©chelle qui ont un impact significatif sur la vie des individus, ce qui les amĂšne Ă exercer des pouvoirs de nature quasi publique.â
â...lâarticle 41 de la Charte, ainsi que le principe gĂ©nĂ©ral de droit correspondant, offrent la protection la plus solide du droit dâexiger une dĂ©cision motivĂ©e de la part des autoritĂ©s publiques de lâUE.â
dâinfluencer le processus dĂ©cisionnel en faisant part de son point de vue, lâobjectif est en fin de compte dâassurer des dĂ©cisions plus Ă©quitables. La mise en place des Ă©lĂ©ments dâĂ©quitĂ© procĂ©durale dans lâinteraction entre les individus et les organes administratifs permet Ă lâarticle 41 (2) (a) dâĂȘtre intimement liĂ© Ă lâarticle 47 de la Charte, qui garantit les droits Ă un procĂšs Ă©quitable et Ă un recours effectif.
LâintĂ©gration du droit dâĂȘtre entendu au titre de lâarticle 41 dans le paysage numĂ©rique prĂ©sente des dĂ©fis spĂ©cifiques. Lâun dâentre eux consiste Ă dĂ©terminer comment garantir que les observations dâune personne sont prises en compte dans les processus dĂ©cisionnels qui intĂšgrent un certain degrĂ© dâautomatisation. Dans ce contexte, il est Ă©galement nĂ©cessaire de dĂ©terminer si une personne doit ĂȘtre entendue par un ĂȘtre humain ou si un outil automatisĂ© peut suffisamment rĂ©pondre Ă cette exigence. Ă cet Ă©gard, on notera que lâarticle 22 du RĂšglement gĂ©nĂ©ral sur la protection des donnĂ©es (RGPD) impose lâintervention dâun ĂȘtre humain dans la plupart des cas de prise de dĂ©cision automatisĂ©e. Ainsi, comme le suggĂšre lâarticle 22 (3) du RGPD, lâintervention humaine peut ĂȘtre dĂ©terminante pour prĂ©server le droit dâĂȘtre entendu dans le paysage numĂ©rique.
Un exemple pertinent est le systĂšme europĂ©en dâinformation et dâautorisation concernant les voyages (rĂšglement (UE) 2018/1240), qui devrait ĂȘtre opĂ©rationnel Ă la fin de 2023 et qui automatise (partiellement)7 la dĂ©cision concernant lâentrĂ©e des ressortissants de pays tiers au sein de lâUE. Alors que la rĂ©glementation actuelle8 ne stipule quâun droit de recours en cas de refus, lâarticle 41 (2) (a) de la Charte sera dĂ©terminant pour garantir que les individus puissent effectivement ĂȘtre entendus avant quâun refus dâautorisation de voyage ne devienne dĂ©finitif.
Le droit à une décision motivée
Lâarticle 41 (2) (c), inscrit Ă lâarticle 296 du TraitĂ© sur le fonctionnement de lâUnion europĂ©enne (TFUE), stipule que le droit Ă une bonne administration comprend « lâobligation pour lâadministration de motiver ses dĂ©cisions ». Selon la CJUE, lâexposĂ© des motifs doit ĂȘtre suffisamment clair et non Ă©quivoque pour permettre Ă la Cour dâapprĂ©cier la lĂ©galitĂ© dâune dĂ©cision et de fournir aux parties concernĂ©es des informations adĂ©quates pour discerner le bien-fondĂ© de la dĂ©cision et la contester sâil apparaĂźt quâil en est autrement (Elf Aquitaine, cons. 147-148). Par consĂ©quent, lâobligation dâĂ©noncer les motifs nâest pas simplement une obligation de transparence indĂ©pendante ; elle est plutĂŽt conçue pour encourager la responsabilitĂ© et faciliter lâaccĂšs des individus Ă la justice. Ă cet Ă©gard, la CJUE cite souvent lâarticle 47 de la Charte, le droit Ă un recours effectif, pour Ă©tayer lâexigence dâĂ©noncer les motifs (R.N.N.S. et K.A., cons. 43).
Il existe une tension entre le devoir de lâadministration dâarticuler les motifs de ses dĂ©cisions et lâincorporation de lâintelligence artificielle (IA) dans le processus de prise de dĂ©cision. Le nĆud du problĂšme rĂ©side dans la possibilitĂ© que les systĂšmes dâintelligence artificielle deviennent si complexes que les humains ne puissent pas comprendre comment ou pourquoi un systĂšme est parvenu Ă sa conclusion (nommĂ© problĂšme de la « boĂźte noire »9). Les dĂ©cideurs humains peuvent avoir du mal Ă clarifier les motifs spĂ©cifiques qui justifient une dĂ©cision fortement influencĂ©e par une « boĂźte noire ». ConsidĂ©rons le cas dâune personne Ă qui lâon refuse lâentrĂ©e sur le territoire de lâUE parce quâun systĂšme dâIA10 lâa dĂ©signĂ©e comme prĂ©sentant un « risque pour la sĂ©curitĂ© ». Si les processus internes du systĂšme dâIA sont trop opaques pour que lâagent qui sây rĂ©fĂšre comprenne les facteurs qui ont contribuĂ© Ă cette classification, lâexplication de lâagent ne peut aller au-delĂ de « parce que le systĂšme dâIA lâa dit ». Une telle justification ne rĂ©pond pas aux normes dĂ©finies Ă lâarticle 4111
Ces derniĂšres annĂ©es, un dĂ©bat animĂ© sâest engagĂ© sur la question de savoir si le RGPD crĂ©e un « droit Ă lâexplication » (pour12 et contre13). Toutefois, son existence et son contenu prĂ©cis restent incertains. En outre, il ne sâappliquerait pas Ă tous les cas dâutilisation de lâIA dans le secteur public. La proposition de lĂ©gislation sur lâIA dĂ©limite les responsabilitĂ©s des fabricants pour rendre lâIA Ă haut risque intelligible pour lâhomme (article 13), facilitant ainsi le droit Ă lâexplication. NĂ©anmoins, elle ne prĂ©voit aucune obligation pour les utilisateurs dâIA de justifier ou dâexpliquer leurs dĂ©cisions aux personnes concernĂ©es, et encore moins un droit correspondant pour les individus dâexiger de telles explications. Par consĂ©quent, Ă lâheure actuelle, lâarticle 41 de la Charte, ainsi que le principe gĂ©nĂ©ral de droit correspondant, offrent la meilleure protection du droit dâexiger une dĂ©cision motivĂ©e de la part des autoritĂ©s publiques de lâUE.
Le droit à réparation
Lâarticle 41 (3) garantit Ă toute personne le droit Ă la rĂ©paration des dommages causĂ©s par lâUnion « conformĂ©ment aux principes gĂ©nĂ©raux communs aux droits des Ătats membres ». Cette disposition fait Ă©cho Ă lâarticle 340(2) du TFUE, en vertu duquel la Cour a constamment statuĂ© que la responsabilitĂ© nâest engagĂ©e que pour des violations jugĂ©es suffisamment graves, ce qui signifie que lâautoritĂ© en question a fait preuve dâune « mĂ©connaissance manifeste et grave [âŠ] des limites qui sâimposent Ă son pouvoir dâapprĂ©ciation » (Bergaderm, paragraphe 4314).
Le point dĂ©cisif est de savoir comment la dĂ©cision dâutiliser des outils numĂ©riques tels que lâIA pour soutenir la prise de dĂ©cision affecterait lâĂ©valuation de la gravitĂ© de lâerreur commise par une autoritĂ©. La CJUE a prĂ©cĂ©demment dĂ©terminĂ© que le fait de se fier raisonnablement Ă lâĂ©valuation dâune autre autoritĂ© constitue un facteur pertinent (voir, par exemple, British Telecommunications, paragraphe 4315 et Robins, paragraphe 8116). Il reste Ă voir si ce principe â selon lequel les autoritĂ©s peuvent faire confiance Ă des sources dâinformation spĂ©cifiques sans vĂ©rification â est applicable dans le contexte numĂ©rique et, dans lâaffirmative, dans quelles conditions. Une telle situation augmenterait considĂ©rablement le degrĂ© auquel les dĂ©cisions fondĂ©es sur les recommandations dâun systĂšme dâIA peuvent ĂȘtre considĂ©rĂ©es comme suffisamment graves par la CJUE pour engager la responsabilitĂ© de lâĂtat. Par consĂ©quent, les perspectives de contester avec succĂšs de telles dĂ©cisions pourraient ĂȘtre minces.
En septembre 2022, la Commission europĂ©enne a proposĂ© une Directive sur la responsabilitĂ© en matiĂšre dâIA dans le but dâadapter les rĂšgles de responsabilitĂ© extracontractuelle pour rĂ©pondre aux dĂ©fis uniques posĂ©s par les systĂšmes dâIA. Cette directive introduirait des rĂšgles de divulgation et des prĂ©somptions rĂ©futables pour contrer les difficultĂ©s de preuve que les victimes de dommages causĂ©s (partiellement) par lâIA peuvent rencontrer, notamment en raison de la complexitĂ© et de lâopacitĂ© de certains systĂšmes dâIA. La directive ne modifie pas directement les rĂšgles de responsabilitĂ© Ă©noncĂ©es Ă lâarticle 340 du TFUE ou, par extension, Ă lâarticle 41(3) de la Charte. Toutefois, elle pourrait Ă©ventuellement influencer le rĂ©gime de responsabilitĂ© civile de lâUE en influençant les « principes gĂ©nĂ©raux communs aux droits des Ătats membres », qui constituent le fondement de lâarticle 340 du TFUE. En outre, le raisonnement qui justifie cette directive pourrait guider lâĂ©laboration dâune approche plus appropriĂ©e de la responsabilitĂ© en matiĂšre dâIA, notamment en ce qui concerne les dommages causĂ©s par lâadministration de lâUE grĂące Ă lâutilisation de systĂšmes dâIA.
La transparence
Le principe de transparence est intimement liĂ© au droit Ă une bonne administration. Certains droits mentionnĂ©s Ă lâarticle 41 sont intrinsĂšquement liĂ©s aux droits Ă la transparence eux-mĂȘmes, notamment lâarticle 41(2)(b), qui garantit Ă toute personne lâaccĂšs Ă son dossier, ainsi que le droit Ă une dĂ©cision motivĂ©e. Toutefois, au-delĂ de ces droits spĂ©cifiques, le principe de transparence, qui est prĂ©sentĂ© comme un objectif gĂ©nĂ©ral de lâUE dans lâensemble des traitĂ©s, est une condition prĂ©alable fondamentale pour une bonne administration.
Dans le paysage numĂ©rique, lâopacitĂ© des algorithmes â quâelle rĂ©sulte des droits de propriĂ©tĂ© intellectuelle, dâun manque de connaissances spĂ©cialisĂ©es ou des caractĂ©ristiques de lâalgorithme lui-mĂȘme â pose un sĂ©rieux dĂ©fi au principe de transparence. Alors quâune grande partie du dĂ©bat sâest axĂ©e sur les droits dâexplication, une question pressante est de savoir si le principe de transparence nĂ©cessiterait des droits beaucoup plus larges17, tels que lâaccĂšs aux jeux de donnĂ©es dâapprentissage, aux codes sources ou Ă dâautres informations relatives Ă lâalgorithme lui-mĂȘme.
La lĂ©gislation spĂ©cifique au secteur numĂ©rique intĂšgre souvent des droits explicites liĂ©s Ă la transparence. Par exemple, le RGPD Ă©nonce plusieurs droits Ă lâinformation. Il sâagit notamment du droit Ă lâinformation concernant lâexistence et les implications de la prise de dĂ©cision automatisĂ©e, ainsi que « la logique sous-jacente » (article 13 du RGPD). La proposition de lĂ©gislation sur lâIA nĂ©cessite un certain niveau de transparence algorithmique, mais uniquement pour permettre aux utilisateurs du systĂšme dâinterprĂ©ter les algorithmes (article 13 de la lĂ©gislation sur lâIA). Les personnes concernĂ©es par lâutilisation effective des algorithmes nâont quâun droit limitĂ© : celui dâĂȘtre informĂ©es lorsquâelles interagissent avec un algorithme plutĂŽt quâavec un ĂȘtre humain (article 52 de la lĂ©gislation
sur lâIA). Le principe de transparence, associĂ© au droit Ă une bonne administration, y compris le droit dâaccĂšs Ă ses propres dossiers, peut constituer une base juridique plus solide pour Ă©tendre des droits plus larges aux destinataires des dĂ©cisions algorithmiques administratives.
Conclusion
Le droit Ă une bonne administration a une valeur significative dans la rĂ©gulation de lâutilisation de la technologie par lâadministration de lâUE. En particulier, en garantissant que les individus sont entendus et que les dĂ©cisions administratives sont motivĂ©es, il fonctionne comme un outil permettant dâexercer le droit Ă un recours effectif en vertu de lâarticle 47 de la Charte.
NĂ©anmoins, son importance va bien au-delĂ de ce rĂŽle instrumental. Lâarticle 41 de la Charte Ă©tablit les conditions dâune prise de dĂ©cision administrative qui assure un juste Ă©quilibre entre les intĂ©rĂȘts de la sociĂ©tĂ© et les intĂ©rĂȘts individuels. Cet Ă©quilibre est particuliĂšrement important Ă la lumiĂšre des profondes mutations de lâadministration publique induites par lâutilisation croissante des technologies numĂ©riques, en particulier lorsque ces technologies sont dĂ©veloppĂ©es et commercialisĂ©es par des entitĂ©s privĂ©es. Il est important de noter que le fait de garantir que les dĂ©cisions administratives sont motivĂ©es et Ă©quitables augmente Ă©galement la probabilitĂ© que les dĂ©cisions qui en rĂ©sultent soient conformes Ă la loi. Cette conformitĂ© rĂ©duit la nĂ©cessitĂ© de recourir Ă des litiges coĂ»teux devant des institutions judiciaires dĂ©jĂ surchargĂ©es. Par consĂ©quent, le droit Ă une bonne administration joue un rĂŽle essentiel pour garantir que lâadoption de nouvelles technologies ne porte pas atteinte Ă la justice administrative et, plus largement, Ă lâĂtat de droit.

Nawal Mustafa, Public Interest Litigation Project (PILP)
Introduction
En dĂ©cembre 2009, la Charte des droits fondamentaux de lâUnion europĂ©enne (la Charte) est entrĂ©e en vigueur concomitamment avec le TraitĂ© de Lisbonne. GrĂące Ă cette Charte, les droits fondamentaux qui Ă©taient Ă©parpillĂ©s dans divers documents juridiques nationaux et internationaux ont Ă©tĂ© rassemblĂ©s en un seul document constituant la norme commune unique rĂ©gissant les droits fondamentaux en Europe. La Charte est lâune des principales sources du droit europĂ©en. Les articles 51 Ă 54 prĂ©cisent les critĂšres selon lesquels lâon peut faire appel Ă la Charte et la maniĂšre dont les dispositions de la Charte doivent ĂȘtre interprĂ©tĂ©es. Un aspect important de la Charte est le fait quâelle ne peut ĂȘtre invoquĂ©e que dans les cas oĂč les Ătats membres et les institutions de lâUE mettent en Ćuvre le droit europĂ©en. En tant que lâun des principaux instruments du droit europĂ©en, la Charte joue plusieurs rĂŽles. PremiĂšrement, en tant que principe gĂ©nĂ©ral du droit de lâUE, elle peut ĂȘtre utilisĂ©e comme outil dâinterprĂ©tation puisque les lois nationales et le droit dĂ©rivĂ© de lâUE dans le champ dâapplication du droit de lâUE doivent ĂȘtre interprĂ©tĂ©s Ă sa lumiĂšre. DeuxiĂšmement, elle fonctionne comme un instrument de contrĂŽle juridictionnel, ce qui signifie que la Cour de justice de lâUnion europĂ©enne (CJUE) a le pouvoir dâĂ©valuer la compatibilitĂ© des lois, des actes et des mesures avec les droits fondamentaux garantis par la Charte. Ainsi, la CJUE peut annuler toute loi nationale entrant dans le champ dâapplication du droit de lâUE qui porte atteinte aux droits fondamentaux Ă©noncĂ©s par la Charte. TroisiĂšmement, celle-ci sert Ă©galement de plateforme pour lâexpression et la promotion des principes gĂ©nĂ©raux Ă©volutifs du droit de lâUE. Cet article examine lâaction en justice contre lâutilisation par le gouvernement nĂ©erlandais du programme « System Risk Indication (SyRI) » tout en montrant comment lâarticle 47 et les diffĂ©rents rĂŽles de la Charte peuvent ĂȘtre utilisĂ©s dans le contexte des droits numĂ©riques. Ătant donnĂ© que ce systĂšme traite des donnĂ©es Ă caractĂšre personnel, il favorise le profilage et peut potentiellement porter atteinte aux droits fondamentaux des personnes. Il devait donc ĂȘtre soumis Ă un certain nombre de garanties fondĂ©es sur la Charte et sur dâautres textes lĂ©gislatifs de lâUE visant Ă rĂ©glementer le traitement des donnĂ©es, tout en limitant les atteintes aux droits Ă©noncĂ©s aux articles 7 et 8 de la Charte. Les avancĂ©es et les innovations technologiques rapides ont bouleversĂ© les modes de fonctionnement de nos sociĂ©tĂ©s et de nos institutions. Les mĂ©thodes de travail classiques sont devenues presque obsolĂštes en raison de lâĂ©volution des technologies de lâinformation, de la numĂ©risation continue de presque tous les aspects de la vie publique et privĂ©e, ainsi que de lâaugmentation actuelle de lâutilisation de lâintelligence artificielle. Par consĂ©quent, les dĂ©cideurs et les lĂ©gislateurs tirent profit de la disponibilitĂ© des donnĂ©es numĂ©riques issues de lâutilisation des appareils technologiques par les citoyens. Le travail fondĂ© sur les donnĂ©es et lâutilisation croissante de lâintelligence artificielle ont apportĂ© de nombreux avantages, mais ils ont malheureusement Ă©galement eu de nombreuses consĂ©quences nĂ©gatives qui nĂ©cessitent dâĂȘtre examinĂ©es de maniĂšre plus approfondie. Parmi les consĂ©quences nĂ©gatives liĂ©es Ă ces dĂ©veloppements technologiques, on peut citer la perte dâemplois due Ă lâautomatisation, lâaccroissement des inĂ©galitĂ©s en matiĂšre de revenus, la perte de la sphĂšre privĂ©e, le racisme numĂ©rique et ce que certains chercheurs ont appelĂ© « lâesclavage numĂ©rique ».1 La reconnaissance et lâattĂ©nuation des inconvĂ©nients potentiels des dĂ©veloppements technologiques revĂȘtent une importance capitale afin de garantir une rĂ©partition Ă©quitable des avantages. En outre, les cadres juridiques et Ă©thiques nĂ©cessaires pour limiter les consĂ©quences nĂ©gatives de lâutilisation des technologies par les pouvoirs publics sont pratiquement inexistants. Cependant, de nombreuses lĂ©gislations existantes peuvent ĂȘtre utilisĂ©es de maniĂšre Ă rĂ©duire et Ă prĂ©venir les dommages causĂ©s par lâutilisation des technologies en Ă©largissant leur champ dâapplication.
Diverses sources juridiques de lâUE sont pertinentes dans le contexte des droits numĂ©riques, du traitement des donnĂ©es et de la protection des donnĂ©es.2 Lâobjectif de cet article est de rĂ©flĂ©chir Ă la maniĂšre dont lâarticle 47 de la Charte, qui concerne le droit Ă un recours effectif et Ă accĂ©der Ă un tribunal impartial, peut ĂȘtre appliquĂ© aux contextes numĂ©riques. Le prĂ©sent article est divisĂ© en deux parties. La premiĂšre partie traite de la question du System Risk Indication (SyRI) dans son ensemble et rĂ©flĂ©chit Ă la pertinence de cette question Ă la lumiĂšre de lâarticle 47. La seconde partie aborde le champ dâapplication de lâarticle 47 et tente de mettre en Ă©vidence les aspects qui deviennent pertinents dans le contexte numĂ©rique. Enfin, une conclusion certes brĂšve mais concise souligne les possibilitĂ©s offertes par lâarticle 47 en matiĂšre de protection contre les violations des droits numĂ©riques.
âLa protection et la jouissance des droits fondamentaux passent par des recours juridiques efficaces qui fournissent aux victimes de violations de donnĂ©es les outils dont elles ont besoin pour sauvegarder leurs droits.â
System Risk Indication (SyRI) (SystĂšme dâindication des risques)
Le gouvernement nĂ©erlandais a utilisĂ© le systĂšme SyRI dans ses efforts pour lutter contre et prĂ©venir la fraude Ă la sĂ©curitĂ© sociale, le travail illĂ©gal et la fraude fiscale.3 Ce systĂšme Ă©tait basĂ© sur ce que lâon appelle les Landelijke Stuurgroep Interventieteams (LSI), qui consistaient en une collaboration Ă©troite entre diffĂ©rentes municipalitĂ©s, le ministĂšre des Affaires sociales et de lâEmploi, la police, le ministĂšre public, les services dâimmigration et les autoritĂ©s sociales et fiscales. Dans ce cadre de collaboration,4 lâĂ©change et lâanalyse de donnĂ©es numĂ©riques Ă caractĂšre personnel Ă©taient essentiels pour la prĂ©vention, la dĂ©tection et lâinvestigation de la fraude et dâautres activitĂ©s illicites. Les donnĂ©es recueillies par le LSI, les projets et expĂ©riences qui en dĂ©coulent et les mĂ©thodologies employĂ©es par le LSI, y compris lâutilisation du systĂšme de la « boĂźte noire », ont Ă©tĂ© Ă la base du systĂšme SyRI.5
SyRI a Ă©tĂ© inscrit dans la loi en 2014 par le biais des articles 64 et 65 de la Loi SUWI, tandis que le chapitre 5a du DĂ©cret SUWI Ă©tablit les rĂšgles et les procĂ©dures dâapplication.6 Le ministĂšre des affaires sociales et de lâemploi est responsable de lâutilisation du SyRI. La crĂ©ation dâune base juridique pour SyRI avait pour objectif principal le renforcement de lâapproche rigoureuse de la lutte contre la fraude aux prestations sociales en tirant parti des technologies numĂ©riques et de lâanalyse des donnĂ©es. Les lĂ©gislateurs et les dĂ©cideurs politiques au sein du gouvernement nĂ©erlandais prĂ©voyaient Ă©galement quâen lĂ©gifĂ©rant sur SyRI, les prĂ©occupations de longue date soulevĂ©es par les organismes de rĂ©glementation concernant les violations des droits Ă la vie privĂ©e et Ă la protection des donnĂ©es devraient ĂȘtre dĂ©finitivement rĂ©solues.
Dans le cadre de cet article, lâaffaire SyRI est importante Ă plusieurs titres. Tout dâabord, câest lâune des premiĂšres affaires ayant fondamentalement remis en question lâutilisation systĂ©matique et autorisĂ©e par la loi de technologies numĂ©riques dans le cadre de lâĂtat-providence pour la prĂ©vention et la dĂ©tection de la fraude Ă lâaide sociale sur la base de considĂ©rations relatives aux droits humains.7 DeuxiĂšmement, cette affaire a montrĂ© que les technologies de surveillance de masse telles que SyRI ont tendance Ă cibler de maniĂšre disproportionnĂ©e les quartiers pauvres et dĂ©favorisĂ©s oĂč les groupes marginalisĂ©s sont les plus nombreux.8 TroisiĂšmement, lâimplication dâun groupe diversifiĂ© dâorganisations de la sociĂ©tĂ© civile dans les procĂ©dures judiciaires contre SyRI reflĂšte une inquiĂ©tude gĂ©nĂ©ralisĂ©e quant Ă la probabilitĂ© que de tels systĂšmes empiĂštent sur les droits de tous.9 La façon dont diffĂ©rentes organisations ont collaborĂ© Ă la procĂ©dure judiciaire pour lutter contre le systĂšme SyRI est inspirante du point de vue de lâaccĂšs aux recours juridiques et Ă un jugement impartial.
Les cas dâatteinte Ă la confidentialitĂ© des donnĂ©es tels que celui de SyRI causent de nombreux prĂ©judices matĂ©riels et immatĂ©riels pour lesquels les victimes devraient pouvoir rĂ©clamer des dommages et intĂ©rĂȘts. Certains de ces prĂ©judices, tels que la dĂ©pression, les troubles anxieux et le syndrome de stress post-traumatique, entrent dans les catĂ©gories officielles du cinquiĂšme Manuel diagnostique et statistique des troubles mentaux (DSM 5). Dâautres prĂ©judices, comme le prĂ©judice Ă©motionnel, le stress ou lâatteinte au nom et Ă la rĂ©putation, peuvent ĂȘtre considĂ©rĂ©s comme des dommages psychologiques susceptibles dâentraĂźner des troubles mentaux. La protection et la jouissance des droits fondamentaux passent par des recours juridiques efficaces qui fournissent aux victimes de violations de donnĂ©es les outils nĂ©cessaires Ă la sauvegarde de leurs droits.
Les
principes et le champ dâapplication
de lâarticle 47 de la Charte
Lorsque lâon fait appel Ă lâarticle 47, la premiĂšre Ă©tape consiste Ă dĂ©terminer si la Charte sâapplique au regard du critĂšre Ă©noncĂ© Ă lâarticle 51 (1) de la Charte.10 Si tel est le cas, une protection juridique effective doit ĂȘtre assurĂ©e par les Ătats membres puis les institutions, organes et organismes de lâUnion europĂ©enne lorsquâils mettent en Ćuvre le droit de lâUnion.11 Le droit Ă un recours effectif et Ă accĂ©der Ă un tribunal impartial sont des principes gĂ©nĂ©raux essentiels du droit europĂ©en. La Cour de justice de lâUnion europĂ©enne applique par consĂ©quent ces dispositions de maniĂšre large et gĂ©nĂ©rale afin dâassurer aux individus tant une protection juridique adĂ©quate quâun accĂšs Ă la justice appropriĂ©.12 Les mesures administratives et procĂ©durales entrent dans le champ dâap-
plication de lâarticle 47.13 Les Ătats membres doivent garantir Ă la fois un accĂšs effectif aux voies de recours et des tribunaux indĂ©pendants et impartiaux afin que les individus puissent remettre en question les violations de leurs droits et demander rĂ©paration.
Les droits Ă©noncĂ©s Ă lâarticle 47 correspondent aux droits Ă©noncĂ©s aux articles 6 et 13 de la Convention europĂ©enne des droits de lâhomme et Ă leur interprĂ©tation par la Cour europĂ©enne des droits de lâhomme. Par consĂ©quent, lâarticle 47 doit ĂȘtre interprĂ©tĂ© dans lâesprit de ces dispositions ainsi que dâautres droits de la Charte, la lĂ©gislation de lâUE et les dispositions internationales en matiĂšre de droits humains. En outre, lâune des principales caractĂ©ristiques de lâarticle 47 est que son application et son interprĂ©tation doivent privilĂ©gier et promouvoir la rĂ©alisation et la protection des droits fondamentaux.
Lâun des moyens pour y parvenir est le principe de lâefficacitĂ© minimale, qui exige que les rĂšgles nationales ne rendent pas lâexercice des droits de lâUE impossible en pratique (effectivitĂ©) et ne soient pas moins favorables que celles qui rĂ©gissent des actions similaires au niveau national (Ă©quivalence).14 Bien que les exigences dâeffectivitĂ© et dâĂ©quivalence se concentrent gĂ©nĂ©ralement sur les rĂšgles de procĂ©dure nationales, elles peuvent Ă©galement sâappliquer Ă lâinterprĂ©tation du droit matĂ©riel tel que les droits consacrĂ©s par les articles 7 et 8 de la Charte. En outre, lâarticle 47 exige que les tribunaux dĂ©terminent, dans chaque affaire quâils examinent, si des voies de recours effectives sont disponibles.
Selon la CJUE, il y a violation du principe dâeffectivitĂ© lorsque les autoritĂ©s refusent lâaccĂšs Ă des donnĂ©es pertinentes pour les faits dâune affaire.
Chaque fois quâun Ătat membre ou les institutions de lâUE semblent limiter les protections accordĂ©es par le droit Ă un recours effectif et Ă accĂ©der Ă un tribunal impartial, le contrĂŽle de proportionnalitĂ© garantit lâ(il)lĂ©galitĂ© de la disposition. Selon les conditions qui lui sont associĂ©es, la limitation en question doit ĂȘtre nĂ©cessaire, raisonnable et proportionnĂ©e Ă la rĂ©alisation dâun objectif lĂ©gitime. Toute restriction des droits Ă©noncĂ©s dans cet article doit donc ĂȘtre concrĂšte et ne pas aller au-delĂ de ce qui est nĂ©cessaire pour protĂ©ger lâintĂ©rĂȘt public ou dâautres droits.
Les aspects nĂ©gatifs du travail fondĂ© sur les donnĂ©es et lâutilisation de lâIA par les autoritĂ©s modifient fondamentalement les dĂ©bats juridiques sur la protection des donnĂ©es, la vie privĂ©e et le droit Ă un recours effectif et Ă accĂ©der Ă un tribunal impartial. Dans les cas de violation de donnĂ©es, lorsquâil sâagit de dĂ©terminer la proportionnalitĂ©, on peut faire valoir, sur la base de lâarticle 47, que la charge de la preuve devrait incomber aux autoritĂ©s qui collectent les donnĂ©es plutĂŽt quâaux individus dont les donnĂ©es sont collectĂ©es. La raison en est quâil serait quasiment impossible ou extrĂȘmement difficile pour les individus de sâopposer aux autoritĂ©s publiques qui collectent et utilisent leurs donnĂ©es Ă leur insu. Il est trĂšs difficile de prouver aux individus quels types de prĂ©judices immatĂ©riels rĂ©els ils subissent lorsque leurs droits fondamentaux sont violĂ©s.
Il nâexiste pas de jurisprudence spĂ©cifique traitant directement des droits numĂ©riques au titre de lâarticle 47. Toutefois, la CJUE a dĂ©veloppĂ© une solide jurisprudence concernant les prĂ©judices numĂ©riques conformĂ©ment aux articles 7 et 8.15 Cette jurisprudence peut fournir des indications sur la maniĂšre dont lâarticle 47 peut ĂȘtre appliquĂ© et interprĂ©tĂ© dans le contexte des droits numĂ©riques.
Conclusion
La collecte et le traitement des donnĂ©es Ă caractĂšre personnel sont rĂ©glementĂ©s au niveau europĂ©en. Toutefois, cet article examine les prĂ©occupations fondamentales soulevĂ©es dans lâaffaire SyRI, qui relĂšvent du champ dâapplication de lâarticle 47. Bien que lâaffaire nâait pas Ă©tĂ© portĂ©e devant la CJUE et que le litige ait principalement portĂ© sur le fait de dĂ©terminer si le systĂšme SyRI limitait illĂ©galement les droits consacrĂ©s par les articles 7 et 8, et si le contrĂŽle juridique prĂ©vu Ă lâarticle 47 constitue un moyen efficace pour les litiges Ă venir. Les tribunaux nationaux pourraient demander Ă la CJUE dâĂ©valuer si les lois qui permettent lâutilisation de systĂšmes tels que SyRI sont conformes aux droits consacrĂ©s par la Charte. En outre, les litiges fondĂ©s sur lâarticle 47 peuvent contribuer au dĂ©veloppement et Ă lâĂ©volution du droit europĂ©en dans le contexte des droits numĂ©riques en clarifiant son champ dâapplication, en renforçant la protection des droits fondamentaux et en promouvant lâĂtat de droit. Il peut servir de moyen puissant de dĂ©fense, en soulignant les violations des droits humains et en encourageant les rĂ©formes juridiques aux niveaux national et europĂ©en.
â...la CJUE a dĂ©veloppĂ© une solide jurisprudence concernant les prĂ©judices numĂ©riques au regard des articles 7 et 8. Cette jurisprudence peut fournir des indications sur la maniĂšre dont lâarticle 47 peut ĂȘtre appliquĂ© et interprĂ©tĂ© dans le contexte des droits numĂ©riques.â
Divij Joshi, University College London
Introduction
Dans son Rapport phare de 2019 aux Nations Unies, Philip Alston, Rapporteur SpĂ©cial sur lâExtrĂȘme PauvretĂ©, a fait une dĂ©claration choc en guise dâavertissement : « lâhumanitĂ© [âŠ] doit Ă©viter de sâengager sans rĂ©flĂ©chir, tels des automates, sur la voie dâun monde de dystopie numĂ©rique de sĂ©curitĂ© sociale ».1 Cette dĂ©claration percutante est la conclusion dâune Ă©tude pionniĂšre sur lâintĂ©gration mondiale des technologies numĂ©riques Ă©mergentes telles que la biomĂ©trie, le traitement informatisĂ© des donnĂ©es et les systĂšmes algorithmiques de prise de dĂ©cision dans lâadministration de la sĂ©curitĂ© sociale et de lâaide sociale. Les conclusions du rapport rĂ©vĂšlent que lâutilisation des technologies numĂ©riques dans lâadministration de la sĂ©curitĂ© sociale se traduisait souvent par des pratiques susceptibles de porter atteinte aux droits de lâhomme, notamment aux droits Ă la sĂ©curitĂ© sociale, Ă une vie digne et au respect de la vie privĂ©e.
MalgrĂ© ce rapport alarmant, les gouvernements du monde entier, y compris ceux de lâUnion europĂ©enne (UE), nâont pas tenu compte de lâappel du rapporteur spĂ©cial Ă une plus grande introspection dans lâadoption des technologies numĂ©riques au service de la sĂ©curitĂ© sociale. Cet article est une Ă©tude de la maniĂšre dont les Ătats membres de lâUE ont utilisĂ© les technologies numĂ©riques basĂ©es sur les donnĂ©es et les algorithmes dans la conception et la mise en Ćuvre de leurs systĂšmes de sĂ©curitĂ© sociale et dâaide sociale. Cet article examine Ă©galement les prĂ©judices potentiels et rĂ©els que revĂȘtent ces systĂšmes, tout en Ă©valuant le rĂŽle de la Charte des droits fondamentaux de lâUE (« la Charte »), en particulier lâarticle 34 sur la sĂ©curitĂ© sociale, dans lâĂ©valuation de la lĂ©galitĂ© et de la lĂ©gitimitĂ© des systĂšmes dâaide sociale numĂ©riques.
Aide social numĂ©rique au sein de lâUE
Lâadministration de la sĂ©curitĂ© sociale intĂšgre depuis longtemps des processus assistĂ©s par ordinateur et de traitement numĂ©rique de lâinformation. Toutefois, cette « numĂ©risation » de lâadministration de la sĂ©curitĂ© sociale sâest poursuivie plus rigoureusement ces derniĂšres annĂ©es, parallĂšlement Ă lâessor de lâinformatisation et de lâInternet, entraĂźnant des changements majeurs dans la maniĂšre dont les Ătats remplissent leurs obligations en matiĂšre de sĂ©curitĂ© sociale. DĂ©sireux dâadopter de nouvelles technologies basĂ©es sur les donnĂ©es pour amĂ©liorer leurs capacitĂ©s de gouvernance, les gouvernements se sont efforcĂ©s de rendre leurs citoyens plus « lisibles » et donc plus gouvernables. Cependant, comme lâont notĂ© plusieurs auteurs, la lisibilitĂ© accrue offerte par la datafication et la numĂ©risation se fait souvent au prix dâune surveillance accrue,2 dâexpĂ©rimentations basĂ©es sur la population3 et dâune dĂ©pendance excessive Ă lâĂ©gard de mĂ©thodologies statistiques potentiellement erronĂ©es.4
La recherche empirique suggĂšre une tendance croissante Ă la numĂ©risation du secteur de la protection sociale dans lâUE, qui se manifeste Ă des degrĂ©s et sous des formes variables. Par exemple, plusieurs Ă©tudes ont montrĂ© comment le Danemark, les Pays-Bas, le Portugal, la France et la Pologne ont mis en Ćuvre des systĂšmes algorithmiques pour lutter contre la « fraude sociale » dans des secteurs tels que la fiscalitĂ©, les prestations sociales universelles, les soins de santĂ© et lâĂ©ducation. Ces systĂšmes traitent les donnĂ©es personnelles pour Ă©tablir des scores et des classifications fondĂ©s sur le risque, qui sont utilisĂ©s pour prĂ©dire la probabilitĂ© dâune fraude aux prestations sociales dans un scĂ©nario donnĂ©.5 Trelleborg, une municipalitĂ© suĂ©doise, a mis en place un systĂšme ambitieux visant à « entiĂšrement automatiser » les demandes et les droits en matiĂšre dâaide sociale. Il sâagissait notamment dâutiliser des systĂšmes algorithmiques fondĂ©s sur des rĂšgles pour traiter les donnĂ©es des citoyens et dĂ©terminer lâĂ©ligibilitĂ© Ă des prestations telles que lâaide financiĂšre.6 En SlovĂ©nie, la numĂ©risation a Ă©tĂ© mise Ă profit pour crĂ©er des profils complets de citoyens afin dâaccroĂźtre la lisibilitĂ©. Cela a permis dâamĂ©liorer la visibilitĂ© sur la façon dont les citoyens utilisent les services sociaux dans diffĂ©rents domaines et est donc utilisĂ© pour mettre en place la politique de sĂ©curitĂ© sociale.7
Le processus dâadaptation et de transformation numĂ©rique a entraĂźnĂ© une augmentation de lâexclusion des systĂšmes de sĂ©curitĂ© sociale et dâaide sociale par le biais de la technologie, un problĂšme que les Ătats nâont pas rĂ©ussi Ă rĂ©soudre de maniĂšre appropriĂ©e. Le cas du Systeem Risico Indicatie (SyRI), un systĂšme de calcul des risques basĂ© sur des donnĂ©es mis en oeuvre par le gouvernement nĂ©erlandais, est un exemple probant de la maniĂšre dont de tels systĂšmes de traitement des donnĂ©es peuvent mettre en pĂ©ril la sĂ©curitĂ© sociale. SyRI a reliĂ© les donnĂ©es des citoyens Ă travers les agences administratives et a servi de base Ă des modĂšles informatiques qui prĂ©disent le risque de fraude
âLa numĂ©risation des systĂšmes de protection sociale risque de rĂ©duire systĂ©matiquement la transparence des gouvernements, de favoriser la prise de dĂ©cisions arbitraires et discriminatoires et dâaffaiblir les garanties procĂ©durales contre les abus de pouvoir des gouvernements.â
Ă lâaide sociale. Toutefois, la nature des informations utilisĂ©es, le modĂšle de calcul des risques et les algorithmes de calcul nâont Ă©tĂ© ni rendus publics ni communiquĂ©s aux personnes concernĂ©es. En raison de ce manque de transparence, il Ă©tait possible que des personnes soient signalĂ©es pour des enquĂȘtes pour fraude sans explication suffisante. La lĂ©gislation et la mise en Ćuvre de SyRI ont ensuite Ă©tĂ© remis en question devant un tribunal civil nĂ©erlandais, qui a jugĂ© le systĂšme illĂ©gal au motif quâil violait divers droits garantis par la Convention europĂ©enne des droits de lâhomme, notamment le droit au respect de la vie privĂ©e.8 Cependant, malgrĂ© lâinjonction du tribunal contre SyRI, des enquĂȘtes ultĂ©rieures ont rĂ©vĂ©lĂ© que le gouvernement nĂ©erlandais avait continuĂ© Ă mener lâexpĂ©rience des systĂšmes numĂ©riques dâaide sociale prĂ©sentant des risques comparables, ce qui dĂ©montre lâenracinement profond des technologies numĂ©riques dans lâadministration de la sĂ©curitĂ© sociale dans certains Ătats.9
Comme le montrent ces exemples, les technologies numĂ©riques sont largement utilisĂ©es dans les systĂšmes de prise de dĂ©cision automatisĂ©s, oĂč les rĂ©sultats remplacent ou complĂštent la prise de dĂ©cision humaine dans des tĂąches telles que lâidentification et lâauthentification des bĂ©nĂ©ficiaires de la sĂ©curitĂ© sociale, la dĂ©termination de lâĂ©ligibilitĂ© aux prestations, le calcul des montants des prestations et la dĂ©tection des fraudes.10 Le dĂ©ploiement de ces systĂšmes influence profondĂ©ment la relation entre les citoyens et lâĂtat et, par consĂ©quent, les droits fondamentaux des citoyens de lâUE.
La numĂ©risation des systĂšmes dâaide sociale risque de rĂ©duire systĂ©matiquement la transparence des gouvernements, de favoriser la prise de dĂ©cisions arbitraires et discriminatoires et de fragiliser les garanties procĂ©durales contre les abus de pouvoir des gouvernements. Ce problĂšme dĂ©coule en partie de la nature complexe de ces systĂšmes de traitement de lâinformation, qui peuvent ĂȘtre difficiles Ă comprendre ou Ă examiner, et qui ne sont souvent pas suffisamment documentĂ©s ou expliquĂ©s pour assurer transparence et reddition de compte.11 LâopacitĂ© de SyRI en est un exemple : le gouvernement nâa pas divulguĂ© les types de donnĂ©es personnelles utilisĂ©es pour Ă©tablir le profil des citoyens ni la maniĂšre dont ces profils ont Ă©tĂ© construits. Le traitement discriminatoire et arbitraire des donnĂ©es constitue un autre risque potentiel.12 Par exemple, en Autriche, un programme dâallocation dâaide Ă lâemploi aurait attribuĂ© des notes infĂ©rieures Ă des personnes en fonction de leur identitĂ© sexuelle et de leur statut de personne en situation de handicap, compromettant potentiellement leur capacitĂ© Ă faire des demandes dans le cadre de ce programme.13 Cela souligne le fait que les systĂšmes numĂ©riques dâaide sociale peuvent utiliser les donnĂ©es de maniĂšre discriminatoire, que ce soit ouvertement ou par le biais de proxys. En outre, ces systĂšmes sont souvent mis en Ćuvre dans des contextes oĂč il nây a pas de reddition de compte ou de contrĂŽle appropriĂ© et systĂ©matique. Cela signifie que des personnes peuvent perdre leur accĂšs Ă la sĂ©curitĂ© sociale sans notification prĂ©alable ni possibilitĂ© de prendre part aux dĂ©cisions concernant leurs droits, de faire appel ou de contester ces derniĂšres.14
Article 34 et droit à la sécurité sociale
La Charte, contraignante pour tous les Ătats membres de lâUE, stipule clairement un droit Ă la sĂ©curitĂ© sociale dans lâarticle 34 sur la solidaritĂ©. La portĂ©e et lâapplicabilitĂ© de lâarticle 34 en tant que droit Ă la sĂ©curitĂ© sociale sont spĂ©cifiĂ©es comme Ă©tant « conformes [au] droit communautaire et [aux] lĂ©gislations et pratiques nationales ». Cet article doit ĂȘtre interprĂ©tĂ© dans le mĂȘme esprit que les articles 51 et 52 de la Charte, ainsi que le traitĂ© sur le fonctionnement de lâUnion europĂ©enne (TFUE). Dans ce contexte, lâarticle 34 nâest pertinent que pour la mise en Ćuvre du droit europĂ©en ou dans les domaines de compĂ©tence lĂ©gislative de lâUnion. Les articles 34 (1) et 34 (3) de la Charte servent de principes directeurs, plutĂŽt que de prescriptions, pour lâUE et ses institutions, et imposent que toute mise en Ćuvre de la lĂ©gislation de lâUE soit conforme Ă leurs exigences. Actuellement, Ă©tant donnĂ© quâaucune lĂ©gislation de lâUnion ne stipule de prestations minimales de sĂ©curitĂ© sociale, seul lâarticle 34 (2) prĂ©voit un droit subjectif pour toute personne qui « rĂ©side et se dĂ©place lĂ©galement » au sein de lâUE. NĂ©anmoins, le droit prĂ©vu Ă lâarticle 34 (2) est effectivement limitĂ© par le RĂšglement 883/2004 qui coordonne les systĂšmes de sĂ©curitĂ© sociale dans les Ătats membres et y est incorporĂ©. Ainsi, comme le soulignent certains auteurs, lâarticle 34 ne prĂ©voit pas en son sein de droit opposable aux instruments ou Ă lâadministration de sĂ©curitĂ© sociale par des Ătats membres, par exemple pour rĂ©clamer des droits minimaux en matiĂšre de logement, dâemploi ou dâassistance sociale. Toutefois, dans le contexte de lâintelligence artificielle, lâAgence europĂ©enne des droits fondamentaux interprĂšte lâarticle 34 (1) de la Charte comme offrant une protection contre les mesures restreignant ou abolissant les droits de sĂ©curitĂ© sociale existants.15
La jurisprudence de la Cour de justice de lâUnion europĂ©enne nâapporte que trĂšs peu de prĂ©cisions quant Ă lâinterprĂ©tation du champ dâapplication de lâarticle 34. Lâarticle 34 (1) nâa pas fait lâobjet dâune analyse approfondie de sa part. Toutefois, selon les conclusions de lâavocat gĂ©nĂ©ral Mengozi dans les affaires Melchior et Wojciechowski, lâarticle 34 (1) ne peut servir que de « rĂ©fĂ©rences interprĂ©tatives ou paramĂštres du contrĂŽle de la lĂ©galitĂ© » des actes de transposition. Dans des affaires comme Melchior, Wojciechowski et Dano, la CJUE a jugĂ© la Charte inapplicable car les affaires concernaient la lĂ©gislation nationale et non le droit de lâUnion. Dans lâaffaire Kamberaj, qui concernait le refus dâune aide au logement Ă un ressortissant dâun pays tiers, la CJUE a nĂ©anmoins invoquĂ© lâarticle 34 (3) afin dâinterprĂ©ter la Directive 2003/109 de lâUE, qui dĂ©finit les droits des ressortissants de pays tiers. Cette directive prĂ©voit que les Ătats doivent respecter lâĂ©galitĂ© de traitement dans lâoctroi des prestations essentielles de la protection sociale. Dans le contexte de lâarticle 34 (3), la Cour a interprĂ©tĂ© le terme « prestations essentielles » comme Ă©tant celles qui rĂ©pondent Ă lâobjectif de protection de la sĂ©curitĂ© sociale au titre de lâarticle 34 (3) et qui « assurent une existence digne Ă tous ceux qui ne disposent pas de ressources suffisantes ». Certains auteurs ont Ă©galement notĂ© que des dispositions non spĂ©cifiques de la Charte ont Ă©tĂ© invoquĂ©es pour garantir les droits Ă la sĂ©curitĂ© sociale, comme le droit Ă la dignitĂ© Ă©noncĂ© Ă lâarticle 1.16 Dans lâensemble, bien quâil existe un certain dĂ©saccord quant au champ dâapplication de la Charte en ce qui concerne les mesures de sĂ©curitĂ© sociale,17 les dispositions de lâarticle 34 peuvent encore ĂȘtre interprĂ©tĂ©es de maniĂšre plus large que ce soit par la CJUE ou dans les dĂ©veloppements futurs concernant les droits Ă la sĂ©curitĂ© sociale au niveau de lâUnion europĂ©enne. MalgrĂ© les limites de lâarticle 34 en tant que droit justiciable Ă la sĂ©curitĂ© sociale dans lâUE, son utilitĂ© potentielle rĂ©side dans lâattĂ©nuation des effets nĂ©gatifs sur les individus des systĂšmes de protection sociale numĂ©riques et dans lâĂ©valuation de leur lĂ©galitĂ© dans le cadre plus large des droits fondamentaux de lâUE. En particulier, en mettant lâarticle 34 dans le contexte plus large des droits fondamentaux de lâUE et du droit international des droits humains, nous proposons quâun droit Ă la sĂ©curitĂ© sociale exige que les interventions numĂ©riques de lâĂtat dans les systĂšmes de protection sociale soient conformes aux obligations de transparence, de non-discrimination et dâabsence dâarbitraire. La reconnaissance dâun droit Ă la sĂ©curitĂ© sociale dans le droit international des droits humains, tel que lâarticle 9 du Pacte international relatif aux droits Ă©conomiques, sociaux et culturels,18 fournit des indications quant au contenu substantiel de ce droit au regard des dispositions des Ătats en matiĂšre de sĂ©curitĂ© sociale. Ainsi, le ComitĂ© des droits Ă©conomiques et sociaux des Nations unies a reconnu que le droit Ă la sĂ©curitĂ© sociale englobe la possibilitĂ© de bĂ©nĂ©ficier des prestations de sĂ©curitĂ© sociale sans discrimination, que ce soit en droit ou en fait ; la transparence quant aux conditions qui qualifient ou excluent les bĂ©nĂ©ficiaires, et le fait que ces conditions doivent ĂȘtre raisonnables et non arbitraires ; puis la possibilitĂ© pour les bĂ©nĂ©ficiaires de participer Ă lâadministration de la sĂ©curitĂ© sociale, par exemple en recevant des avis de dĂ©claration et dâautres informations sur leurs droits.
MĂȘme si lâinterprĂ©tation de lâarticle 34, en tant que droit justiciable de protection contre les prĂ©judices causĂ©s par les systĂšmes de protection sociale numĂ©riques, reste limitĂ©e, elle constitue un point de rĂ©fĂ©rence essentiel pour tester ces systĂšmes Ă©mergents. Quoi quâil en soit, les Ătats membres de lâUE doivent veiller Ă ce que leurs incursions dans les systĂšmes de protection sociale numĂ©rique soient conformes aux intentions et aux objectifs du droit Ă la sĂ©curitĂ© sociale, en luttant contre lâinsĂ©curitĂ©, lâopacitĂ© et la prĂ©caritĂ© que ces systĂšmes engendrent.
â...les Ătats membres de lâUE doivent veiller Ă ce que leurs incursions dans les systĂšmes de protection sociale numĂ©rique soient conformes aux intentions et aux objectifs du droit Ă la sĂ©curitĂ© sociale, en luttant contre lâinsĂ©curitĂ©, lâopacitĂ© et la prĂ©caritĂ© que ces systĂšmes engendrent.â
James Farrar, Worker Info Exchange
De nombreux syndicalistes font preuve dâun scepticisme avisĂ© Ă lâĂ©gard du droit, et pour cause, il suffit de se pencher sur lâhistoire de la criminalisation de la lutte des classes depuis la rĂ©volution industrielle.
Dans les annĂ©es 1830, six dirigeants dâun syndicat agricole Ă©mergent du sud de lâAngleterre ont Ă©tĂ© arrĂȘtĂ©s et condamnĂ©s Ă une peine de sept ans de dĂ©portation dans la colonie pĂ©nitentiaire dâAustralie. Le sort de ces martyrs de Tolpuddle a donnĂ© naissance au mouvement syndical moderne en Grande-Bretagne.
LâactivitĂ© syndicale Ă©tait considĂ©rĂ©e comme une conspiration criminelle et une entrave au commerce en Grande-Bretagne jusquâĂ lâadoption de la loi sur les syndicats de 18711 Cependant, mĂȘme aprĂšs cette adoption, le fait de tenir un piquet de grĂšve et de faire grĂšve est demeurĂ© un dĂ©lit pĂ©nal jusquâen 18752.
Aujourdâhui encore, les militants syndicaux sont confrontĂ©s Ă des situations similaires : une dichotomie oĂč la libertĂ© dâassociation est respectĂ©e, mais oĂč la libertĂ©, et a fortiori le droit de protester et de faire grĂšve, ne lâest absolument pas.3Câest ainsi que lâĂtat a bafouĂ© le droit de grĂšve pendant des gĂ©nĂ©rations. En 1972, vingt-deux syndicalistes britanniques ont Ă©tĂ© condamnĂ©s pour « conspiration en vue dâintimider » et emprisonnĂ©s aprĂšs avoir organisĂ© des grĂšves sur des chantiers de construction autour de Shrewsbury. En 2021, les condamnations ont finalement Ă©tĂ© annulĂ©es. En 1984, quatre-vingt-onze mineurs en grĂšve Ă Orgreave ont Ă©tĂ© inculpĂ©s dâĂ©meutes et de troubles violents, mais tous ont bĂ©nĂ©ficiĂ© dâun non-lieu aprĂšs la rĂ©vĂ©lation de bavures policiĂšres majeures dans ces affaires. Aujourdâhui, lâopposition de la part de lâĂtat se poursuit. La loi de 2022 sur la police, la criminalitĂ©, les peines et les tribunaux (Police, Crime Sentencing and Courts Act)4 applique de nouvelles sanctions pĂ©nales strictes au droit de manifester au Royaume-Uni, ce qui met en pĂ©ril les travailleurs en grĂšve et les manifestants. Ces derniers jours, nous avons assistĂ© Ă une rĂ©pression violente de la part de lâĂtat Ă lâencontre de travailleurs en grĂšve en France qui protestaient contre le recul de lâĂąge de dĂ©part Ă la retraite. Bien que la solidaritĂ© de classe soit un principe fondamental de la lutte pour les droits des travailleurs, les grĂšves de soutien restent illĂ©gales dans de nombreux pays de lâUE, comme câest le cas au Royaume-Uni.
Il en a toujours Ă©tĂ© ainsi. Force est de reconnaĂźtre la rĂ©alitĂ© historique selon laquelle les actions de grĂšve et les actions collectives sont menĂ©es dans le contexte dâun conflit de classe permanent entre la classe dirigeante capitaliste et la classe ouvriĂšre. Les droits et les libertĂ©s dont nous disposons ont Ă©tĂ© durement acquis, mais ils sont toujours strictement contrĂŽlĂ©s, modĂ©rĂ©s et rĂ©duits par la classe dirigeante. La bonne nouvelle, câest que la rĂ©volution permanente peut, doit et va se poursuivre malgrĂ© tout, car la lutte est loin dâĂȘtre terminĂ©e.
Les erreurs de classification et la rĂ©sistance du capital contre les travailleurs de lâĂ©conomie Ă la demande
La classification erronĂ©e au sein de l`Ă©conomie Ă la demande est le plus souvent associĂ©e aux employeurs de la plateforme qui utilisent des contrats malicieux avec les travailleurs pour les qualifier Ă tort d`entrepreneurs indĂ©pendants afin de se soustraire aux obligations d`emploi. Cependant, il existe dâautres effets tout aussi prĂ©judiciables aux intĂ©rĂȘts collectifs Ă long terme des travailleurs. Lorsque nous avons tentĂ© de crĂ©er lâApp Drivers & Couriers Union (ADCU) en 2020, nous avons immĂ©diatement Ă©tĂ© confrontĂ©s Ă trois obstacles Ă la reconnaissance de notre organisation par le rĂ©gulateur gouvernemental. Tout dâabord, il nous fallait prouver que nous menons dĂ©jĂ nos activitĂ©s en tant que syndicat avant de pouvoir ĂȘtre reconnu comme tel â un casse-tĂȘte Ă lâimage de celui de lâĆuf et de la poule. Ensuite, nous devions montrer que le syndicat agissait dans lâintĂ©rĂȘt collectif des travailleurs membres en rĂ©glementant la relation entre les employĂ©s et les employeurs tels quâUber. Cette tĂąche Ă©tait presque impossible, compte tenu de lâasymĂ©trie de pouvoir entre le syndicat et la puissance dâune sociĂ©tĂ© plateforme comme Uber ou Deliveroo et de leur refus absolu de reconnaĂźtre nos droits Ă la nĂ©gociation collective. Finalement, nous avons satisfait Ă la rĂ©glementation en dĂ©montrant une action collective suffisante au nom des travailleurs par le biais de la crĂ©ation de notre base de donnĂ©es pour les travailleurs, avec lâobjectif de renforcer le pouvoir de nĂ©gociation collective en rendant les revenus et la rĂ©partition du travail plus transparents pour les membres du syndicat.
Enfin, lors de la certification, le régulateur gouvernemental nous a prévenu que si nous ne parvenions pas à nous faire reconnaßtre en tant que travailleurs devant la Cour su-
â...malgrĂ© les droits et libertĂ©s de grĂšve et de nĂ©gociation collective en Europe, ces droits sont en pratique menacĂ©s...â
prĂȘme, notre certification syndicale serait rĂ©voquĂ©e. En effet, en vertu de la lĂ©gislation syndicale britannique, les syndicats doivent ĂȘtre composĂ©s principalement de travailleurs. Par consĂ©quent, si la classification erronĂ©e avait Ă©tĂ© maintenue en raison de la technicitĂ© de la loi, comme cela a Ă©tĂ© le cas jusquâĂ prĂ©sent pour les coursiers de Deliveroo, ceux qui ont le plus besoin de la protection syndicale de la collectivitĂ© en seraient privĂ©s. Dans lâĂ©tat actuel des choses, la classe dirigeante et les tribunaux considĂšrent de maniĂšre absurde que les coursiers de Deliveroo font partie de la classe capitaliste parce quâils ne sont pas encore reconnus comme des travailleurs. En effet, la loi reconnaĂźt gĂ©nĂ©ralement le droit de substitution comme un critĂšre essentiel pour dĂ©terminer si une personne est un travailleur ou un entrepreneur indĂ©pendant. Pour les chauffeurs fournissant des services de transport de passagers, une telle substitution est gĂ©nĂ©ralement strictement interdite par les conditions locales dâoctroi des licences de transport. Dans le secteur de la livraison de nourriture, le droit est offert non pas parce quâune externalisation plus poussĂ©e est souhaitable ou nĂ©cessaire dâun point de vue commercial, mais parce quâil sâagit dâun moyen de faire Ă©chouer les revendications en matiĂšre dâemploi. Lâeffet secondaire tragique est lâaugmentation de la prĂ©caritĂ© dans lâindustrie et des conditions dâesclavage moderne. Dans un cas examinĂ© par Worker Info Exchange, une demande dâaccĂšs aux donnĂ©es a rĂ©vĂ©lĂ© que 49 travailleurs Ă©taient liĂ©s Ă un seul compte bancaire sur la plateforme.
Pourtant, sans la protection limitĂ©e du statut de travailleur ou dâemployĂ©, les syndicats ou les groupes dâemployĂ©s se mettent en danger sâils entreprennent une action collective. En 2018, le syndicat GMB a Ă©tĂ© contraint dâabandonner son action de grĂšve contre un fournisseur de services de livraison dâAmazon aprĂšs avoir Ă©tĂ© menacĂ© dâune action en responsabilitĂ© dĂ©lictuelle visant Ă poursuivre les dommages rĂ©sultant de lâaction de grĂšve entreprise par des chauffeurs qui nâĂ©taient pas catĂ©gorisĂ©s comme travailleurs.5
De mĂȘme, en Espagne, les chauffeurs de taxi membres dâElite Taxi et de Taxi Project ont Ă©tĂ© menacĂ©s dâune amende de 120 000 euros aprĂšs le dĂ©pĂŽt dâune plainte selon laquelle leur action de protestation contre Uber constituait une restriction du commerce prĂ©judiciable Ă Uber.6 Sans statut dâemploi ou de travailleur, les travailleurs les plus prĂ©caires sont exposĂ©s Ă ces risques juridiques redoutables.
âDans le domaine de lâĂ©conomie Ă la demande, les erreurs de classification et la dĂ©sinformation ont brouillĂ© les pistes en ce qui concerne les progrĂšs vers la nĂ©gociation collective.â
Les grandes plateformes nâont pas tardĂ© Ă sâattirer les faveurs du gouvernement et de la classe dirigeante et Ă aligner leurs intĂ©rĂȘts sur les leurs. En Californie, les plateformes de cette Ă©conomie Ă la demande se sont alliĂ©es avec succĂšs pour faire pression en vue de lâinclusion dâune proposition sur les bulletins de vote lors dâune Ă©lection gĂ©nĂ©rale. Cette proposition Ă©tait en fait un rĂ©fĂ©rendum visant Ă isoler les travailleurs Ă la demande et Ă leur refuser les droits Ă lâemploi quâils avaient Ă©tablis devant les tribunaux en vertu de la lĂ©gislation de lâĂtat. Cette proposition cruelle a Ă©tĂ© couronnĂ©e de succĂšs, bien que la contestation juridique de sa constitutionnalitĂ© se poursuive.
En Europe, Uber et dâautres plateformes de covoiturage ont menĂ© une stratĂ©gie dâintĂ©gration poussĂ©e dans leur offre de systĂšmes de transport public de masse. Cela inclut non seulement les services de covoiturage, mais aussi les services de micromobilitĂ© tels que les scooters et les bicyclettes. Dans le mĂȘme temps, la puissance de lâintelligence des plateformes sâest avĂ©rĂ©e trĂšs prĂ©cieuse pour les forces de police et de renseignement7 ainsi que pour la planification stratĂ©gique du gouvernement central dans le cadre de sa riposte face Ă la crise Covid.8 Bien quâil reste encore du chemin Ă parcourir, il est facile de voir comment les entreprises de plateforme deviennent finalement non seulement trop grandes pour ĂȘtre rĂ©glementĂ©es, mais elles apparaissent Ă©galement indispensables Ă la sociĂ©tĂ© au point que les actions de grĂšve pourraient ĂȘtre limitĂ©es dans la mesure oĂč elles sont « prĂ©vues par la loi, constituent des mesures nĂ©cessaires dans une sociĂ©tĂ© dĂ©mocratique Ă la sĂ©curitĂ© nationale ou Ă la sĂ»retĂ© publique, Ă la dĂ©fense de lâordre et Ă la prĂ©vention du crime, Ă la protection de la santĂ© ou de la morale, ou Ă la protection des droits et libertĂ©s dâautrui. »
Ne vous y méprenez pas, malgré les droits et libertés de grÚve et de négociation collective en Europe, ces droits sont en pratique menacés. En 2022, le CongrÚs international des syndicats a signalé que le droit de grÚve était menacé en raison de la criminalisation accrue des grévistes, tandis que le droit de négociation collective subissait également une grave érosion.9
Dans le domaine de lâĂ©conomie Ă la demande, les erreurs de classification et la dĂ©sinformation ont brouillĂ© les pistes en ce qui concerne les progrĂšs vers la convention collective. En 2021, Uber a conclu un accord de reconnaissance avec le syndicat GMB.10 Cet accord ne prĂ©voit pas de convention collective pour rĂ©soudre le problĂšme des bas salaires persistants et de la non-reconnaissance du temps dâattente en tant que temps de travail rĂ©munĂ©rĂ©. En 2022, le GMB a signĂ© un accord de reconnaissance avec Deli-
veroo, qui stipule que les coursiers de lâentreprise ne sont pas des travailleurs, mais des entrepreneurs indĂ©pendants.11 Dans le cas dâUber, les contrats actuels des chauffeurs nient expressĂ©ment tout Ă©lĂ©ment de nĂ©gociation collective en ce qui concerne les accords contractuels. Des accords similaires ont Ă©tĂ© signĂ©s aux Ătats-Unis, au Canada, en Australie et en Belgique.
Dans ces accords, nous constatons peut-ĂȘtre que les tactiques des grands syndicats et les mĂ©thodes de nĂ©gociation industrielle dâune autre Ă©poque sont appliquĂ©es Ă lâĂ©conomie des services avec des employeurs qui nâagissent pas de bonne foi et qui ne sont pas encore disposĂ©s ou prĂȘts Ă un vĂ©ritable partenariat dans la nĂ©gociation collective. Trop souvent, cette approche descendante se traduit par des accords syndicaux inefficaces avec lâemployeur ou par le fait que les travailleurs peu rĂ©munĂ©rĂ©s du secteur des services sont tout simplement laissĂ©s pour compte.
En SuĂšde, malgrĂ© la longue histoire du cĂ©lĂšbre modĂšle social suĂ©dois, les travailleurs de lâĂ©conomie Ă la demande se retrouvent fermement en dehors des nĂ©gociations collectives, tant au niveau de lâentreprise quâau niveau sectoriel, et donc en dehors de la protection de lâĂtat. En SuĂšde, une grande partie de la gestion des relations de travail nâest pas prĂ©vue par la loi, mais reste du ressort du partenariat social entre les syndicats et les employeurs ; Raison pour laquelle la SuĂšde nâa pas jugĂ© nĂ©cessaire de lĂ©gifĂ©rer sur la question du salaire minimum.
En effet, en dĂ©cembre 2022, le gouvernement suĂ©dois sâest fermement opposĂ© Ă la proposition de directive europĂ©enne sur le travail via des plateformes, au motif quâelle interfĂ©rerait avec le modĂšle social suĂ©dois, y compris les nĂ©gociations collectives.12 De toute Ă©vidence, la stabilitĂ© atteinte par des conventions collectives bien organisĂ©es et influencĂ©es par lâĂtat pourrait se rĂ©vĂ©ler inefficaces et contre-productives. De telles circonstances surviennent lorsque les objectifs de ces conventions collectives sont dĂ©connectĂ©s et Ă©loignĂ©s de la vĂ©ritable lutte des classes sous-jacente.
Worker Info Exchange et lâApp Drivers & Couriers Union ont menĂ© une longue bataille pour les droits des travailleurs contre Uber. En parallĂšle, ils ont menĂ© une bataille pour la transparence algorithmique et lâaccĂšs des travailleurs Ă leurs donnĂ©es personnelles au travail contre Uber et Ola Cabs, dans le but de renforcer le pouvoir collectif des travailleurs des plateformes. Ola Cabs a fait valoir devant les tribunaux que ces objectifs constituaient un abus de droit au titre des articles 15 et 20 du rĂšglement gĂ©nĂ©ral sur la protection des donnĂ©es (RGPD). Les juridictions de premiĂšre instance ont rejetĂ© cet argument en dĂ©clarant que tant que lâobjectif de la personne concernĂ©e incluait lâexercice du droit dâinspecter et de vĂ©rifier lâexactitude des donnĂ©es, il importait peu que les objectifs secondaires soient de partager les donnĂ©es avec leur syndicat dans le but de crĂ©er une base de donnĂ©es sur les travailleurs. La juridiction de premiĂšre instance a poursuivi en soulignant que lâun des objectifs de la portabilitĂ© garantie aux travailleurs par lâarticle 20 Ă©tait de « renforcer le contrĂŽle sur ses propres donnĂ©es »13 et que le transfert de donnĂ©es Ă caractĂšre personnel Ă un syndicat ou Ă une base de donnĂ©es de travailleurs Ă©tait donc parfaitement compatible avec la loi.
Ola Cabs a fait appel de ce point et la Cour dâappel dâAmsterdam a Ă©galement rejetĂ© lâargument dâOla Cabs selon lequel lâutilisation collective des donnĂ©es Ă©quivalait Ă une procĂ©dure individuelle abusive. « Le fait que les demandes actuelles poursuivent Ă©galement certains intĂ©rĂȘts syndicaux ou renforcent la position de nĂ©gociation des chauffeurs ne change rien au fait que les requĂ©rants Ă©taient libres de soumettre les demandes actuelles en vertu du RGPD sans avoir Ă prouver un quelconque intĂ©rĂȘt. En effet, les articles 15 et 20 du RGPD nâexigent pas un tel intĂ©rĂȘt. Ă cet Ă©gard, la Cour rappelle la jurisprudence de la Cour de justice de lâUE (ci-aprĂšs : CJUE), qui souligne que le RGPD vise notamment Ă assurer un niveau Ă©levĂ© de protection des personnes physiques au sein de lâUnion et que, Ă cet Ă©gard, le cadre juridique gĂ©nĂ©ral créé par le RGPD donne effet aux exigences dĂ©coulant du droit fondamental Ă la protection des donnĂ©es Ă caractĂšre personnel garanti par lâarticle 8 de la Charte des droits fondamentaux de lâUnion europĂ©enne, en particulier aux exigences expressĂ©ment Ă©noncĂ©es au paragraphe 2 de cet article ».14
Lâarticle 28 de la Charte des droits fondamentaux de lâUE prĂ©voit explicitement un droit Ă la nĂ©gociation collective et un droit de grĂšve. Toutefois, ces deux droits restent fortement limitĂ©s par les gouvernements des Ătats membres. Nous devons cependant reconnaĂźtre que ces droits existent dans le contexte dâun conflit de classe permanent, un Ă©tat de rĂ©volution permanente oĂč les syndicats eux-mĂȘmes et les institutions gouvernementales sont soumis Ă des pressions en matiĂšre de rĂ©forme et de renouvellement en phase avec la lutte de classe manifeste. Les droits de grĂšve et de nĂ©gociation collective doivent donc servir Ă faciliter la lutte des classes, et non pas simplement Ă la contenir ou Ă la restreindre.
Fieke Jansen, chercheuse au sein du laboratoire dâinfrastructures critiques de lâUniversitĂ© dâAmsterdam et organisatrice de la coalition Green Screen Climate Justice and Digital Rights.

La datafication de la vie quotidienne a fait passer les droits numĂ©riques dâune niche Ă une question transversale qui englobe tous les aspects de la sociĂ©tĂ© et qui est considĂ©rĂ©e comme une condition prĂ©alable Ă lâexercice des droits de lâhomme. Cette Ă©volution sociĂ©tale a Ă©galement eu une incidence sur la maniĂšre dont les questions relatives aux droits numĂ©riques sont abordĂ©es. Alors que dans le passĂ©, les discussions sur les technologies de surveillance Ă©taient fermement ancrĂ©es dans le droit au respect de la vie privĂ©e et Ă la protection des donnĂ©es, elles sont dĂ©sormais liĂ©es aux questions relatives Ă la surveillance policiĂšre Ă caractĂšre racial1 et Ă la nature xĂ©nophobe de la forteresse europĂ©enne2. Les dĂ©bats sur la concurrence sont passĂ©s des principes de neutralitĂ© du rĂ©seau Ă lâĂ©conomie des donnĂ©es â la centralisation de la trĂ©sorerie, du pouvoir et de la richesse entre les mains de quelques entreprises technologiques. Cet article aborde un autre lien Ă©mergent : les droits numĂ©riques et le droit Ă la protection de lâenvironnement, article 373 de la Charte europĂ©enne des droits fondamentaux. Il commencera par mettre en lumiĂšre les intersections entre le climat, lâenvironnement et la technologie. Ensuite, il abordera lâarticle 37 et les fondements nĂ©cessaires Ă lâutilisation de ce droit fondamental pour limiter la nature extractiviste dâInternet et de son Ă©conomie des donnĂ©es.
Les rĂ©percussions environnementales dâInternet
Lâaugmentation du niveau des mers, les feux de forĂȘt, les sĂ©cheresses, les vagues de chaleur et dâautres changements mĂ©tĂ©orologiques affectent les communautĂ©s, les animaux et les plantes dans le monde entier. Ces Ă©vĂ©nements ne doivent pas ĂȘtre abordĂ©s comme des problĂšmes isolĂ©s, mais comme des manifestations interconnectĂ©es de lâĂšre de dĂ©gradation de lâenvironnement et de crise climatique4 dans laquelle nous vivons actuellement. Nos Ă©conomies et nos industries, y compris lâĂ©conomie des donnĂ©es et les grandes technologies, sont conçues pour exacerber les inĂ©galitĂ©s systĂ©miques et Ă©puiser rapidement la planĂšte. Pour Ă©viter de dĂ©passer les limites planĂ©taires, nous devons opĂ©rer un changement rapide et sans prĂ©cĂ©dent vers une sociĂ©tĂ© plus juste et plus durable. Cela implique de comprendre et dâagir sur le lien entre lâenvironnement, le climat et la technologie.
Ă cet effet, une coalition informelle dâindividus, de praticiens de la justice climatique et des droits numĂ©riques, des organismes de financement et des universitaires a Ă©tĂ© mise sur pied il y a deux ans. La coalition Green Screen Climate Justice and Digital Rights (Ăcran vert pour la justice climatique et les droits numĂ©riques) a commencĂ© par explorer ce que signifie mettre en Ă©vidence la justice climatique sur les droits numĂ©riques5 et saisir les impacts environnementaux liĂ©s Ă Internet. Nous sommes actuellement en train de nous rĂ©unir, de crĂ©er des coalitions entre les diffĂ©rents mouvements et dâidentifier des pistes dâaction Ă suivre concernant un certain nombre de sujets, parmi lesquels le contentieux pourrait ĂȘtre lâun dâentre eux. Cet article sâinspire du travail, de la recherche et des discussions que nous avons entretenues au cours des deux derniĂšres annĂ©es avec des organisateurs communautaires, des activistes, des artistes, des organismes de financement et des universitaires.
Les recherches initiales6 commandĂ©es par la coalition Green Screen ont mis en Ă©vidence quâau cĆur de la justice climatique et des droits numĂ©riques se trouvent les litiges sur les ressources naturelles, la dĂ©sinformation rampante des entreprises de combustibles fossiles en matiĂšre dâĂ©coblanchiment et lâextraction de matiĂšres premiĂšres essentielles pour la fabrication de matĂ©riel informatique qui a un impact Ă©cologique considĂ©rable. Ce ne sont lĂ que quelques-uns des nombreux problĂšmes complexes qui se situent Ă lâintersection du climat et de la technologie. Dâautres sujets qui ont Ă©tĂ© abordĂ©s depuis sont la nĂ©cessitĂ© dâidentifier et la remise en question des solutions climatiques fausses et trompeuses7, lâextractivisme et le besoin de solidaritĂ© â soutenir les militants pour le climat, pour lâenvironnement et pour la terre. Je dĂ©velopperai ci-dessous le litige des ressources naturelles, les centres de donnĂ©es et lâextraction de matiĂšres premiĂšres essentielles. Des Ă©tudes dĂ©montrent , Internet et les technologies de communication reprĂ©sentaient en 2020 entre 1,8 % et 2,8 % des Ă©missions mondiales de gaz Ă effet de serre8 et quâelles devraient atteindre 14 % en 20409. De surcroĂźt, les centres de donnĂ©es sont en train de devenir lâune des frontiĂšres dâInternet en matiĂšre de conflit sur les droits de propriĂ©tĂ© fonciĂšre, dâĂ©lectricitĂ©10 et dâeau11, entre les entreprises de donnĂ©es et les rĂ©sidents locaux. Aux Pays-Bas, on estime que le centre de donnĂ©es prĂ©vu par Meta absorbera deux fois la consommation dâĂ©nergie de la ville dâAmsterdam12, et que le centre de donnĂ©es de Microsoft sera le seul consommateur dâun parc Ă©olien Ă grande Ă©chelle13. Les habi-
âLe mouvement Ă©cologiste jouit dâune longue expĂ©rience en matiĂšre de litiges stratĂ©giques qui lui ont permis dâobliger les entreprises et les Ătats Ă rĂ©duire leurs Ă©missions de carbone, dâattribuer les responsabilitĂ©s et de rĂ©clamer des dommages et intĂ©rĂȘts aprĂšs quâune fuite de gaz ou de pĂ©trole a contaminĂ© le sol et lâeau, entraĂźnant une perte de valeur des biens, des dommages physiques et mentaux, et de mettre un terme Ă la dĂ©livrance de nouveaux permis dâextraction de combustibles fossiles.â
tants de la campagne nĂ©erlandaise se sentent flouĂ©s14, car on leur avait promis une production locale dâĂ©nergie renouvelable pour la consommation locale, mais les politiciens ont donnĂ© la prioritĂ© Ă lâindustrie technologique plutĂŽt quâaux besoins des mĂ©nages. De mĂȘme, Meta souhaite Ă©tendre son centre de donnĂ©es Ă Los Lunes, au Nouveau-Mexique (Ătats-Unis), ce qui soulĂšve le problĂšme de lâaccĂšs Ă lâeau15. Dans cette rĂ©gion oĂč lâeau est rare, les besoins en eau de Meta ont Ă©tĂ© privilĂ©giĂ©s par rapport au dĂ©triment des droits Ă©lĂ©mentaires des citoyens.
La nature extractiviste16 de notre Ă©conomie des donnĂ©es. Internet nâest pas un nuage17, câest une infrastructure matĂ©rielle composĂ©e de cĂąbles, de fils, de commutateurs et dâappareils destinĂ©s aux utilisateurs en bout de chaĂźne. Il sâagit dâune infrastructure conçue, entretenue et rĂ©glementĂ©e par des personnes et des institutions dans un but dâinterconnectivitĂ©, de rapiditĂ©, dâefficacitĂ© et de rĂ©sistance. La mĂ©taphore du nuage a masquĂ© la nature extractiviste dâInternet et la dĂ©pendance Ă lâĂ©gard des matiĂšres premiĂšres essentielles. APC rapporte18 que « les minĂ©raux utilisĂ©s dans la fabrication des technologies continuent de provenir de zones et de rĂ©gions oĂč la destruction de lâenvironnement, les violations des droits humains et les conflits se produisent, et oĂč les reprĂ©sailles contre les dĂ©fenseurs de lâenvironnement et des terres par des acteurs Ă©tatiques et privĂ©s sont monnaie courante ». Les matiĂšres premiĂšres essentielles Ă Internet et Ă son Ă©conomie de donnĂ©es sont considĂ©rĂ©es comme rares dans la chaĂźne dâapprovisionnement mondiale19 et proviennent principalement de Chine, de TĂŒrkiye, dâAfrique du Sud et du Triangle du lithium20 au Chili, en Argentine et en Bolivie.
Ces exemples mettent en Ă©vidence le lien entre la dĂ©gradation de lâenvironnement, la crise climatique, Internet et lâĂ©conomie des donnĂ©es. Un champ naissant et croissant a commencĂ© Ă examiner ces questions, Ă remettre en question les solutions technologiques trompeuses en matiĂšre de climat et Ă travailler Ă la mise en place dâinfrastructures Internet durables et Ă©quitables. Cependant, lâurgence de la crise climatique, le dĂ©sastre environnemental de lâexploitation miniĂšre et des dĂ©chets Ă©lectroniques, et lâexclusion de ceux qui sont touchĂ©s de maniĂšre disproportionnĂ©e par les solutions Ă ces problĂšmes nous obligent tous Ă agir. Dans la section suivante, cet article examinera comment Ă©tablir un lien entre la protection de lâenvironnement et les questions relatives aux droits numĂ©riques.
Article 37: Protection de lâenvironnement
Internet et son Ă©conomie de donnĂ©es ont un impact Ă©vident sur lâenvironnement. Pourtant, la Commission europĂ©enne21 considĂšre la technologie comme un moyen de sortir de la crise climatique. Les investissements dans les villes intelligentes et lâintelligence artificielle sont considĂ©rĂ©s comme des moyens dâattĂ©nuer la crise climatique et de sây adapter. LâhypothĂšse sous-jacente est que la technologie rendra dâautres industries plus efficaces et moins polluantes et crĂ©era des systĂšmes dâalerte prĂ©coce qui permettront aux Ătats dâattĂ©nuer lâaugmentation du niveau des mers, les feux de forĂȘt, les sĂ©cheresses et dâautres changements mĂ©tĂ©orologiques. Il nây a pas de rĂ©flexion critique sur la maniĂšre dont ces infrastructures et ces technologies contribuent et accentuent la dĂ©gradation de lâenvironnement, le changement climatique et la crise sociale.
En dissociant les deux transitions â le New Deal vert et lâagenda de numĂ©risation â et en donnant la prioritĂ© aux solutions techniques plutĂŽt quâaux changements industriels rapides, lâUnion europĂ©enne et ses Ătats-nations privilĂ©gient les intĂ©rĂȘts Ă©conomiques et la position gĂ©opolitique par rapport Ă la protection sociale et environnementale. La question est de savoir : quel est le lien avec lâarticle 37 de la Charte europĂ©enne des droits fondamentaux relatif Ă la protection de lâenvironnement22 ? Lâarticle 37 stipule quâ« un niveau Ă©levĂ© de protection de lâenvironnement et lâamĂ©lioration de sa qualitĂ© doivent ĂȘtre intĂ©grĂ©s dans les politiques de lâUnion et garantis conformĂ©ment au principe du dĂ©veloppement durable ». Quelques recherches juridiques de lâarticle 37 mettent en Ă©vidence un certain nombre de dĂ©fis.
« Son libellĂ© diffĂšre de maniĂšre frappante de celui dâune disposition classique sur les droits : le terme âdroitâ lui-mĂȘme est omis, tout comme des termes similaires utilisĂ©s dans dâautres dispositions de la Charte qui accordent et protĂšgent des droits individuels. »
En somme, lâarticle 37 est une dĂ©claration de principes. Il ne stipule aucun droit judiciaire individuel Ă la protection de lâenvironnement ou Ă un environnement sain, et ne prĂ©cise aucun bĂ©nĂ©ficiaire. Lâarticle donne des directives administratives vagues, Ă©tablit
le devoir des autoritĂ©s publiques dâinclure des considĂ©rations environnementales dans lâĂ©laboration et la mise en Ćuvre des politiques sans dĂ©finir ou opĂ©rationnaliser des concepts tels que « un niveau Ă©levĂ© de protection de lâenvironnement » et « les principes du dĂ©veloppement durable ». Ainsi, chaque autoritĂ© publique peut interprĂ©ter de maniĂšre flexible ces concepts larges et non dĂ©finis. Enfin, lâarticle 37 fait abstraction des droits procĂ©duraux en matiĂšre dâenvironnement, ne garantissant pas les droits dâaccĂšs Ă lâinformation et de participation du public aux processus dĂ©cisionnels concernant leur environnement, comme le stipule la Convention dâAarhus.
Il nây a dâailleurs aucune jurisprudence recourant Ă lâarticle 37 pour contester lâimpact sur lâenvironnement des infrastructures et des nouvelles technologies Internet. Ce qui nâest pas surprenant puisque la question de lâimpact environnemental et climatique dâInternet est une question Ă©mergente. Cet article ne peut donc pas illustrer la maniĂšre dont lâarticle 37 a Ă©tĂ© mis en application pour limiter la nature extractiviste de cette industrie. Cependant, il sâappuiera sur le travail de la Green Screen Coalition pour mettre en Ă©vidence les conditions dâune collaboration entre mouvements, qui pourrait permettre au dit mouvement dâutiliser le potentiel de la Charte de lâUE pour dĂ©fendre et protĂ©ger les droits numĂ©riques et environnementaux. La crĂ©ation dâune coalition pour la justice climatique et les droits numĂ©riques nĂ©cessite un investissement dans lâarticulation dâun point dâentrĂ©e commun, la construction dâune communautĂ©, lâarticulation dâune idĂ©ologie politique, la recherche dâun terrain dâentente, lâapprentissage mutuel et la dĂ©finition dâun programme dâaction commun.
Collaboration inter-mouvements
Articuler un point dâentrĂ©e. Dans son livre Pollution is Colonialism23, Max Libioron affirme quâil est nĂ©cessaire dâĂ©tudier et de sâĂ©loigner dâune approche axĂ©e sur les prĂ©judices pour se tourner vers une approche axĂ©e sur la violence. Un cadre axĂ© sur les prĂ©judices se concentre sur les raisons pour lesquelles une certaine industrie pollue Ă un certain moment et dans un certain espace, câest-Ă -dire quâune quantitĂ© x dâĂ©nergie renouvelable est priorisĂ©e par rapport aux besoins des mĂ©nages ou quâune quantitĂ© x de lithium et dâeau est utilisĂ©e dans la production dâun ordinateur. Cette approche crĂ©e des opportunitĂ©s technocratiques permettant de trouver des conditions dans lesquelles la pollution est jugĂ©e acceptable. Un cadre fondĂ© sur la violence soutient quâĂ©tant donnĂ© lâampleur dâInternet et de lâĂ©conomie des donnĂ©es, nous pouvons supposer quâils utiliseront x quantitĂ©s dâĂ©nergie et dâeau pour fonctionner et x quantitĂ©s de matiĂšres premiĂšres essentielles pour exister. En tant que telle, cette industrie est un pollueur.
Construire un rĂ©seau de droits numĂ©riques et de justice climatique. La plupart des personnes entreprenant des travaux sur ce lien sont des experts dans le domaine des droits numĂ©riques, de la justice climatique ou de la justice environnementale. Lâampleur et la profondeur de ce domaine exigent que les diffĂ©rents mouvements travaillent en collaboration, trouvent des moments stratĂ©giques pour se connecter, exploitent les possibilitĂ©s dâactions conjointes et partagent leur apprentissage et leurs expĂ©riences sur des sujets spĂ©cifiques.
Construire une communautĂ© Ă la hauteur de la complexitĂ© du problĂšme. Nous avons besoin des voix et de lâexpertise des personnes les plus touchĂ©es, du mouvement environnemental et climatique et de la communautĂ© des droits numĂ©riques pour mettre fin aux pratiques extractives, trouver des solutions et influencer activement la prochaine Loi sur les semi-conducteurs et la Loi sur les matiĂšres premiĂšres essentielles. Pour ce faire, il convient dâadopter une approche respectueuse des communautĂ©s les plus touchĂ©es par la crise climatique, la pollution, la mauvaise gestion de lâenvironnement et les pratiques industrielles nĂ©fastes, afin de sâassurer que les solutions ne rĂ©pĂštent pas les systĂšmes dâoppression existants.
Articuler une idĂ©ologie politique24. La diversitĂ© des voix permet de rassembler une myriade de besoins, de perspectives, de prioritĂ©s, de privilĂšges et dâapproches. Cela nĂ©cessite lâarticulation dâune thĂ©orie du pouvoir. Historiquement, les deux mouvements ont eu des relations diffĂ©rentes avec le marchĂ© et lâĂtat. Par exemple, les entreprises Ă©taient des alliĂ©s naturels de la communautĂ© des droits numĂ©riques au dĂ©but dâInternet, alors que le mouvement climatique et environnemental entretient une relation critique et conflictuelle avec le marchĂ© et plus particuliĂšrement avec les entreprises de combustibles fossiles. MĂȘme si cette dynamique a changĂ© et que la relation avec les grandes entreprises technologiques est devenue plus conflictuelle, les coalitions doivent discuter de leur thĂ©orie du pouvoir.
âLâarticle 37 de la Charte de lâUnion europĂ©enne, qui Ă©nonce le droit Ă la protection de lâenvironnement, pourrait ĂȘtre un moyen de forcer ceux qui investissent, gĂšrent et profitent dâInternet et de son Ă©conomie de donnĂ©es Ă changer.â
Trouver un terrain dâentente. Les diffĂ©rents mouvements ont leur propre histoire, leurs luttes, leur vocabulaire, leurs communautĂ©s et leur rĂ©pertoire dâactions. Pour Ă©tablir un lien entre la protection de lâenvironnement et les droits numĂ©riques, trouver un terrain dâentente sâavĂšre nĂ©cessaire. Il faut pour cela faire preuve de curiositĂ© et dâhumilitĂ© pour apprendre des autres mouvements et trouver une cause commune autour de laquelle se rallier. Un thĂšme naturel pourrait ĂȘtre lâextractivisme25, qui fait rĂ©fĂ©rence Ă lâextraction de minerais rares essentiels aux appareils numĂ©riques, Ă la consommation dâautres ressources naturelles, telles que lâeau, tant dans le processus dâextraction que dans celui de traitement des donnĂ©es, et Ă lâapproche extractiviste plus large du secteur technologique, axĂ©e sur le profit.
Apprendre les uns des autres. Le mouvement Ă©cologiste jouit dâune longue expĂ©rience en matiĂšre de litiges stratĂ©giques qui lui ont permis dâobliger les entreprises et les Ătats Ă rĂ©duire leurs Ă©missions de carbone, dâattribuer les responsabilitĂ©s et de rĂ©clamer des dommages et intĂ©rĂȘts aprĂšs quâune fuite de gaz ou de pĂ©trole a contaminĂ© le sol et lâeau, entraĂźnant une perte de valeur des biens, des dommages physiques et mentaux, et de mettre un terme Ă la dĂ©livrance de nouveaux permis dâextraction de combustibles fossiles. RĂ©cemment, Urgenda a gagnĂ© un procĂšs contre lâĂtat nĂ©erlandais pour non-respect de son devoir de protection et dâamĂ©lioration de lâenvironnement en raison de son manque dâaction en matiĂšre de rĂ©duction des Ă©missions de gaz Ă effet de serre. En pratique, cela signifie quâen 2020, la Cour dâappel de La Haye a statuĂ© que lâĂtat devait rĂ©duire les Ă©missions de CO2 de 25 % par rapport Ă 1990.
Conclusion
Lâurgence de la crise climatique impose Ă tous les secteurs dâactivitĂ© de sâorienter vers un avenir durable et Ă©quitable dans le cadre de leurs activitĂ©s actuelles. Cela englobe lâĂ©conomie des donnĂ©es et exige que ce secteur sâĂ©loigne fondamentalement de sa nature extractiviste, de la recherche dâune croissance infinie et des solutions technologiques trompeuses Ă des problĂšmes complexes. Cela ne se fera pas naturellement. Lâarticle 37 de la Charte de lâUnion europĂ©enne, qui Ă©nonce le droit Ă la protection de lâenvironnement, pourrait ĂȘtre un moyen de contraindre ceux qui investissent, gĂšrent et profitent dâInternet et de son Ă©conomie de donnĂ©es Ă changer. Pour y parvenir, nous devons investir dans la construction dâune coalition de personnes touchĂ©es, de personnes qui Ćuvrent pour lâenvironnement, la justice climatique ainsi que le mouvement des droits numĂ©riques.
Remerciements : Cet article est le fruit des innombrables conversations que jâai eues avec Michelle Thorne, Maya Richman, la Green Screen Coalition et ses auteurs, tout particuliĂšrement ceux qui ont Ă©mis une analyse du paysage et qui les notes de synthĂšse26, ainsi que les participants aux rĂ©unions de Berlin et de San Jose, et bien dâautres encore.
Toutes les opinions exprimées ici sont personnelles.
Alexandre Biard, BEUC â The European Consumer Organisation
Lâarticle 38 de la Charte de lâUnion europĂ©enne stipule quâ« un niveau accru de protection des consommateurs est assurĂ© dans les politiques de lâUnion ». Il fait partie, avec dâautres articles sur les soins de santĂ©, la protection de lâenvironnement ou la sĂ©curitĂ© sociale, dâun titre IV plus large intitulĂ© « SolidaritĂ© », qui Ă©tablit les principes fondamentaux des politiques de lâUE. Lâart. 38 est basĂ© sur lâarticle 169 du traitĂ© sur le fonctionnement de lâUnion europĂ©enne (TFUE).1 Toutefois, alors que lâarticle 169 TFUE fournit des informations supplĂ©mentaires sur la maniĂšre dont lâUnion doit assurer un niveau accru de protection des consommateurs, la formulation de lâarticle 38 reste brĂšve et abstraite. Comme pour lâensemble du Titre IV, lâhistoire lĂ©gislative de lâarticle 38 a Ă©tĂ© tumultueuse.2 La version initiale de la Charte faisait rĂ©fĂ©rence à « un niveau Ă©levĂ© de protection de la santĂ©, de la sĂ©curitĂ© et des intĂ©rĂȘts des consommateurs ».3 Les amendements ultĂ©rieurs ont occasionnĂ© une proposition visant Ă supprimer lâArt. 38 dans son intĂ©gralitĂ©4 ou de le changer en un droit subjectif pour les consommateurs.5 La version finale adoptĂ©e a finalement Ă©tĂ© qualifiĂ©e de compromis.6
Ă premiĂšre vue, lâarticle 38 semble jouer un double rĂŽle. Dâune part, son insertion dans la Charte vĂ©hicule un message symbolique fort, car il fait de la protection des consommateurs lâun des objectifs fondamentaux des politiques de lâUE. Il reconnaĂźt Ă©galement le rĂŽle croissant jouĂ© par la protection des consommateurs dans lâUE. Dâautre part, la dimension opĂ©rationnelle de lâarticle 38 soulĂšve plusieurs questions. Tout dâabord, bien quâil soit inclus dans la Charte des droits fondamentaux de lâUE, lâarticle 38 tend Ă Ă©tablir simplement un principe et non un droit qui pourrait ĂȘtre invoquĂ© directement par les individus. Ensuite, sa formulation large soulĂšve des questions quant Ă la mesure dans laquelle il guide rĂ©ellement lâintervention des dĂ©cideurs politiques de lâUE lors de la prĂ©paration de nouvelles propositions lĂ©gislatives. Au-delĂ de ces doutes, la question est de savoir si et comment lâart. 38 pourrait jouer un rĂŽle plus pratique Ă lâavenir.
Une pertinence ex ante (limitĂ©e) du point de vue de lâĂ©laboration des politiques
Lâarticle 38 Ă©tablit le « niveau accru de protection des consommateurs » comme un objectif primordial guidant la politique de lâUE. La question est de savoir si la rĂ©fĂ©rence Ă lâarticle 38 par les institutions de lâUE lors de lâĂ©laboration de nouvelles politiques est significative et bien pensĂ©e ou si elle Ă©quivaut simplement Ă une forme dâĂ©dulcoration. Une attention particuliĂšre aux travaux prĂ©paratoires qui ont accompagnĂ© plusieurs lĂ©gislations europĂ©ennes rĂ©centes dans le domaine de la protection des consommateurs peut contribuer Ă Ă©clairer cette question.
Examinons tout dâabord la proposition dâune directive europĂ©enne sur les actions reprĂ©sentatives (directive UE 2020/1828). Dans son exposĂ© des motifs, la Commission europĂ©enne a soulignĂ© que « la proposition contribue Ă assurer un niveau accru de protection des consommateurs (article 38 de la Charte) ».7 Cependant, elle nâa pas fourni de prĂ©cisions supplĂ©mentaires sur son implication en termes pratiques. Le contraste est saisissant si lâon considĂšre le paragraphe suivant consacrĂ© Ă lâarticle 47 de la Charte de lâUE oĂč la Commission europĂ©enne explique concrĂštement pourquoi et comment la proposition lĂ©gislative rĂ©pond aux exigences de lâarticle 47.8
La mĂȘme observation vaut pour la proposition relative Ă une meilleure application et Ă une modernisation des rĂšgles de lâUE en matiĂšre de protection des consommateurs (directive 2019/2161 de lâUE). Son exposĂ© des motifs se contente dâindiquer que « la proposition est conforme Ă lâarticle 38 de la Charte des droits fondamentaux selon lequel lâUE doit assurer un niveau Ă©levĂ© de protection des consommateurs », mais ne dĂ©finit pas clairement son implication en pratique. Enfin, il convient Ă©galement dâexaminer la proposition de lĂ©gislation sur lâintelligence artificielle. LâexposĂ© des motifs explique que « [âŠ] la proposition renforcera les droits dâun certain nombre de groupes particuliers dans diffĂ©rents domaines dâintervention, notamment les droits des travailleurs Ă des conditions de travail justes et Ă©quitables (article 31), le droit des consommateurs Ă un niveau Ă©levĂ© de protection (article 38) [âŠ] ». Cependant, au-delĂ de dĂ©clarations de principe, la lĂ©gislation sur lâIA, telle quâelle est proposĂ©e par la Commission europĂ©enne, ne contribue pas Ă un niveau Ă©levĂ© de protection des consommateurs. Comme lâa soulignĂ© le BEUC :
« Au-delĂ de la dĂ©claration non contraignante contenue dans les considĂ©rants, la protection des consommateurs est absente de la proposition de lĂ©gislation sur lâIA. La proposition ne mentionne pas la protection des consommateurs contre les effets nĂ©gatifs de lâIA parmi les objectifs lĂ©gislatifs de la lĂ©gislation sur lâIA. Les consommateurs ne se voient pas accorder de droits horizontaux dans la proposition et sont ex-
clus du cadre conceptuel puisque la dĂ©finition de « lâutilisateur » dans la proposition nâest dĂ©finie que comme un utilisateur institutionnel ou commercial».9
En raison de sa formulation vague, qui peut ĂȘtre interprĂ©tĂ©e de diffĂ©rentes maniĂšres, et de la difficultĂ© Ă dĂ©finir ce quâimplique concrĂštement un « niveau Ă©levĂ© de protection des consommateurs », la fonction normative de lâarticle 38 semble limitĂ©e en pratique, avec le risque que sa mise en Ćuvre par les dĂ©cideurs politiques de lâUE reste souvent une coquille vide.
Une pertinence ex post (croissante) du point de vue de la mise en Ćuvre
Lors de la rĂ©daction de la Charte, la Convention a considĂ©rĂ© lâarticle 38 comme un principe et non comme un droit substantiel pour les individus.10 Cela nâest pas sans consĂ©quences puisque lâarticle 51 prĂ©voit que les droits prĂ©vus par la Charte doivent ĂȘtre respectĂ©s, tandis que les principes doivent seulement ĂȘtre observĂ©s. La question est maintenant de savoir sâil est possible dâaller au-delĂ de cette hypothĂšse initiale et de faire de lâarticle 38 un instrument utile qui pourrait ĂȘtre utilisĂ© par les individus et les organisations de la sociĂ©tĂ© civile. Il est intĂ©ressant de noter que dans son rapport 2020, lâAgence des droits fondamentaux semble dĂ©jĂ brouiller les pistes lorsquâelle parle dâun « droit Ă la protection des consommateurs » et utilise la protection des consommateurs dans le contexte dâun litige stratĂ©gique :
« Les organisations de la sociĂ©tĂ© civile (OSC) et les autres organisations actives dans le domaine des droits fondamentaux, telles que les INDH, les ONG ou les avocats spĂ©cialisĂ©s dans les droits de lâhomme et dâautres dĂ©fenseurs des droits de lâhomme, peuvent utiliser la Charte dans tous les aspects de leur travail quotidien. Cela inclut les campagnes et contentieux stratĂ©giques, les activitĂ©s de sensibilisation et de formation, le suivi et la recherche. La nature supranationale de la Charte et son libellĂ© explicite en font un outil important pour les contentieux stratĂ©giques. Citons par exemple le droit Ă la protection des donnĂ©es, le droit Ă la protection des consommateurs et le droit Ă un tribunal impartial. »11
Un examen de la jurisprudence de la Cour de justice de lâUnion europĂ©enne (CJUE) fournit quelques indications sur la maniĂšre de faire appel Ă lâarticle 38. Dans deux dĂ©cisions concernant les droits des passagers aĂ©riens, la CJUE a utilisĂ© lâarticle 38 pour Ă©quilibrer et restreindre lâapplication dâautres droits Ă©galement en jeu. Plus prĂ©cisĂ©ment, lâaffaire C-12/11 (Mc Donagh c/ Ryanair)12 concernait un litige entre un transporteur aĂ©rien et un passager qui sâĂ©tait vu refuser la prise en charge prĂ©vue par la lĂ©gislation europĂ©enne 261/2004 aprĂšs quâune Ă©ruption volcanique ait entraĂźnĂ© lâannulation de vols. La compagnie aĂ©rienne a notamment fait valoir que lâobligation de prendre en charge les passagers, telle que prĂ©vue par la lĂ©gislation de lâUE, portait atteinte Ă ses droits fondamentaux au titre de lâarticle 16 (libertĂ© dâentreprise) et de lâarticle 17 (droit de propriĂ©tĂ©) de la Charte de lâUnion europĂ©enne. La compagnie aĂ©rienne a donc soutenu que les dispositions pertinentes du droit europĂ©en Ă©taient invalides. La Cour sâest rĂ©fĂ©rĂ©e Ă lâarticle 38 pour limiter la portĂ©e des droits fondamentaux de lâentrepreneur. Tout dâabord, la Cour a soulignĂ© quâ« [âŠ] il importe Ă©galement de tenir compte de lâarticle 38 qui [âŠ] tend Ă assurer, dans les politiques de lâUnion, un niveau Ă©levĂ© de protection des consommateurs, y compris les passagers aĂ©riens »,13 puis a jugĂ© que « lâimportance que revĂȘt lâobjectif de protection des consommateurs, y compris donc les passagers aĂ©riens, est susceptible de justifier des consĂ©quences Ă©conomiques nĂ©gatives, mĂȘme considĂ©rables, pour certains opĂ©rateurs Ă©conomiques ». Cette approche a ensuite Ă©tĂ© confirmĂ©e dans une autre dĂ©cision (affaire C-28/20 Airhelp) oĂč la Cour a jugĂ© que « la libertĂ© dâentreprendre et le droit de propriĂ©tĂ© ne constituent pas des prĂ©rogatives absolues et quâils doivent [âŠ] ĂȘtre conciliĂ©s avec lâarticle 38 de la Charte qui, Ă lâinstar de lâarticle 169 TFUE, tend Ă assurer, dans les politiques de lâUnion, un niveau Ă©levĂ© de protection des consommateurs, y compris les passagers aĂ©riens ».14
De mĂȘme, au niveau national, les tribunaux ont examinĂ© lâapplication de lâarticle 38 de la Charte. Ă titre dâillustration, une affaire en RĂ©publique tchĂšque traitait de la situation dâun particulier qui avait conclu un contrat en ligne avec une sociĂ©tĂ© pour la relecture dâune thĂšse. Faute de satisfaction du rĂ©sultat final, la personne sâest retirĂ©e du contrat sans payer les honoraires convenus. Lâentreprise a portĂ© plainte contre le particulier et le tribunal de district a statuĂ© en faveur de lâentreprise. Le montant en jeu Ă©tant faible, le jugement nâĂ©tait pas susceptible dâappel. Le particulier a dĂ©posĂ© une plainte devant
la Cour constitutionnelle en invoquant le droit Ă la protection des consommateurs sur la base de lâarticle 38 de la Charte. La Cour constitutionnelle a jugĂ© que le tribunal de district aurait dĂ» - Ă la lumiĂšre de lâarticle 38 de la Charte - appliquer les dispositions du Code civil tchĂšque relatives Ă la protection des consommateurs et a donc confirmĂ© le droit du plaignant Ă la protection des consommateurs et a annulĂ© le premier jugement du tribunal de district.15 En Slovaquie, de mĂȘme un tribunal rĂ©gional a utilisĂ© (entre autres) lâarticle 38 pour dĂ©clarer illĂ©gale une clause contractuelle imposant des frais de pĂ©nalitĂ© Ă un consommateur. Comme lâa soulignĂ© le tribunal :
« La sanction contractuelle nâa pas Ă©tĂ© convenue individuellement, il sâagit dâun contrat standard qui crĂ©e une disproportion majeure dans les droits et obligations des parties contractantes, dĂ©savantageant le consommateur, il est en conflit avec la protection des droits du consommateur, en conflit avec la Charte des droits fondamentaux de lâUnion europĂ©enne (art. 38), selon laquelle pour remplir lâun des droits fondamentaux de lâUnion europĂ©enne, les politiques de lâĂtat doivent assurer un niveau Ă©levĂ© de protection du consommateur, et il est donc possible dâutiliser tous les moyens efficaces pour protĂ©ger les consommateurs afin dâaccroĂźtre la confiance des consommateurs dans le marchĂ© qui ne devrait pas imposer aux consommateurs des pratiques dĂ©raisonnables ».16
Le potentiel de lâarticle 38 doit encore ĂȘtre dĂ©veloppĂ© par la jurisprudence et la doctrine, mais sa valeur ajoutĂ©e semble dâores et dĂ©jĂ prometteuse.
Un potentiel Ă exploiter
Lâarticle 38 reconnaĂźt lâimportance de la protection des consommateurs en tant que valeur fondamentale de lâUE. Toutefois, son effet opĂ©rationnel reste paradoxal. Tout dâabord, lâarticle 38 a Ă©tĂ© initialement conçu comme un principe directeur des politiques de lâUE. Pourtant, dans la pratique, son impact normatif semble souvent limitĂ©. Par ailleurs, cet article nâa pas Ă©tĂ© conçu Ă lâorigine pour donner des droits subjectifs et pourtant lâexpĂ©rience tend Ă montrer quâil a Ă©tĂ© invoquĂ© pour dĂ©fendre les intĂ©rĂȘts des consommateurs.
En fin de compte, le principe de protection des consommateurs Ă©noncĂ© Ă lâarticle 38 peut ĂȘtre utilisĂ© en conjonction avec dâautres droits substantiels,17 tels que lâarticle 47 (sur le recours effectif) ou lâarticle 8 (sur la protection des donnĂ©es). Lâun des principaux dĂ©fis Ă venir consistera Ă Ă©laborer progressivement une nouvelle comprĂ©hension de la politique de protection des consommateurs de lâUE et de lâarticle 38, en tenant compte dâautres droits fondamentaux clĂ©s protĂ©gĂ©s par la Charte, tels que le droit Ă la non-discrimination (Art. 21) (important par exemple dans le contexte du dĂ©veloppement de lâintelligence artificielle), les droits de lâenfant (Art. 24), des personnes ĂągĂ©es (Art. 25) et des personnes handicapĂ©es (Art. 26) (important pour la protection des consommateurs vulnĂ©rables). Ces droits fondamentaux doivent ĂȘtre pleinement pris en compte lors de la rĂ©gulation des marchĂ©s et contribuer Ă lâĂ©laboration dâune dĂ©finition renouvelĂ©e et moderne de la protection des consommateurs dans lâUE.
âLâun des principaux dĂ©fis Ă venir consistera Ă Ă©laborer progressivement une nouvelle comprĂ©hension de la politique de protection des consommateurs de lâUE et de lâarticle 38, en tenant compte dâautres droits fondamentaux clĂ©s protĂ©gĂ©s par la Charte.â
Notes
Article 11
1. CDH, 2018, p. 18, § 48: âPour se doter de garanties de non-discrimination dignes de ce nom, les entreprises doivent dĂ©passent les approches formalistes selon lesquelles toutes les caractĂ©ristiques protĂ©gĂ©es sont Ă©galement exposĂ©es aux violences, au harcĂšlement et Ă diverses formes de censure.â Le Rapporteur spĂ©cial sur la promotion et la protection du droit Ă la libertĂ© dâopinion et dâexpression reconnaĂźt ici que lâabus et le harcĂšlement, par leur effet de rĂ©duction au silence, constituent une forme de censure.
2. Quintais et al., 2022, p. 24: « il convient de noter que le principe des obligations positives constitue un Ă©lĂ©ment important de lâarticle 10 de la CEDH et de lâarticle 11 de la Charte. En vertu du droit Ă la libertĂ© dâexpression, les Ătats ont non seulement lâobligation nĂ©gative de âsâabstenirâ dâentraver la libertĂ© dâexpression, mais ils ont Ă©galement lâobligation positive de protĂ©ger la libertĂ© dâexpression, âmĂȘme dans la sphĂšre des relations entre individusâ, y compris entre un individu et une âsociĂ©tĂ© privĂ©eâ ».
3. Frosio, Husovec, 2020 p. 15: « GrĂące au principe de protection en matiĂšre de responsabilitĂ©, les fournisseurs sont partiellement libĂ©rĂ©s de la responsabilitĂ© du contenu de leurs utilisateurs. Ils ont donc effectivement le pouvoir de dĂ©cider du contenu que les utilisateurs publient. Toutefois, ce pouvoir nâest pas complĂ©tĂ© par une responsabilitĂ© envers leurs utilisateurs de respecter leurs droits dâexpression sous une forme particuliĂšre. Câest ce qui a conduit Tushnet Ă parler de âpouvoir sans responsabilitĂ©â. »
4. Quintais et al., 2022, p. 26: « Lâarticle 20 (4) semble impliquer que les utilisateurs peuvent directement porter plainte auprĂšs de la plateforme sur la maniĂšre dont leurs droits fondamentaux ont Ă©tĂ© pris en compte dans la dĂ©cision de modĂ©ration de contenu dâune plateforme. Cela signifie que la plateforme ne doit pas seulement examiner si le comportement ou le contenu Ă©tait illĂ©gal ou en violation de ses CGU, mais aussi examiner son propre processus dâapplication et de mise en Ćuvre et vĂ©rifier si les droits fondamentaux de lâutilisateur ont Ă©tĂ© pris en compte de maniĂšre appropriĂ©e. »
5. Business Insider, 2018, selon Jimmy Wales, cofondateur de WikipĂ©dia: « Lâune de mes plus grandes prĂ©occupations concernant les filtres de tĂ©lĂ©chargement obligatoires est que cela ne ferait quâasseoir le pouvoir de Google et Facebook qui ont dĂ©jĂ la capacitĂ© technique de faire ce genre de choses, et les plus petits acteurs, les start-ups, toutes les autres plateformes que les gens utilisent vont ĂȘtre un peu exclus. »
6. Tel que décrit dans le documentaire « The Cleaners » (de Hans Block et Moritz Riesewiec, 2018).
7. Politico, 2022: « Ces derniĂšres semaines, le gouvernement allemand a qualifiĂ© Ă plusieurs reprises le projet de loi dâatteinte Ă la vie privĂ©e et aux droits fondamentaux, son Ministre de lâĂ©conomie numĂ©rique Volker Wissing avertissant cette semaine que le projet de loi âdĂ©passe une limiteâ. »
8. Frosio, Husovec, 2020, p. 6: « Les blocages de virement ont privĂ© Wikileaks de 95 % de ses revenus, lorsque PayPal, Moneybookers, Visa et MasterCard ont cessĂ© dâaccepter les dons du public. Aucune procĂ©dure judiciaire nâa jamais Ă©tĂ© engagĂ©e contre Wikileaks. »
Article 18
1. Article 18, Droit dâasile, Charte des droits fondamentaux de lâUnion europĂ©enne [2008] 2000/C 364/01 : « Le droit dâasile est garanti dans le respect des rĂšgles de la convention de GenĂšve du 28 juillet 1951 et du protocole du 31 janvier 1967 relatifs au statut des rĂ©fugiĂ©s et conformĂ©ment au traitĂ© sur lâUnion europĂ©enne et au traitĂ© sur le fonctionnement de lâUnion europĂ©enne (ci-aprĂšs dĂ©nommĂ©s âles traitĂ©sâ). »
2. Article 19 de la Charte, Protection en cas dâĂ©loignement, dâexpulsion et dâextradition: « 1. Les expulsions collectives sont interdites. 2. Nul ne peut ĂȘtre Ă©loignĂ©, expulsĂ© ou extradĂ© vers un Ătat oĂč il existe un risque sĂ©rieux quâil soit soumis Ă la peine de mort, Ă la torture ou Ă dâautres peines ou traitements inhumains ou dĂ©gradants. »
3. MyAidbyFAR est un exemple dâinitiative qui vise Ă aider les individus Ă prendre des dĂ©cisions Ă©clairĂ©es concernant leurs procĂ©dures dâimmigration et dâaider les membres de la sociĂ©tĂ© civile Ă leur fournir des informations. Elle a Ă©tĂ© prĂ©sentĂ©e lors dâune confĂ©rence le vendredi 17 mars 2023 Ă la Vrij Universiteit Amsterdam, https://vu.nl/en/ events/2023/legal-technology-a-stance-for-socialjustice, consultĂ© le 3 avril 2023.
4. Le projet LeaveNoOneBehind associe la localisation tĂ©lĂ©phonique des personnes Ă une photo pour fournir une preuve de leur prĂ©sence dans lâUE. Mathias Monroy, Projet LeaveNoOneBehind: Une appli pour le droit dâasile (digit.site36, 17 octobre 2022), https://digit.site36. net/2022/10/17/sea-watch-an-app-for-the-right-toasylum/, consultĂ© le 3 avril 2023.
5. Article 7 de la Charte : respect de la vie privée et familiale.
6. Article 52 de la Charte : portée et interprétation des droits et des principes.
7. Affaire C-291/12, Michael Schwarz c. Ville de Bochum [2013] CJUE, EU:C:2013:670.
8. Schwarz, cons. 43.
9. Schwarz, cons. 36-37.
10. Affaires jointes C-148/13 Ă C-150/13, A, B, C c. Staatssecretaris van Veiligheid en Justitie [2014] Conclusions de lâavocat gĂ©nĂ©ral Sharpston, EU:C:2014:2111.
11. Affaires jointes C-148/13 Ă C-150/13, A, B, C c. Secretary of State for Security and Justice [2014] CJUE, EU:C:2014:2406.
12. Selon le dictionnaire Oxford, le terme « pseudoscience » est « utilisĂ© pour dĂ©signer des idĂ©es et des thĂ©ories qui semblent avoir fait lâobjet de recherches approfondies et ĂȘtre scientifiques mais qui, en rĂ©alitĂ©, ne sont pas Ă©tayĂ©es par des preuves suffisantes », comme nous lâavons lu pour la premiĂšre fois dans le contexte de ce billet de blog : Nuno Ferreira et Denise Venturi, Tell me what you see and Iâll tell youâre gay : Analysing the Advocate Generalâs Opinion in Case C-473/16, F v BevĂĄndorlĂĄsi Ă©s ĂllampolgĂĄrsĂĄgi Hivatal (eumigrationlawblog.eu, 24 novembre 2017), https://eumigrationlawblog.eu/tell-me-what-yousee-and-ill-tell-you-if-youre-gay-analysing-the-advocate-generals-opinion-in-case-c-47316-f-v-bevandorlasi-es-allampolgarsagi-hivatal/, consultĂ© le 03 avril 2023.
13. Affaire C-473/16, F/Office de lâimmigration et de la nationalitĂ© [2018] CJUE, EU:C:2018:36, cons. 58.
14. Affaire C-473/16, F/Office de lâimmigration et de la nationalitĂ© [2018] CJUE, EU:C:2018:36, cons. 53.
15. Ozkul, D., « Automating Immigration and Asylum: The Uses of New Technologies in Migration and Asylum Governance in Europe », Oxford: Refugee Studies Centre, 2023, University of Oxford p. 50-53. « EU deportations organized on the basis of social media profiles » (Statewatch, 13 février 2023), https://www.statewatch.org/news/2023/february/eu-deportations-organized-on-the-basis-of-social-media-profiles/, consulté le 03 avril 2023.
16. Dr. Francesca Palmiotto et Dr. Derya Ozkul, « âLike Handing My Whole Life Overâ: The German Federal Administrative Courtâs Landmark Ruling on Mobile Phone Data Extraction in Asylum Procedures » (Verfassungsblog, 28 fĂ©vrier 2023), https://verfassungsblog.de/like-handing-my-whole-lifeover/, consultĂ© le 03 avril 2023.
17. Nuno Ferreira et Denise Venturi, « Tell me what you see and Iâll tell you if youâre gay: Analysing the Advocate Generalâs Opinion in Case C-473/16, F v BevĂĄndorlĂĄsi Ă©s ĂllampolgĂĄrsĂĄgi Hivatal » (eumigrationlawblog.eu, 24 novembre 2017), https://eumigrationlawblog.eu/tell-mewhat-you-see-and-ill-tell-you-if-youre-gay-analysingthe-advocate-generals-opinion-in-case-c-47316-f-vbevandorlasi-es-allampolgarsagi-hivatal/, consultĂ© le 03 avril 2023.
18. « Joint statement: The EU Artificial Intelligence Act must protect people on the move » (Statewatch, 06 décembre 2022), https://www.statewatch.org/news/2022/december/ joint-statement-the-eu-artifical-intelligence-act-mustprotect-people-on-the-move/, consulté le 03 avril 2023.
19. Niovi Vavoula, « Databases for Non-EU Nationals and the Right to Private Life: Towards a System of Generalised Surveillance of Movement? » in Francesca Bignami (dir.), EU Law in Populist Times: Crises and Prospects, Cambridge University Press, 2020, p. 229.
20. Nouvelle carte en ligne des bases de donnĂ©es « interopĂ©rables » de lâUE en matiĂšre dâimmigration et de police (Statewatch, 09 novembre 2022), https://www. statewatch.org/news/2022/november/new-online-mapof-the-eu-s-interoperable-immigration-and-policingdatabases, consultĂ© le 04 avril 2023.
21. Article 8 de la Charte: protection des données à caractÚre personnel.
22. Proposition modifiĂ©e de rĂšglement du Parlement europĂ©en et du Conseil relatif Ă la crĂ©ation dâ« Eurodac » pour la comparaison de donnĂ©es biomĂ©triques aux fins de lâapplication effective du rĂšglement (UE) XXX/XXX [rĂšglement relatif Ă la gestion de lâasile et de la migration] et du rĂšglement (UE) XXX/XXX [rĂšglement relatif Ă la rĂ©installation], pour lâidentification des ressortissants de pays tiers ou des apatrides en sĂ©jour irrĂ©gulier, et relatif aux demandes de comparaison avec les donnĂ©es Eurodac prĂ©sentĂ©es par les autoritĂ©s rĂ©pressives des Ătats membres et Europol Ă des fins rĂ©pressives, et modifiant les rĂšglements (UE) 2018/1240 et (UE) 2019/818 [2020] COM/2020/614 final.
23. Affaire C-503/03, Commission des CommunautĂ©s europĂ©ennes c. Royaume dâEspagne [2006] CJUE EU:C:2006:74.
24. Article 47: Droit à un recours effectif et à accéder à un tribunal impartial.
25. Affaires jointes C-225/19 et C-226/19, R.N.N.S. et K.A. c. Minister van Buitenlandse Zaken [2020] CJUE EU:C:2020:951.
26. Norris, C., de Hert, P., LâHoiry, X., & Galleta, A. (dir.), « The unaccountable state of surveillance: Exercising access rights in Europe » (Law, Governance and Technology Series; Vol. 34, 2017), Springer International.
27. Comité Helsinki hongrois, The Right to Know - Comparative Report on Access to Classified Data in National Security Immigration Cases in Cyprus, Hungary and Poland (13 septembre 2021) https://helsinki.hu/en/comparative-report-on-access-to-classified-data-in-national-security-immigration-cases/ consulté le 3 avril 2023.
28. Affaire C-362/14, Maximillian Schrems c. Commissaire à la protection des données [2015] CJUE EU: C:2015:650.
29. Laura Dreschler, âWanted: LED adequacy decisions: How the absence of any LED adequacy decision is hurting the protection of fundamental rights in a law enforcement contextâ, International Data Privacy Law, 11(2), 2021, p. 182-195.
30. En raison de lâaugmentation des donnĂ©es stockĂ©es et Ă©changĂ©es dans les systĂšmes dâinformation europĂ©ens sur la migration et lâasile.
31. Jane Kilpatrick, Chris Jones, « Empowering the police, removing protections: the new Europol Regulation », Statewatch, 2022, https://www.statewatch.org/publications/reports-and-books/empowering-the-police-removing-protections-the-new-europol-regulation/, consulté le 03 avril 2023.
32. LudÄk Stavinoha, Apostolis Fotiadis et Giacomo Zandonini, « EUâs Frontex Tripped in Its Plan for âIntrusiveâ Surveillance of Migrants », (Balkan Insight, 7 juillet 2022), https://balkaninsight.com/2022/07/07/eus-frontex-tripped-in-planfor-intrusive-surveillance-of-migrants/, consultĂ© le 03 avril 2023.
33. Observations formelles du CEPD sur la proposition de rÚglement relatif au corps européen de garde-frontiÚres et de garde-cÎtes (30 novembre 2018, CEPD), https://edps. europa.eu/data-protection/our-work/publications/comments/formal-comments-edps-proposal-regulation-european_de, consulté le 03 avril 2023.
34. Wojciech Wiewiórowski, « Privacy and data protection too often suspended at EU borders » (27 janvier 2023, Euractiv), https://www.euractiv.com/section/data-privacy/opinion/ it-is-time-to-tear-down-this-wall/, consulté le 03 avril 2023.
35. Teresa Quintel, Managing Migration Flows by processing Personal Data within the adequate Data Protection Instrument: Scoping Exercise between general and law enforcement Data Protection Rules applicable to Third Country Nationals, Upsala Universiteit et Université du Luxembourg, ThÚse de doctorat, 2021. p. 290. http://uu.diva-portal.org/smash/record.jsf?pid=diva2%3A1569545&dswid=135, consulté le 03 avril 2023.
36. Petra Molnar, « Technological Testing Grounds: Border tech is experimenting with peopleâs lives » (9 novembre 2019, EDRI and the refugee law lab), https://edri.org/ our-work/technological-testing-grounds-border-techis-experimenting-with-peoples-lives/, consultĂ© le 03 avril 2023.
37. Agence des droits fondamentaux (2022) Establishing national independent mechanisms to monitor fundamental rights compliance at EU external borders, https://fra. europa.eu/es/publication/2022/border-rights-monitoring, consulté le 3 avril 2023.
Article 20
1. Frantz Fanon, Peau noire, Masques blancs, Ăditions du Seuil, coll. Esprit, 1952, p. 88-89.
2. Un compte-rendu plus complet de ses expériences est disponible dans son discours TEDxBeaconStreet: Joy Buolamwini, Code4Rights, Code4All (2016)
3. Joy Buolamwini y Timnit Gebru, «Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification», Proceedings of Machine Learning Research 81 (2018) 77-91
4. Simone Browne, Dark Matters. On the Surveillance of Blackness, Duke University Press, 2015, p. 8.
5. Pour des aperçus et des exemples, outre les ouvrages citĂ©s dans les autres notes de bas de page, voir par exemple Cathy OâNeil, Weapons of Math Destruction. How Big Data Increases Inequality and Threatens Democracy (Crown, 2016) ; Virginia Eubanks, Automating Inequality : How High-tech Tools Profile, Police, and Punish the Poor (St. Martinâs Press, 2018) ; Catherine DâIgnazio et Lauren F. Klein, Data Feminism (MIT Press, 2020) ; Jens T. Theilen y otros, «Feminist Data Protection: An Introduction», Internet Policy Review 10 (2021) doi:10.14763/2021.4.1609
6. Pour une discussion sur ce point dans le contexte des technologies numériques, voir Julie E. Cohen, Between Truth and Power : The Legal Constructions of Informational Capitalism (Oxford University Press, 2019), p. 239 ; Tendayi E. Achiume, Racial discrimination and emerging digital technologies: a human rights analysis (2020), UN Doc. A/ CDH/44/57.
7. Voir Shoshana Zuboff, The Age of Surveillance Capitalism: The Fight for a Human Future at the new Frontier of Power (Public Affairs, 2019).
8. Par exemple, CJCE, affaire C-414/16 - Egenberger, considérant 76.
9. Pour une critique du « cadre dominant actuel Ă axe unique au sein de la lĂ©gislation de lâUE sur lâĂ©galitĂ© » ainsi que des pistes possibles, voir Nozizwe Dube, âNot Just Another Islamic Headscarf Caseâ, European Law Blog, 19 janvier 2023.
10. Pour une vue dâensemble des dĂ©bats sur lâintersectionnalitĂ©, voir Patricia Hill Collins et Sirma Bilge, Intersectionality (2e Ă©d., Polity 2020), en particulier les pages 127-138 sur les mĂ©dias sociaux et la violence numĂ©rique ; dans le contexte de la lĂ©gislation antidiscrimination, voir KimberlĂ© Crenshaw, âDemarginalizing the Intersection of Race and Sex : A Black Feminist Critique of Antidiscrimination Doctrine, Feminist Theory and Antiracist Politicsâ, University of Chicago Legal Forum, 1989, p. 139 ; Shreya Atrey, Intersectional Discrimination (Oxford University Press, 2019) ; Anna Lauren Hoffmann, âWhere Fairness Fails : Data, Algorithms, and the Limits of Antidiscrimination Discourse », Communication & Society, n° 22, 2019, p. 900
11. Safiya Umoja Noble, Algorithms of Oppression. How Search Engines Reinforce Racism (New York University Press, 2018).
12. Center for Intersectional Justice, Intersectional Discrimination in Europe : Relevance, Challenges and Ways Forward (2019), p. 20 ; un pas dans la bonne direction est fourni par le Parlement europĂ©en, RĂ©solution du 6 juillet 2022 sur la discrimination intersectionnelle dans lâUnion europĂ©enne (P9_TA(2022)0289)
13. Aisha P.L. Kadiri, âData and Afrofuturism: An Emancipated Subject?â, Internet Policy Review, n° 10 (4), 2021, doi:10.14763/2021.4.1597
14. Os Keyes, âThe Misgendering Machines: Trans/HCI Implications of Automatic Gender Recognitionâ, Proceedings of the ACM on Human-Computer Interaction, n° 2, 2018, p. 88 ; Foad Hamidi, Morgan Klaus Scheuerman et Stacy M.
Branham, âGender Recognition or Gender Reductionism? The Social Implications of Automatic Gender Recognition Systemsâ, CHI â18: Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems, n° 1, 2018, p. 8.
15. Voir Ă©galement Morgan Klaus Scheuerman, Madeleine Pape et Alex Hanna, âAuto-essentialization: Gender in Automated Facial Analysis as Extended Colonial Projectâ, Big Data & Society, n° 8 (2), 2021, doi:10.1177/20539517211053712.
16. Mar Hicks, âSexism is a Feature, Not a Bugâ in Thomas S. Mullaney et al. (dir.), Your Computer is on Fire (MIT Press, 2021) ; voir notamment leur chapitre « When Did the Fire Start? » issu du mĂȘme ouvrage.
17. Ruha Benjamin, « Race After Technology. Abolitionist Tools for the New Jim Code », (Polity, 2019), p. 44.
18. P. Khalil Saucier et Tryon P. Woods, « Ex Aqua: The Mediterranean Basin, Africans on the Move and the Politics of Policing », Theoria, n° 61, 2014, p. 55-75.
19. Dean Spade, âIntersectional Resistance and Law Reformâ, Signs, n° 38, 2013, p. 1031-1055.
20. bell hooks, âThe Oppositional Gaze. Black Female Spectatorsâ, Black Looks: Race and Representation (South End Press, 1992), p. 116.
21. Marika Cifor et al., Feminist Data Manifest-No (2019), principe n° 21.
Article 21
1. Parmi les travaux importants en la matiĂšre, citons Safiya Umoja Noble, Algorithms of oppression : How search engines reinforce racism (New York University Press, 2018) ; Joy Buolamwini et Timnit Gebru, âGender Shades : Intersectional Accuracy Disparities in Commercial Gender Classificationâ, Conference on Fairness, Accountability, and Transparency, Proceedings of Machine Learning Research, n° 81, 2018, p. 77-91 ; Ruha Benjamin, Race after technology : Abolitionist tools for the new Jim code (Oxford University Press, 2020).
2. C-617/10 Ă
klagaren c. Hans Ă
kerberg Fransson EU:C:2013:105, cons. 26.
3. LâĂ©tendue de la protection est inĂ©gale selon les domaines protĂ©gĂ©s : le domaine du travail, par exemple, est intĂ©gralement couvert, alors que lâaccĂšs aux biens et aux services ne lâest quâen matiĂšre dâĂ©galitĂ© des genres et de race.
4. C-414/16 Vera Egenberger c. Evangelisches Werk fĂŒr Diakonie und Entwicklung e.V. EU:C:2018:257, cons. 81.
5. Ibid, cons. 76-79.
6. Cf. par exemple C-406/15 Petya Milkova c. Izpalnitelen direktor na Agentsiata za privatizatsia i sledprivatizatsionen kontrol EU:C:2017:198 et C-528/13 Geoffrey LĂ©ger c. Ministre des Affaires sociales, de la SantĂ© et des Droits des femmes and Ătablissement français du sang EU:C:2015:288.
7. Voir Claire Kilpatrick, âArticle 21: Non-Discriminationâ in S. Peers, T. Hervey, J. Kenner et A. Ward, The EU Charter of Fundamental Rights. A Commentary (Hart Publishing, 2014) ; Emmanuelle Bribosia et al., « Article 21: Non-Discrimination » in F. Picod, S. van Drooghenbroeck et C. Rizcallah, Charte des droits fondamentaux de lâUnion europĂ©enne: Commentaire article par article (Bruylant, 2017).
8. RĂšglement relatif Ă la protection des personnes physiques Ă lâĂ©gard du traitement des donnĂ©es Ă caractĂšre personnel et Ă la libre circulation de ces donnĂ©es, et abrogeant la directive 95/46/CE (RĂšglement gĂ©nĂ©ral sur la protection des donnĂ©es) [2016] JO 2 119/1.
9. Voir J. Buolamwini and T. Gebru, âGender Shades: Intersectional Accuracy Disparities in Commercial Gender Classificationâ, Proceedings of Machine Learning Research, n° 81, 2018, p. 77-91 ; ainsi quâH. F. Menezes, A. S. C. Ferreira, E. T. Pereira et H. M. Gomes, âBias and Fairness in Face Detectionâ, 34th SIBGRAPI Conference on Graphics, Patterns and Images (SIBGRAPI), 2021, p. 247-254.
10. Le droit europĂ©en ne fixe que des exigences minimales pour la protection contre la discrimination et le droit national peut accorder une protection plus Ă©tendue tant quâil reste conforme aux traitĂ©s de lâUE. Toutefois, les considĂ©rations relatives au droit national sortent du cadre de cet essai.
11. Article 3 (1) (g) de la Directive 2000/43/EC.
12. C-414/16 Egenberger EU:C:2018:257.
13. Voir College voor de Rechten van de Mens, jugement 2022-146 (7 dĂ©cembre 2022), disponible Ă lâadresse https://oordelen.mensenrechten.nl/oordeel/2022-146
14. Pour ce faire, il sâest appuyĂ© sur la constatation de la CJUE selon laquelle un requĂ©rant peut « étayer une apparence de discrimination en se fondant sur des donnĂ©es statistiques gĂ©nĂ©rales [âŠ] dans le cas oĂč il ne saurait ĂȘtre attendu de lâintĂ©ressĂ© quâil produise des donnĂ©es plus prĂ©cises relatives au groupe de travailleurs pertinent, celles-ci Ă©tant difficilement accessibles, voire indisponibles ». Voir C-274/18 Minoo Schuch-Ghannadan c. Medizinische UniversitĂ€t Wien EU:C:2019:828, cons. 56.
15. LâInstitut sâest rĂ©fĂ©rĂ© Ă la dĂ©cision de la Cour europĂ©enne des droits de lâhomme dans lâaffaire Basu c. Allemagne, requĂȘte n° 215/19 (Cour europĂ©enne des droits de lâhomme, 18 octobre 2022).
16. Voir Janneke Gerards et Frederik Borgesius, « Protected Grounds and the System of Non-discrimination Law in the Context of Algorithmic Decision-making and Artificial Intelligence », Colorado Technology Law Journal, n° 20 (1), 2022.
17. Cf. C-354/13 Fag og Arbejde (FOA) c. Kommunernes Landsforening (KL) EU:C:2014:2463, cons. 36 et 39.
18. Voir RaphaĂ«le Xenidis, Beyond the âMasterâs Toolsâ : Putting Intersectionality to Work in European Non-Discrimination Law (2020) Institut universitaire europĂ©en.
19. Joy Buolamwini et Timnit Gebru, âGender Shades: Intersectional Accuracy Disparities in Commercial Gender Classificationâ, Conference on Fairness, Accountability, and Transparency, Proceedings of Machine Learning Research, n° 81, 2018, p. 1-15.
20. C-443/15 David L. Parris c. Trinity College Dublin and Others EU:C:2016:897.
21. La discrimination directe et indirecte entraĂźne lâapplication de rĂ©gimes de justification diffĂ©rents. Comme mentionnĂ© ci-dessus, la discrimination indirecte peut ĂȘtre justifiĂ©e en satisfaisant aux trois critĂšres du test de proportionnalitĂ©. En revanche, les dĂ©rogations Ă la discrimination directe sont limitĂ©es Ă quelques exceptions explicitement prĂ©vues dans les directives europĂ©ennes.
22. Voir RaphaĂ«le Xenidis, âAlgorithmic Neutrality vs Neutralising Discriminatory Algorithms : For a Paradigm Shift in EU Anti-Discrimination Lawâ, Lavoro e Diritto, n° 4, 2022, p. 765-771 et RaphaĂ«le Xenidis, âWhen computers say no : Towards a legal response to algorithmic discrimination in Europeâ in Bartosz BroĆŒek, Olia Kanevskaia & PrzemysĆaw PaĆka (dir.), Research Handbook on Law and Technology (Edward Elgar, Ă paraĂźtre).
23. Voir RaphaĂ«le Xenidis, âThe Polysemy of Anti-discrimination Law: The Interpretation Architecture of the Framework Employment Directive at the Court of Justiceâ, Common Market Law Review, n° 58 (6), 2021, p. 1649-1696.
24. Un contre-argument potentiel pour la partie dĂ©fenderesse pourrait ĂȘtre que le systĂšme vise Ă garantir lâĂ©quitĂ© et le mĂ©rite dans les examens, qui sont des dimensions clĂ©s du
droit fondamental Ă lâĂ©ducation protĂ©gĂ© par lâarticle 14 de la Charte.
25. Des difficultĂ©s se posent Ă©galement en ce qui concerne lâĂ©valuation du choix par les fournisseurs de systĂšmes de mesures et dâinterventions adĂ©quates en matiĂšre dâĂ©quitĂ©.
1. Bits of freedom, We want more than âsymbolicâ gestures in response to discriminatory algorithms, 10 February 2021, https://edri.org/our-work/we-want-more-than-symbolic-gestures-in-response-to-discriminatory-algorithms/
2. BNNVARA, Veel meer kinderen van toeslagenschandaal-ouders uit huis geplaatst dan tot nu toe bekend was, 30 November 2022, https://www.bnnvara.nl/joop/artikelen/veel-meer-kinderen-van-toeslagenschandaal-oudersuit-huis-geplaatst-dan-tot-nu-toe-bekend-was
3. Belastingdienst/Toeslagen, De verwerking van de nationaliteit van aanvragers van kinderopvangtoeslag, Onderzoeksrapport | z2018-22445,
4. https://autoriteitpersoonsgegevens.nl/uploads/imported/ onderzoek_belastingdienst_kinderopvangtoeslag.pdf
5. Amnesty International, Toeslagenschandaal is mensenrechtenschending, zegt Amnesty International, 25 October 2021, https://www.amnesty.nl/actueel/toeslagenaffaire-is-mensenrechtenschending-zegt-amnesty-international
6. Bits of freedom, De Belastingdienst laat internationaal goed zien hoe het dus niet moet, 28 October 2021, https:// www.bitsoffreedom.nl/2021/10/28/de-belastindienst-laatinternationaal-goed-zien-hoe-het-dus-niet-moet/
7. Controlealtdelete, Etnisch en religieus geladen risicoprofielen bij Belastingdienst, https://controlealtdelete. nl/articles/etnisch-en-religieus-geladen-risicoprofielen-bij-belastingdienst
8. K.W. Crenshaw (2017), On Intersectionality: Essential Writings, The New York Press, https://scholarship.law.columbia. edu/books/255/
9. Rechtbank Den Haag, ECLI:NL:RBDHA:2020:865,
10. https://uitspraken.rechtspraak.nl/#!/details?id=ECLI:NL:RBDHA:2020:1878
11. NOS, Ouders zwartgelakte dossiers: âIk weet nog steeds niet wat ik fout heb gedaanâ, 11 December 2019, https:// nos.nl/artikel/2314288-ouders-zwartgelakte-dossiers-ikweet-nog-steeds-niet-wat-ik-fout-heb-gedaan
12. deRechtspraak, Reflectie bestuursrechters rechtbanken op toeslagenaffaire gepubliceerd, Toeslagenaffaire: âBelang rechtsbescherming individu moet zwaarder wegen dan vaste lijn jurisprudentieâ, 8 October 2021, https://www. rechtspraak.nl/Organisatie-en-contact/Organisatie/ Raad-voor-de-rechtspraak/Nieuws/Paginas/Toeslagenaffaire-Belang-rechtsbescherming-individu-moet-zwaarder-wegen-dan-vaste-lijn-jurisprudentie.aspx
Article 8
1. Affaires jointes C 203/15 et C 698/15 Tele2 Sverige AB c. Post- och telestyrelsen, cons. 129.
2. Affaire C 131/12 Google Spain SL c. AEPD.
3. RĂšglement (UE) 2016/679 du Parlement europĂ©en et du Conseil du 27 avril 2016 relatif Ă la protection des personnes physiques Ă lâĂ©gard du traitement des donnĂ©es Ă caractĂšre personnel et Ă la libre circulation de ces donnĂ©es, et abrogeant la directive 95/46/CE (rĂšglement gĂ©nĂ©ral sur la protection des donnĂ©es) (Texte prĂ©sentant de lâintĂ©rĂȘt pour lâEEE).
4. Directive (UE) 2016/680 du Parlement europĂ©en et du Conseil du 27 avril 2016 relative Ă la protection des personnes physiques Ă lâĂ©gard du traitement des donnĂ©es Ă
Article 7
caractĂšre personnel par les autoritĂ©s compĂ©tentes Ă des fins de prĂ©vention et de dĂ©tection des infractions pĂ©nales, dâenquĂȘtes et de poursuites en la matiĂšre ou dâexĂ©cution de sanctions pĂ©nales, et Ă la libre circulation de ces donnĂ©es, et abrogeant la dĂ©cision-cadre 2008/977/JAI du Conseil.
5. Voir, par exemple, lien supra (RĂšglement 2016/679), arts. 4 (1) et 4 (2).
6. Affaire C-73/07 Tietosuojavaltuutettu c. Satakunnan Markkinapörssi Oy, cons. 36-37.
7. Affaire C 434/16 Nowak c. DPC, cons. 34.
8. Affaire C-582/14 Breyer c. RĂ©publique fĂ©dĂ©rale dâAllemagne, cons. 44.
9. Voir affaire C 291/12 Schwarz c. Stadt Bochum, cons. 28.
10. Supra note n°1.
11. Directive 2002/58/CE du Parlement européen et du Conseil du 12 juillet 2002 concernant le traitement des données à caractÚre personnel et la protection de la vie privée dans le secteur des communications électroniques (directive vie privée et communications électroniques), OJ L 201, art. 1 (3).
12. Supra note n°1, cons. 67-81.
13. Affaire C 623/17 Privacy International c. SSFCA.
14. Ibid, cons. 40-41.
15. Voir, entre autres, les affaires jointes C 92/09 et C 93/09, Schecke c. Land Hessen, Rec. 2010, p. I-11063.
16. Voir, par exemple, les affaires jointes C 293/12 et C 594/12 Digital Rights Ireland c. Minister for Communications, Marine and Natural Resources, cons. 36.
17. Christopher Docksey, âFour fundamental rights: finding the balanceâ, International Data Privacy Law, Vol. 6, 2016, p. 195.
18. Supra note n° 15, cons. 52.
19. Voir FRA/ECtHR/EDPS, Manuel de droit europĂ©en en matiĂšre de protection des donnĂ©es, Publication de lâAgence des droits fondamentaux de lâUnion europĂ©enne, 2018, p. 20.
20. R (Bridges) v CCSWP [2019] EWHC 2341 (Admin).
21. Herke Kranenborg, âArticle 8â in Steve Peers, Tamara Hervey, Jeff Kenner et Angela Ward (dir.), The EU Charter of Fundamental Rights: A Commentary, Hart, 2021, p. 242.
22. Supra note n° 16, cons. 39-40.
23. Ibid, cons. 40.
24. Maja Brkan, âThe Essence of the Fundamental Rights to Privacy and Data Protection: Finding the Way Through the Maze of the CJEUâs Constitutional Reasoningâ, German Law Journal, vol. 20, 2019, p. 864 et s., p. 878.
25. Affaire C 73/16 PuĆĄkĂĄr c. FinanÄnĂ© riaditeÄŸstvo Slovenskej republiky, cons. 64.
26. Affaire C 205/21 V.S., cons. 125-128.
27. Affaires jointes C 511/18, C 512/18 et C 520/18 La Quadrature du Net c. Premier ministre, cons. 136-137.
28. Supra note n° 2, cons. 81.
29. Affaires jointes C 37/20 et C 601/20 WM c. Luxembourg Business Registers, cons. 83-86.
Article 41
1. Les auteurs sont introduits par ordre alphabétique, leur contribution à cet essai est égale.
2. https://eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=OJ:JOC_1988_180_R_0007_01&from=ES
3. https://curia.europa.eu/juris/document/document. jsf;jsessionid=1A4F9052F6441373B59362B8770E246D?text=&docid=130241&pageIndex=0&doclang=ES&mode=lst&dir=&occ=first&part=1&cid=1552373
4. https://curia.europa.eu/juris/document/document.jsf?text=&docid=234205&pageIndex=0&doclang=ES&mode=ls-
t&dir=&occ=first&part=1&cid=1553564
5. Ibid
6. https://curia.europa.eu/juris/showPdf.jsf;jsessionid=7DA478E8C73B02CCE9126CEC38D3B3C8?text=&docid=97440&pageIndex=0&doclang=ES&mode=lst&dir=&occ=first&part=1&cid=124762
7. https://curia.europa.eu/juris/document/document.jsf?text=&docid=110209&pageIndex=0&doclang=ES&mode=lst&dir=&occ=first&part=1&cid=129508
8. https://verfassungsblog.de/frontex-and-algorithmic-discretion-part-i/
9. https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=celex:32021R1152
10. https://raley.english.ucsb.edu/wp-content/Engl800/Pasquale-blackbox.pdf
11. https://www.europarl.europa.eu/RegData/etudes/ IDAN/2021/690706/EPRS_IDA(2021)690706_EN.pdf
12. https://scholarlypublications.universiteitleiden.nl/handle/1887/3439725
13. https://arxiv.org/pdf/1606.08813.pdf
14. S. Wachter, B. Mittelstadt, L. Floridi, Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation, International Data Privacy Law, 7(2):76â99, https://doi.org/10.1093/idpl/ipx005
15. https://curia.europa.eu/juris/showPdf.jsf?text=&docid=45418&pageIndex=0&doclang=ES&mode=lst&dir=&occ=first&part=1&cid=2109541
16. https://curia.europa.eu/juris/showPdf.jsf?text=&docid=99241&pageIndex=0&doclang=ES&mode=lst&dir=&occ=first&part=1&cid=14505857
17. https://curia.europa.eu/juris/document/document.jsf?text=&docid=65303&pageIndex=0&doclang=ES&mode=lst&dir=&occ=first&part=1&cid=14505723
18. Busuioc, M., Curtin, D., & Almada, M. (2023). Reclaiming transparency: contesting the logics of secrecy within the AI Act. European Law Open, 2(1), 79â105. doi:10.1017/ elo.2022.47
Article 47
1. Chisnall, M., âDigital slavery, time for abolition?â, Policy Studies, 2020, 41 (5), p. 488-506.
2. Voir par exemple : RĂšglement 2016/679/UE du Parlement europĂ©en et du Conseil du 27 avril 2016 relatif Ă la protection des personnes physiques Ă lâĂ©gard du traitement des donnĂ©es Ă caractĂšre personnel et Ă la libre circulation de ces donnĂ©es [2016].
3. Van Dalen, S. Gilder, A. Hooydonk, E. Ponsen, E. (2016) System Risk Indication An Assessment of the Dutch Anti-Fraud System in the Context of Data Protection and Profiling https://pilpnjcm.nl/wp-content/uploads/2016/06/memorandum_1_-_system_risk_indication_an_assessment_of_ the_dutch_anti-fraud_system_in_the_context_of_data_ protection_and_profiling-1.pdf
4. Rachovitsa, A., & Johann, N., âThe human rights implications of the use of AI in the digital welfare state: Lessons learned from the Dutch SyRI caseâ, Human Rights Law Review, 2022, 22 (2), ngac010.
5. Ibid.
6. Loi SUWI, Art. 65 (1).
7. MĂ©moire du rapporteur spĂ©cial des Nations unies sur lâextrĂȘme pauvretĂ© et les droits humains en tant quâamicus curiae dans lâaffaire NJCM c.s./De Staat der Nederlanden (SyRI) devant le tribunal de district de La Haye (numĂ©ro dâaffaire C/09/550982/ HA ZA 18/388).
8. Ibid.
9. Ibid.
10. Lenaerts, K., âExploring the limits of the EU charter of fundamental rightsâ, European Constitutional Law Review, 2012, 8 (3), p. 375-403.
11. Ibid.
12. Klamert, M., âThe implementation and application of the Charter of Fundamental Rights of the EU in Austriaâ, Acta Universitatis Carolinae Iuridica, 2018, 64 (4), p. 89-99.
13. Pech, Laurent, et SĂ©bastien Platon, âJudicial independence under threat: the Court of Justice to the rescue in the ASJP caseâ, Common Market L. Rev., 2018, 55, p. 1827.
14. Mulders, S., âThe relationship between the principle of effectiveness under Art. 47 CFR and the concept of damages under Art. 82 GDPRâ, International Data Privacy Law, 2023, Vol. 00, No. 0.
15. Dans lâaffaire Digital Rights Ireland Ltd c. Minister for Communications, Marine and Natural Resources, la Cour a dĂ©clarĂ© la directive europĂ©enne imposant des fournisseurs dâaccĂšs Ă Internet (FAI) invalide en vertu des articles 7 et 8 de la Charte. Dans lâaffaire Tele2/Watson, la CJUE a dĂ©cidĂ© que la lĂ©gislation nationale permettant la conservation indiscriminĂ©e de donnĂ©es provenant dâappareils Ă©lectroniques Ă des fins de lutte contre la criminalitĂ© violait les droits consacrĂ©s par les articles 7 et 8 de la Charte. Par ailleurs, lâaffaire Google c. Espagne en 2014 et les affaires Schrems (2015 et 2020) ont portĂ© sur des questions liĂ©es au droit Ă la suppression des donnĂ©es sur les plateformes et aux rĂšgles concernant le partage des donnĂ©es Ă caractĂšre personnel avec des pays tiers. Voir Cameron, I., âBalancing data protection and law enforcement needs: Tele2 Sverige and Watsonâ, Common Market L. Rev., 2017, n° 54, p. 1467 et Voss, W. G., âEuropean union data privacy law reform: General data protection regulation, privacy shield, and the right to delistingâ, The Business Lawyer, 2016, 72 (1), p. 221-234.
9. âThe Algorithm Addictionâ (Rapports Lighthouse), https:// www.lighthousereports.nl/investigation/the-algorithm-addiction.
10. Voir Choroszewicz, note n° 5 ; Human Rights Watch, âHow the EUâs Flawed Artificial Intelligence Regulation Endangers the Social Safety Net: Questions and Answersâ, https://www. hrw.org/news/2021/11/10/how-eus-flawed-artificial-intelligence-regulation-endangers-social-safety-net.
11. Mike Ananny et Kate Crawford, âSeeing without Knowing: Limitations of the Transparency Ideal and Its Application to Algorithmic Accountabilityâ, New Media & Society, 2018, Vol. 20, p. 973.
12. Sandra Wachter, Brent Mittelstadt et Chris Russell, âWhy Fairness Cannot Be Automated: Bridging the Gap between EU Non-Discrimination Law and AIâ, Computer Law & Security Review, Vol. 41, 2021, 105567.
13. âAustriaâs Employment Agency Rolls out Discriminatory Algorithm, Sees No Problemâ (AlgorithmWatch), https:// algorithmwatch.org/en/austrias-employment-agency-ams-rolls-out-discriminatory-algorithm/ (consultĂ© le 27 fĂ©vrier 2023).
14. Ada Lovelace Institute, AI Now Institute and Open Government Partnership (2021), âAlgorithmic accountability for the public sectorâ, https://www.opengovpartnership.org/ wp-content/uploads/2021/08/algorithmic-accountability-public-sector.pdf
15. Agence des droits fondamentaux de lâUE, Bien prĂ©parer lâavenir. Lâintelligence artificielle et les droits fondamentaux, (Office des publications de lâUnion europĂ©enne 2020), https://fra.europa.eu/en/publication/2020/artificial-intelligence-and-fundamental-rights
16. Frans Pennings, âDoes the EU Charter of Fundamental Rights Have Added Value for Social Security?â, European Journal of Social Security, Vol. 24, 2022, p. 117.
Article 34
1. NUAG, « Rapport du Rapporteur spĂ©cial sur les droits de lâhomme et lâextrĂȘme pauvreté », A/74/493, 11 octobre 2019.
2. Virginia Eubanks, Automating Inequality: How High Tech Tools Surveil, Profile and Punish the Poor, St. Martinâs Press, Inc., 2018.
3. Johns, F., âFrom Planning to Prototypes: New Ways of Seeing Like a Stateâ, The Modern Law Review, 2019, Vol. 82, p. 833863. https://doi.org/10.1111/1468-2230.12442
4. Scott JC, Seeing Like a State: How Certain Schemes to Improve the Human Condition Have Failed, Yale University Press, 1998.
5. Algorithm Watch and Bertelsmann Stiftung, âAutomating society report 2020â, 2020 ; Marta Choroszewicz et Beata MĂ€ihĂ€niemi, « Developing a Digital Welfare State: Data Protection and the Use of Automated Decision-Making in the Public Sector across Six EU Countries », Global Perspectives, 2020, n° 1 (1), 12910.
6. Agneta Ranerup et Helle Zinner Henriksen, âDigital Discretion: Unpacking Human and Technological Agency in Automated Decision Making in Swedenâs Social Servicesâ, Social Science Computer Review, 2022, Vol. 40 (2), p. 445-461.
7. Voir Algorithm Watch, note n° 5.
8. Naomi Appelman, Ronan Ă Fathaigh et Joris van Hoboken, âSocial Welfare, Risk Profiling and Fundamental Rights: The Case of SyRI in the Netherlandsâ, Journal of Intellectual Property, Information Technology & E-Commerce Law, Vol. 12 (4), 2021, p. 257.
17. Jaan Paju, « The Charter and Social Security Rights: Time to Stand and Deliver? » European Journal of Social Security, Vol. 24, 2022, p. 21. Ane Aranguiz, âBringing the EU up to Speed in the Protection of Living Standards through Fundamental Social Rights: Drawing Positive Lessons from the Experience of the Council of Europeâ, Maastricht Journal of European and Comparative Law, Vol. 28, 2021, p. 601.
18. Observation générale n° 19: Le droit à la sécurité sociale, adoptée le 23 novembre 2007, doc. E/C.12/GC/19.
Article 28
1. https://www.ilo.org/dyn/natlex/docs/ELECTRONIC/98373/117044/F1671923749/IRL98373.pdf
2. https://www.tuc.org.uk/research-analysis/reports/section-tucs-first-victories
3. En effet, lâarticle 11 (2) de la Convention europĂ©enne des droits de lâhomme est trĂšs conditionnel Ă cet Ă©gard : « Lâexercice de ces droits ne peut faire lâobjet dâautres restrictions que celles qui, prĂ©vues par la loi, constituent des mesures nĂ©cessaires, dans une sociĂ©tĂ© dĂ©mocratique, Ă la sĂ©curitĂ© nationale Ă la sĂ»retĂ© publique Ă la dĂ©fense de lâordre et Ă la prĂ©vention du crime, Ă la protection de la santĂ© ou de la morale, ou Ă la protection des droits et libertĂ©s dâautrui. Le prĂ©sent article nâinterdit pas que des restrictions lĂ©gitimes soient imposĂ©es Ă lâexercice de ces droits par les membres des forces armĂ©es, de la police ou de lâadministration de lâĂtat. »
4. https://www.legislation.gov.uk/ukpga/2022/32/contents/ enacted
5. https://www.theguardian.com/business/2018/nov/22/ gmb-union-drops-support-for-dpd-courier-walkout-after-legal-threat
6. https://www.elpuntavui.cat/societat/article/5-societat/2254689-l-acco-planteja-una-sancio-de-mes-de-122000-euros-a-elite-taxi-per-boicotejar-uber.html
7. https://www.thetimes.co.uk/article/uber-gives-police-private-data-on-drivers-and-passengers-dm7l3gsxv
8. https://www.wired.co.uk/article/dominic-cummings-coronavirus-big-tech
9. https://files.mutualcdn.com/ituc/files/2022-ITUC-RightsIndex-Exec-Summ-ES.pdf
10. https://www.gmb.org.uk/news/uber-and-gmb-strike-historic-union-deal-70000-uk-drivers
11. https://www.gmb.org.uk/news/gmb-and-deliveroo-sign-historic-recognition-deal
12. Dans sa soumission Ă la Commission de lâemploi et des affaires sociales du Parlement europĂ©en, le gouvernement suĂ©dois a fait savoir que : « Le Riksdag est fermement opposĂ© Ă des directives plus contraignantes qui dĂ©truisent les modĂšles de marchĂ© du travail qui fonctionnent. Ces derniĂšres annĂ©es, le Riksdag a vu un certain nombre dâinitiatives de la Commission europĂ©enne qui menacent directement le modĂšle suĂ©dois du marchĂ© du travail, dans lequel les partenaires sociaux traitent les questions par le biais de conventions collectives. Le Riksdag le voit trĂšs clairement dans la proposition de directive actuelle, en particulier Ă lâarticle 4, oĂč la prĂ©somption dâune relation de travail invalide le concept suĂ©dois dâemployĂ©. Lâensemble de la proposition repose sur cette prĂ©somption de relation de travail et est, en substance, mal conçue. En outre, la directive risque dâavoir des rĂ©percussions tant sur le systĂšme fiscal que sur le systĂšme dâassurance sociale, ce qui est inacceptable. Si la proposition de directive est adoptĂ©e, elle aura des consĂ©quences considĂ©rables pour les entreprises de plateforme existantes et pour lâensemble de lâĂ©conomie Ă la demande. La proposition porte atteinte Ă lâautonomie des partenaires sociaux et constitue une menace pour le modĂšle suĂ©dois du marchĂ© du travail. Le Riksdag prend note des vives inquiĂ©tudes des organes de saisine concernant les consĂ©quences de la proposition pour le modĂšle suĂ©dois du marchĂ© du travail, en particulier en ce qui concerne lâarticle 4 et son impact sur le concept suĂ©dois dâemploi. »
13. https://www.convert.com/eu-gdpr/recital-68-gdpr/
14. https://5b88ae42-7f11-4060-85ff-4724bbfed648.usrfiles. com/ugd/5b88ae_de414334d89844bea61deaaebedfbbfe. pdf
Article 37
1. Patrick Williams et Eric Kind, Data-driven Policing: The hardwiring of discriminatory policing practices across Europe. Project Report. European Network Against Racism (ENAR), 2019 ; EDRi, « Decolonising digital rights », 2023 https://edri.org/what-we-do/decolonising-digital-rights/
2. Metcalfe P., & Dencik L., âThe politics of big borders: Data (in) justice and the governance of refugeesâ, First Monday, 2019 ; Andreea Belu, âSurveillance on the seas: Europeâs new Migration Pactâ, EDRi, 2020, https://edri.org/news/ surveillance-on-the-seas-europes-new-migration-pact/
3. Union europĂ©enne, « Charte des droits fondamentaux de lâUnion europĂ©enne ». Journal officiel de lâUnion europĂ©enne C326/391 https://eur-lex.europa.eu/eli/treaty/char_2012/ oj?locale=fr
4. Michelle Thorne, « Funders Convening on Climate Justice and Digital Rights », 2022, https://michellethorne. cc/2022/04/funders-convening-on-climate-justice-anddigital-rights/
5. Fieke Jansen, âFraming the climate crisis as a digital rights issueâ, Green Web Foundation, 2022 https://www. thegreenwebfoundation.org/news/framing-the-climatecrisis-as-a-digital-rights-issue/
6. Michael Brennan, âIntersections of Digital Rights and Environmental and Climate Justiceâ, 2022 https://www. fordfoundation.org/work/learning/learning-reflections/ intersections-of-digital-rights-and-environmental-andclimate-justice/
7. Becky Kazansky, Shayna Finnegan, & Maja Romano, âSolidarity not solutionism: Wayfinding just paths for digital infrastructure that serves the planetâ, 2023, https://www. apc.org/en/node/38497/
8. Shayna Robinson, Remy Hellstern, & Mariana Dia, âSea Change: Prioritizing the Environment in Internet Architectureâ, For IAB workshop on Environmental Impact of Internet Applications and Systems, 2022. https://github. com/intarchboard/e-impact-workshop-public/blob/ main/papers/Robinson_Sea-Change-Prioritizing-theEnvironment-in-Internet-Architecture.pdf
9. Ibid, Robinson, et al, « Sea Change ».
10. Leslie Hook & Dave Lee, âHow tech went big on green energyâ, Financial Times, 2021, https://www.ft.com/ content/0c69d4a4-2626-418d-813c-7337b8d5110d
11. Sebastian Moss, âLos Lunas locals question Facebookâs data center expansion, worry about water useâ, Data Center Dynmics, 2021 https://www.datacenterdynamics. com/en/news/los-lunas-locals-question-facebooks-datacenter-expansion-worry-about-water-use/
12. Merijn Renger et Carola Houtekamer, âDatacentra Zeewolde vragen twee keer zoveel stroom als Amsterdamâ, NRC, 2020 https://www.nrc.nl/nieuws/2020/06/21/zeewolde-speeltstraks-champions-league-met-stroomverbruik-a4003548
13. Merijn Renger & Carola Houtekamer, âGebroken beloftes: hoe de Wieringermeerpolder dichtslibde met windturbines en datacentraâ, NRC, 2020 https://www. nrc.nl/nieuws/2020/06/05/gebroken-beloftes-hoe-dewieringermeerpolder-dichtslibde-met-windturbines-endatacentra-a4001882
14. Ibid, Renger et al., âGebroken beloftesâ.
15. Ibid, Moss, âLos Lunas locals questionâ.
16. Association for Progressive Communication, âExtractivism, mining, and technology in the Global South: Towards a common agenda for actionâ, in At the interstice of digital rights and environmental justice: Four issue briefs to inform funding, 2022.
17. Niels ten Oever, âWired Norms: Inscription, resistance, and subversion in the governance of the Internet infrastructureâ, PhD thesis University of Amsterdam, 2020, https://nielstenoever.net/wp-content/uploads/2020/09/ WiredNorms-NielstenOever.pdf
18. Ibid, Association for Progressive Communication, âExtractivism, miningâ.
19. Thierry Breton, âCritical Raw Materials Act: securing the new gas & oil at the heart of our economy I Blog of Commissioner Thierry Bretonâ, European Commission, 2022, https://ec.europa.eu/commission/presscorner/detail/en/ STATEMENT_22_5523
20. Internal Market, Industry, Entrepreneurship and SMEs, âCritical raw materials. European Commissionâ, 2023, https://single-market-economy.ec.europa.eu/sectors/ raw-materials/areas-specific-interest/critical-rawmaterials_en
21. Commission europĂ©enne, « Livre blanc sur lâintelligence artificielle : une approche europĂ©enne axĂ©e sur lâexcellence et la confiance », 2020, 19.2.2020 COM(2020) 65 final.
22. Union européenne, « Charte des droits fondamentaux ».
23. Max Liboiron, Pollution is colonialism, Duke University Press, 2021.
24. Shanon Dosemagen, Emelia Williams, Katie Hoeberling & Evelin Heidel, âEnvironmental justice, climate justice, and the space of digital rightsâ, Open Environmental Data Project and Open Climate, 2022.
25. Ibid, Association for Progressive Communication, « Extractivism, mining ».
26. Fieke Jansen, âPresenting new research climate justice x digital rightsâ, Green Web Foundation, 2022, https:// www.thegreenwebfoundation.org/news/presenting-newresearch-climate-justice-x-digital-rights/
Article 38
1. Juriste senior, BEUC â Bureau EuropĂ©en des Unions de Consommateurs (opinions personnelles).
2. Lâarticle 169 du TFUE est libellĂ© comme suit: « Afin de promouvoir les intĂ©rĂȘts des consommateurs et dâassurer un niveau Ă©levĂ© de protection des consommateurs, lâUnion contribue Ă la protection de la santĂ©, de la sĂ©curitĂ© et des intĂ©rĂȘts Ă©conomiques des consommateurs ainsi quâĂ la promotion de leur droit Ă lâinformation, Ă lâĂ©ducation et Ă sâorganiser afin de prĂ©server leurs intĂ©rĂȘts [âŠ] »
3. Communication de la Commission sur la Charte des droits fondamentaux de lâUnion europĂ©enne (Bruxelles, 13 septembre 2000) (voir pt 22).
4. CHARTE 4422/00, CONVENT 45 du 28 juillet 2000.
5. Par exemple, lâamendement de Lord Goldsmith QC proposant de supprimer lâarticle car « il est si vague quâil nâapporte aucune restriction raisonnable aux institutions ni aucune aide aux individus pour les informer de leurs droits (âŠ) ».
6. Par exemple, lâamendement de Ieke van den Burg proposant de reformuler lâarticle comme suit: « toute personne a le droit dâĂȘtre protĂ©gĂ©e en tant que consommateur contre les risques pour la santĂ© et la sĂ©curitĂ© et a le droit de dĂ©fendre ses intĂ©rĂȘts individuellement et collectivement ».
7. I. Benöhr, EU consumer law and human rights, Oxford Studies in European Law, 2014, 272 p.
8. COM(2018) 185 final 2018/0089 (COD), 11 avril 2018.
9. COM(2018) 185 final 2018/0090 (COD), 11 avril 2018
10. BEUC, Regulating AI to protect the consumer, BEUC-X-2021-088, 7 October 2021.
11. I. Benöhr, EU consumer law and human rights, Oxford Studies in European Law, 2014, 272 p.
12. Agence des droits fondamentaux de lâUnion europĂ©enne, La Charte dix ans aprĂšs : comment libĂ©rer pleinement son potentiel, 2020, p.14 (https://fra.europa.eu/sites/default/ files/fra_uploads/fra-2020-fundamental-rights-report2020-focus_fr.pdf), nous soulignons.
13. CJUE, affaire C-12/11 Mc Donagh c/ Ryanair, 31 janvier 2013, ECLI:EU:C:2013:43.
14. CJUE, affaire C-12/11 Mc Donagh c/ Ryanair, 31 janvier 2013, cons. 63.
15. CJUE, Affaire C-28/20 Airhelp, 23 mars 2021, ECLI:EU:C:2021:226
16. RĂ©publique tchĂšque / Cour constitutionnelle / II. ĂS 78/19 ( http://fra.europa.eu/en/caselaw-reference/czechiaconstitutional-court-ii-us-7819).
17. Slovaquie / Cour régionale Preƥov / 10Co/51/2017 (http:// fra.europa.eu/en/caselaw-reference/slovakia-regionalcourt-presov-10co512017#deeplink2).
18. I. Benöhr, EU consumer law and human rights, Oxford Studies in European Law, 2014, 272 p.