Digital Rights are Charter Rights (French translation)

Page 1


Digital Rights are Charter Rights

Digital Rights are Charter Rights

Versión original en inglés. Traducido al español por Nafsika Petkou

Developing Information, Guidance, and Interconnectedness for (Charter) Rights Integration in Strategies for Enforcement

Éditorial

Alexandra Giannopoulou, Digital Freedom Fund

Article 11: Quand le public devient privé et que chacun est suspect – la liberté d’expression et d’information au début du XXIe siècle

Anna Mazgal, Directrice exécutive de Wikimédia Europe p.10

Article 18: Droits numériques et protection du droit d’asile dans la Charte de l’Union européenne

Romain Lanneau, chercheur à Statewatch

Article 20: Inégalités numériques et promesse de l’égalité devant la loi

Jens Theilen, Université Helmut Schmidt, Hambourg

Article 21: Le droit à la non-discrimination algorithmique: une exploration de l’article 21

Raphaële Xenidis, Professeure assistante en droit européen, Sciences Po École de droit

Article 7: Le droit au respect de la vie privée, garant des droits de l’homme

Nadia Benaissa, Bits of freedom

Article 8 de la Charte des droits fondamentaux de l’UE

Ioannis Kouvakas, Conseiller juridique principal et avocat général adjoint, Privacy International (PI) ; doctorant externe, Groupe de recherche sur le droit, la science, la technologie et la société (LSTS), Université libre de Bruxelles (VUB)

Article 41: Le droit à une bonne administration

Melanie Fink, Leiden Law School

Giulia Gentile, LSE Law School

Article 47: L’ère des inégalités numériques

Nawal Mustafa, Public Interest Litigation Project (PILP)

Article 34: Le « bien-être numérique » et le droit fondamental à la sécurité sociale et à l’aide sociale au sein de l’UE

Divij Joshi, University College London

Article 28: Le droit à la négociation collective et le cas des travailleurs des plateformes

James Farrar, Worker Info Exchange

Article 37: Protection de l’environnement, infrastructure Internet et économie des données

Fieke Jansen, chercheuse au sein du laboratoire d’infrastructures critiques de l’Université d’Amsterdam et organisatrice de la coalition Green Screen Climate Justice and Digital Rights

Article 38 de la Charte de l’UE: édulcorant ou véritable instrument opérationnel?

Alexandre Biard, BEUC - The European Consumer Organisation

“La Charte se profile désormais comme la principale voie de recours en matière de droits fondamentaux, car elle peut offrir aux individus des possibilités tangibles de faire respecter directement les droits fondamentaux qu’elle consacre devant les tribunaux, y compris dans le cadre de la réglementation des relations entre acteurs privés.”

Éditorial

Un nombre considérable d’interactions et de relations quotidiennes entre les individus, les entités publiques et commerciales se sont délocalisées en ligne, désormais relayées par des infrastructures technologiques numériques. Ces nouvelles formes d’interaction et d’engagement mutuel dans le domaine numérique émergent à une échelle et à un rythme sans précédent. Au sein des recherches qui explorent, analysent et critiquent les effets négatifs des systèmes informationnels et technologiques sur les individus, émerge également une discussion sur les injustices et inégalités systémiques. Ainsi, des points de vue et des propositions alternatives visant à contrer ces préjudices systémiques, provoqués ou amplifiés par les systèmes technologiques et informationnels, gagnent en importance dans les espaces de débats politiques, universitaires, communautaires et de la société civile contemporaines.

Cet ensemble d’essais explore les interrelations entre la numérisation, la datafication et les droits fondamentaux. Cette transformation numérique offre, selon la Commission européenne, « de nouvelles possibilités de rendre les droits fondamentaux plus effectifs, mais elle s’accompagne aussi de défis »1. À travers ces essais, nous invitons le lecteur à se pencher sur l’importance de la protection des droits fondamentaux dans la sphère numérique, ainsi que sur le rôle crucial de la Charte des droits fondamentaux de l’Union européenne (Charte de l’UE) dans la lutte contre les oppressions, les préjudices et les injustices systémiques qui semblent encodés dans les technologies existantes. Le potentiel émancipateur de la Charte de l’UE en tant que moyen de résistance aux biais technologiques et à l’oppression est au cœur de ces essais.

La Charte de l’Union européenne, rédigée au tournant du millénaire, constitue un jalon important dans instruments juridiques contraignant qui définissent le cadre européen des droits de l’homme. Elle vient s’ajouter à d’autres instruments internationaux et européens relatifs aux droits de l’homme, tels que la Déclaration universelle des droits de l’homme (DUDH), la Convention européenne des droits de l’homme (CEDH), une série d’instruments spécifiques à certains domaines, ainsi que les constitutions nationales et les « déclarations des droits ».

La Charte est contraignante pour les institutions de l’UE ainsi que pour les États membres lorsqu’ils agissent dans le cadre de la législation de l’UE. Elle peut donc s’assurer de combler les lacunes existantes dans les cadres nationaux et internationaux en matière de protection des droits de l’homme et offrir un niveau de protection accru. Avec l’entrée en vigueur du Traité de Lisbonne, la Charte est devenue un instrument juridiquement contraignant, ayant la même valeur juridique que les Traités de l’UE. La Charte se profile désormais comme la principale voie de recours en matière de droits fondamentaux, car elle peut offrir aux individus des possibilités tangibles de faire respecter directement les droits fondamentaux qu’elle consacre devant les tribunaux, y compris dans le cadre de la réglementation des relations entre acteurs privés.

Toutefois, dans la pratique, il a été démontré que « les références à la Charte sont formelles, déclaratoires, voire décoratives et combinées avec des références à la CEDH, sans distinction »2. Il apparaît donc clairement que le potentiel de nombreuses dispositions de la Charte n’a pas encore été exploité.

La multitude de droits et de libertés consacrés par la Charte des droits fondamentaux lui confère l’image d’un instrument moderne de protection des droits de l’homme à l’ère du numérique. C’est le seul instrument juridique international contraignant qui mentionne clairement le droit à la protection des données, distinct du droit au respect de la vie privée. Comme en témoigne la jurisprudence et les commentaires abondants, les articles 7 et 8 de la Charte de l’Union européenne apparaissent comme des droits fondamentaux autour desquels s’articulent la plupart des affaires relatives aux droits numériques. Cependant, les essais inclus dans cette série démontrent qu’il existe de nombreux autres droits et libertés de la Charte qui sont ou peuvent servir de base solide pour les contentieux en matière de droits numériques.

Le potentiel de la Charte pour la protection des droits numériques s’étend au-delà des droits fondamentaux classiques pour englober une série d’autres droits et libertés qui – face à la numérisation et à la datafication continues des tâches et de la vie quotidiennes – sont susceptibles de revêtir une importance et une utilité croissantes dans la sphère numérique. Ces droits et libertés, au même titre que tous les droits de l’homme, sont conçus pour défendre les valeurs de l’Union européenne et l’État de droit et, in fine, pour protéger les individus et les groupes contre l’injustice, le traitement discriminatoire et la marginalisation. Cependant, dans le domaine numérique, ces abus sont de plus en plus fréquents, notamment en raison de l’utilisation de l’intelligence artificielle (IA), de l’accès aux biens et services numériques et leur fourniture (parfois sélective), de l’émergence et l’expansion de modèles commerciaux et de revenus basés sur l’extraction de données et de la dépendance croissante des entités publiques et privées à l’égard des processus de prise de décision basés sur la technologie.

De nombreux cas analysés dans cette série d’essais illustrent des préjudices directs et soulignent l’impact des violations des droits fondamentaux causées par des systèmes technosociaux invasifs. La compilation d’articles visant à mettre en évidence le lien entre les droits fondamentaux et les droits numériques est en fin de compte une tentative d’aborder l’héritage du pouvoir dans le contexte des technologies numériques, ainsi qu’une opportunité de fournir une critique sur la valeur des protections des droits fondamentaux dans certains contextes ou environnements.

Abordant des questions à forte charge idéologique, ces essais ne peuvent prétendre à l’universalité, mais tentent plutôt d’identifier des domaines clés où l’impact des technologies numériques sur les droits fondamentaux est ou peut rapidement devenir visible. Nous avons invité des auteurs de divers horizons juridiques, politiques, universitaires et autres, qui explorent des questions telles que la numérisation des procédures d’asile, la liberté d’expression et la modération de contenu, l’égalité et la non-discrimination algorithmique, la protection sociale et les services publics numériques en général à l’ère du numérique, la négociation collective et les travailleurs des plateformes. Les essais inclus dans cette série présentent un éventail de discours juridiques, sociaux et technologiques, tout en partageant tous une approche commune visant à consolider la pensée critique qui soutient l’importance des protections des droits fondamentaux dans les systèmes de technologies numériques. Nous espérons que ce numéro spécial inspirera une réflexion plus approfondie, plus critique et plus nuancée sur les droits fondamentaux dans le domaine numérique, à mesure que nous nous efforçons d’obtenir le respect de la protection des droits numériques.

1 Communication de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions, « Stratégie visant à renforcer l’application de la Charte des droits fondamentaux dans l’Union européenne », COM(2020) 711 final, 2 décembre 2020, p. 2.

2 J. Adams-Prassl & M. Bobek, « Introduction » in M. Bobek & J. Adams-Prassl (dir.), The EU Charter of Fundamental Rights in the Member States, Hart Publishing, 2022, p. 7.

Anna Mazgal, Directrice exécutive de Wikimédia Europe

Introduction

L’article 11 sur la liberté d’expression et d’information est ancré dans le paradigme européen du discours ouvert et libre qui privilégie la prise de risque en permettant aux individus de communiquer librement, voire de franchir les limites de l’acceptable sans être soumis à une censure préventive. Ce paradigme repose également sur la conviction selon laquelle, dans l’exercice de ce droit, les citoyens peuvent avoir besoin d’une protection spéciale contre les tentatives de l’État de contrôler la dissidence. Le paysage de la communication en ligne est principalement constitué de plateformes qui servent d’intermédiaires. Cela représente à la fois un défi pour l’exercice de notre liberté d’expression et un besoin d’étendre la protection de la liberté d’expression aux entreprises et à leurs machines algorithmiques de modération des propos. Cet exercice s’accompagne de compromis.

En Europe, l’échange d’informations accéléré par Internet pose un défi à la fois aux utilisateurs et aux législateurs en raison de la nécessité d’appliquer un équilibre proportionné et approprié de tous les droits susceptibles d’être affectés par la modération de l’information en ligne. Malgré que les législateurs aient développé des cadres juridiques visant à éliminer les discours illégaux, les utilisateurs, en particulier les communautés racisées et queers, sont les plus touchés. Ces discours préjudiciables deviennent souvent eux-mêmes une forme de censure, car ils représentent une forme de suppression au moyen d’un musellement violent1. Pour ces raisons, il est nécessaire d’assurer une protection solide des formes légales d’expression, non seulement à travers la suppression d’interférence, mais également par le biais d’obligations positives de la part de l’État2

La quantité d’informations produites, divulguées et échangées à travers les plateformes d’intermédiation dépasse de loin la capacité humaine de traitement. Les législateurs européens ont donc choisi de confier aux intermédiaires d’Internet, ou plateformes, le soin de décider au jour le jour de ce qui est autorisé ou pas dans le cadre de leurs services. C’est ainsi qu’un système privatisé de contrôle de la liberté d’expression en ligne a vu le jour.

Le code fait loi, tout comme les conditions d’utilisation

Un examen rapide de la législation qui a vu le jour dans l’UE au cours des cinq dernières années démontre clairement que les conditions générales d’utilisation (CGU) des plateformes en ligne sont devenues essentielles dans la mise en place de cadres de gouvernance relatifs à la réglementation de la liberté d’expression. Ces obligations contractuelles entre une plateforme intermédiaires et ses utilisateurs, notamment lorsqu’elles émanent de contraintes juridiques, créent un écosystème d’application privée en ligne.3 Les plateformes doivent par exemple intégrer dans leurs CGU les exceptions au droit d’auteur mentionnées dans la Directive sur le droit d’auteur dans le marché unique numérique (Directive sur le droit d’auteur). L’article 17 confère à un utilisateur le droit d’utiliser une œuvre protégée par le droit d’auteur d’une tierce personne ou d’y faire référence, par exemple à des fins de citation, de critique, de revue, de caricature, de parodie ou de pastiche. Parallèlement, ce même article soumet à une obligation de modération du contenu en vertu de laquelle les plateformes peuvent recourir à la modération automatisée du contenu chargé afin de faire respecter la protection des droits d’auteur. Cette obligation transforme les CGU en un cadre propice à un équilibre entre les droits contradictoires d’un titulaire de droits et d’un utilisateur bénéficiant d’une exception au droit d’auteur, garantissant ainsi la liberté d’expression et l’élimination des contenus illégaux. De même, le règlement relatif à la lutte contre la diffusion des contenus à caractère terroriste en ligne (TERREG) contraint les plateformes à inclure dans leurs CGU des dispositions relatives à l’utilisation abusive de leurs services par la diffusion de propagande terroriste (article 5 (1)). Cela signifie que la mise en œuvre des dispositions légales dans leurs systèmes internes et leur application sont laissées à l’appréciation des plateformes. Bien que cela soit logique du point de vue de la liberté d’entreprise, le pouvoir de décision en matière de qualification des contenus terroristes incombe alors entièrement à une entreprise privée.

En vue de limiter les risques de débordement de la surveillance des contenus, les législateurs obligent les plateformes à appliquer des « mesures spécifiques » en tenant compte des droits fondamentaux des utilisateurs en matière de liberté d’expression et d’information (article 5 (3) (c)). Cette pratique découle d’un cadre normatif spécifique qui souligne l’importance de garantir le respect des droits fondamentaux au sein des grandes plateformes privées : au niveau mondial, les Principes directeurs relatifs aux entreprises et aux droits de l’homme adoptent de tels objectifs. Ces principes sont directement mentionnés dans le considérant 12 d’une autre réglementation européenne de référence, la législation sur les services numériques (DSA).

L’impact de ces cadres normatifs est difficile à estimer en l’absence de recherches fondées sur des données probantes.

La DSA apparaît comme un renforcement remarquable de la liberté d’expression, car elle stipule que le système interne obligatoire de traitement des plaintes peut être utilisé non seulement pour des plaintes contre des décisions spécifiques d’une plateforme, mais aussi contre des violations des droits fondamentaux.4

L’Œil de Sauron

Qu’exige-t-on exactement des plateformes en ce qui concerne l’élimination des contenus indésirables ? Dans le cas de TERREG et de la Directive sur le droit d’auteur, l’accent est mis sur la garantie de l’indisponibilité du matériel illégal. Ces deux actes juridiques prévoient un ensemble de mesures visant à garantir le retrait ou le blocage des contenus illégaux. Il est à noter que tout au long du processus législatif, les dispositions imposant aux plateformes d’utiliser des outils algorithmiques pour passer au crible tous les contenus à la recherche d’ éléments illégaux ont été considérées comme extrêmement controversées dans le cadre de chacun de ces actes juridiques européens. Dans le cas de la Directive sur le droit d’auteur, l’article 17 a suscité une opposition véhémente de la part de la société civile et un certain nombre de manifestations dans les rues. En signe de protestation, les versions espagnole, italienne et polonaise de Wikipédia ont été désactivées 5 L’utilisation d’un logiciel pour faire correspondre les chargements avec une base de données de contenus illégaux (dans les cas tant des droits d’auteur que de la propagande terroriste) est semblable à un contrôle de sécurité dans un aéroport : l’objectif est de « scanner » les contenus illégaux, mais la machine dévoile tous les contenus qui la traversent. Selon les opposants à l’introduction de ces systèmes, la simple existence de tels systèmes les rend propices aux abus. Dans TERREG comme dans la Directive sur le droit d’auteur, le langage utilisé pour ces mesures est marqué par la périphrase : alors que la Directive sur le droit d’auteur mentionne « leurs meilleurs efforts […] pour garantir l’indisponibilité d’œuvres et autres objets protégés spécifiques », TERREG décrit des « mesures techniques » qui doivent être liées à des « mesures appropriées et efficaces […] notamment en matière de surveillance et de vérification humaines ».

Le TERREG et la Directive sur le droit d’auteur, respectivement, obligent ou permettent aux plateformes de faire recours au filtrage de contenu. Les algorithmes utilisés pour le filtrage des contenus par ces plateformes sont tous propriétaires, de sorte qu’il est difficile de se prononcer sur leur efficacité réelle, leur précision et leur capacité à comprendre le contexte. C’est pourquoi la surveillance humaine est d’une importance capitale. Toutefois, compte tenu des pratiques connues en matière de vérification humaine du contenu par les plateformes, telles que la très courte durée des délais d’évaluation du contenu et la faible connaissance du contexte culturel et social par les modérateurs,6 il est difficile de dire si elle peut être effectuée de manière efficace.

Le chiffrement pourrait devenir la prochaine victime de cette approche généralisée qui s’apparente à une stratégie de gestion des risques selon laquelle il vaut mieux tout examiner pour repérer les contenus illicites en ligne. La proposition de règlement établissant des règles en vue de prévenir et combattre les abus sexuels sur les enfants impose aux plateformes l’obligation d’analyser les communications privées de tous les utilisateurs, y compris celles qui sont protégées par un chiffrement. Bien que la sécurité et le bien-être des enfants sont d’une importance capitale, le « contrôle des discussions» proposé a été fortement critiqué par la société civile, le Contrôleur européen de la protection des données ainsi que le gouvernement allemand.7

Les plateformes interviennent dans différents domaines d’application des limitations de la liberté d’expression. Par exemple, les blocages de virement ont privé Wikileaks de 95 % de ses revenus lorsque PayPal, Mastercard et Visa ont cessé d’accepter les dons, sans qu’aucune procédure judiciaire n’ait jamais été engagée à l’encontre de Wikileaks.8 Plus récemment, le Conseil de l’UE a suspendu les licences de diffusion de Russia Today (RT) France (entre autres) dans l’ensemble de l’UE, invoquant une propagande excessive et une distorsion des faits, devenues une menace pour la sécurité internationale après l’invasion de l’Ukraine par la Russie. Bien que la décision ait été approuvée par le Tribunal de l’Union européenne, certains experts estiment que cette mesure manquait de légitimité et n’était pas proportionnée, car elle ne concernait pas seulement le contenu illégal, mais aussi la capacité à fournir un accès à des informations qui n’étaient pas illégales.

Un Internet nouveau et propre ?

Il semble que l’effort législatif conjoint pour éliminer les contenus illégaux porte un coup à la liberté d’expression. L’exercice du droit à la liberté d’expression en ligne ne peut se faire que si l’on s’exprime soi-même. Par conséquent, tout outil algorithmique qui filtre de manière préventive notre discours en ligne au moment de son chargement constituera une violation directe de l’article 11 de la Charte.

L’exercice d’équilibrage fondé sur des concepts politisés tels que la sécurité et la sûreté publiques, d’une part, et le secret d’entreprise sur les technologies propriétaires, d’autre part, crée une législation qui est scrutée à travers le monde et copiée dans des régions qui ont un bilan désastreux en matière de protection des droits de l’homme et des libertés. Des décisions telles que l’interdiction de diffusion de RT France constituent un précédent extrêmement dangereux en Europe, où de nombreux États membres sont confrontés à la montée de l’autoritarisme et au mépris de l’État de droit, et où de telles décisions peuvent être prises à l’encontre des médias – et des projets communautaires, tels que Wikipédia –qui fournissent des informations vérifiées et permettent un débat public.

Nous devons nous interroger sur l’impact de ces mesures générales de prévention sur notre liberté d’expression. Il convient également de se demander si leur unique objectif est de débarrasser Internet de toute difficultés et de toute complexité, ainsi que des séquelles passées et actuelles des injustices systémiques et de l’impérialisme européen.

La réglementation récemment adoptée tente d’apporter des garanties dans le contexte de l’approche généralisée et standardisée de la police de la parole, notamment par le biais de lignes directrices sur les mécanismes de plainte et l’obligation d’inclure les droits fondamentaux dans les CGU. Les communautés racisées et queers, les immigrés et les réfugiés, ainsi que d’autres groupes victimes d’une oppression systémique, sont confrontés à des obstacles qui ne seront pas levés par cette réglementation. En nous contentant de ces garanties, nous risquons de refléter une opinion plutôt choquante émise par Voltaire lorsqu’il écrivit : « On n’a jamais prétendu éclairer les cordonniers et les servantes ». Enfin, l’opacité des algorithmes et l’amplification algorithmique créent une bulle qui renforce la désinformation et les contenus qui divisent l’opinion publique. Ce sont les caractéristiques du modèle commercial basé sur la surveillance, qui privilégie le droit au respect de la vie privée, au détriment de notre liberté d’expression. Ni les actes juridiques susmentionnés, ni aucun autre – y compris la législation sur les marchés numériques – ne s’attaque à la cause des problèmes actuels en matière de liberté d’expression .Face à l’inaction de la législation européenne,, il convient de se demander si l’introduction des droits de l’homme dans les relations entre entreprises et clients ne légitime pas au passage l’existence d’un capitalisme de surveillance, aussi bénéfiques que soient les nouvelles règlementations qui contraignent les entreprises à respecter les droits de l’homme.

“La Charte se profile désormais comme la principale voie de recours en matière de droits fondamentaux, car elle peut offrir aux individus des possibilités tangibles de faire respecter directement les droits fondamentaux qu’elle consacre devant les tribunaux, y compris dans le cadre de la réglementation des relations entre acteurs privés.”

Romain Lanneau, chercheur à Statewatch

L’article 18 de la Charte des droits fondamentaux de l’Union européenne (la Charte) garantit le droit d’asile, mais ne l’accorde pas automatiquement à tous les demandeurs. En revanche, la Charte stipule que toute personne a droit à un examen de sa demande de protection internationale conformément au droit international et au droit de l’UE.1 Ce principe est renforcé par l’article 19 de la Charte, qui interdit strictement les expulsions collectives ainsi que le renvoi, l’expulsion ou l’extradition de toute personne « vers un État où il existe un risque sérieux qu’il soit soumis à la peine de mort, à la torture ou à d’autres peines ou traitements inhumains ou dégradants. »2

Au cours des deux dernières décennies, les procédures d’asile au sein de l’UE ont été de plus en plus imprégnées de technologies numériques. La plupart de ces évolutions ont été initiées dans le but de contrôler et de surveiller les demandeurs d’asile ainsi que d’empêcher leur arrivée dans l’UE. Cependant, certaines initiatives de la société civile se sont également efforcées d’exploiter les technologies numériques dans le but d’aider les demandeurs d’asile à remplir leurs demandes3 ou de les protéger contre les refoulements 4

Malgré leur importance, les droits numériques dans le contexte des procédures d’asile sont souvent négligés par les praticiens du droit, les demandeurs d’asile eux-mêmes et les acteurs de la société civile. Ces droits sont rarement considérés comme prioritaires, surtout lorsqu’ils sont confrontés à un risque de détention ou d’expulsion. Cependant, la volonté des autorités de renforcer le déploiement et l’utilisation des technologies numériques, des données et de l’intelligence artificielle (IA) n’a pas faibli, et ce dans le double objectif de limiter l’entrée des demandeurs d’asile sur le territoire de l’UE et d’évaluer les demandes de ceux qui en déposent une. En conséquence, le droit d’asile est désormais inextricablement lié aux technologies numériques. Cet essai vise à explorer la relation complexe entre ces deux concepts et à examiner comment les droits numériques peuvent être mis à profit dans la protection des droits des demandeurs d’asile.

Le droit à la vie privée : Protéger les

demandeurs d’asile

contre les technologies invasives et la « pseudoscience »

L’article 7 de la Charte garantit le droit au respect de la vie privée, protégeant les individus contre les intrusions injustifiées, inutiles et disproportionnées dans leur vie privée.5Ce droit peut toutefois être restreint par les autorités publiques conformément au principe de proportionnalité énoncé à l’article 52 6 Au sein de l’UE par exemple, tous les demandeurs de passeport sont obligés de fournir leurs empreintes digitales aux autorités afin de permettre une identification plus précise,7 même s’il « n’est pas déterminant » que cette méthode « ne soit pas totalement fiable ».8

Dans le cadre des demandes d’asile, la protection de la vie privée est d’autant plus cruciale, car les autorités s’efforcent souvent d’amasser le plus d’informations possible sur chaque demandeur. Cette préoccupation est d’autant plus importante qu’il est désormais possible d’accéder à d’énormes volumes de données numériques sur les individus. La plus haute juridiction de l’UE a d’ailleurs estimé que la prévention de l’entrée illégale sur le territoire de l’UE constitue un objectif d’intérêt général.9 Cette position oblige les demandeurs d’asile à compromettre leur vie privée pour avoir une chance d’obtenir une protection. La question qui se pose alors est de savoir dans quelle mesure les autorités peuvent être autorisées à fouiller dans la vie privée d’un demandeur d’asile.

La vérification de l’identité et de la véracité des récits des demandeurs d’asile est un élément essentiel du processus d’évaluation des demandes. Si certaines caractéristiques de l’identité – comme les empreintes digitales – sont relativement faciles à vérifier, d’autres sont plus difficiles à confirmer, à l’instar de l’âge et l’identité sexuelle. Il apparaît souvent impossible de valider par des documents l’affirmation d’un demandeur d’asile selon laquelle il est mineur ou qu’il s’identifie comme homosexuel, bien que ces informations puissent avoir un impact significatif sur l’issue de sa demande, le déroulement des entretiens et son hébergement.

Les autorités publiques ont longtemps cherché un test définitif qui permettrait de séparer le bon grain de l’ivraie. Avant l’intervention de la Cour de justice de l’Union européenne (CJUE) en 2014, les demandeurs d’asile étaient parfois soumis à des questions intrusives et humiliantes dans le cadre de la validation de leurs récits. Par exemple, les autorités néerlandaises incitaient fréquemment les demandeurs d’asile à fournir leur propre vidéo pornographique lors de leurs entretiens, comme preuve de leur prétendue orientation sexuelle. Bien qu’il s’agisse officiellement d’un choix, l’avocat général Sharpston

“La Charte se profile désormais comme la principale voie de recours en matière de droits fondamentaux, car elle peut offrir aux individus des possibilités tangibles de faire respecter directement les droits fondamentaux qu’elle consacre devant les tribunaux, y compris dans le cadre de la réglementation des relations entre acteurs privés.”

“...le droit d’asile est désormais inextricablement lié aux technologies numériques...”

a émis « de sérieux doutes quant à savoir si un demandeur, qui est la partie vulnérable dans la procédure de demande d’octroi du statut de réfugié, peut réellement être censé avoir donné un consentement parfaitement libre et éclairé aux autorités nationales dans de telles circonstances »,10 en particulier compte tenu de la dynamique de pouvoir en jeu. La CJUE a finalement aboli cette pratique dans sa décision ABC, citant des atteintes à la dignité humaine (article 1 de la Charte) et au droit à la vie privée (article 7).11

Dans leur quête d’un moyen de distinguer les demandeurs légitimes, les autorités d’asile nationales ont eu recours à des méthodes pseudo-scientifiques, assimilables à la recherche d’un sérum de vérité.12 En 2018, dans le cadre de l’affaire F c. Hongrie, l’utilisation de « tests de personnalité projectifs » pour déterminer la sexualité des demandeurs a été particulièrement controversée. La CJUE a déclaré qu’un tel test « ne pourra être admis que si celui-ci est fondé sur des méthodes et des principes rigoureux, reconnus par la communauté scientifique internationale ».13 Dans le cadre de l’évaluation de la sexualité d’un individu, les tests projectifs de personnalité sont loin de répondre à ces critères. La Cour a également souligné dans sa décision que le « consentement n’est pas nécessairement libre, étant de facto, imposé sous la pression des circonstances dans lesquelles se trouvent les demandeurs de protection internationale ».14

Au cours des dernières années, des tribunaux nationaux ont été saisis de cas où les autorités chargées des demandes d’asile ont sollicité les téléphones des demandeurs15 afin d’extraire et d’analyser des données stockées à la recherche de preuves susceptibles de soutenir les allégations des intéressés. En Allemagne, un tribunal a jugé cette pratique illégale, à moins que des solutions moins intrusives aient été envisagées. Les juges ont clairement indiqué que l’utilisation des nouvelles technologies doit être à la fois nécessaire et adaptée à l’objectif visé.16

À l’avenir, il est plausible que les autorités aient recours à l’IA pour vérifier l’identité d’une personne.17 Toutefois, les assertions selon lesquelles les technologies de vision artificielle peuvent déterminer la sexualité d’une personne évoquent davantage la pseudoscience qu’elles n’offrent de garanties crédibles. La réglementation sur l’IA de l’UE, actuellement en cours de négociation, n’aborde ni ne prévient de manière adéquate contre les préjudices potentiels liés à l’utilisation de l’IA dans le contexte des migrations 18 Par conséquent, les défis juridiques fondés sur le droit à la vie privée resteront cruciaux pour définir les limites des pratiques numériques acceptables dans le cadre des procédures d’asile.

Le droit à la protection des données individuelles : Une condition préalable à un recours effectif contre la prise de décision automatisée et semi-automatisée

L’UE a mis en place un ensemble complexe de bases de données19 destinées à identifier toutes les personnes qui cherchent à entrer au sein de l’UE. Ces systèmes d’information sont destinés à aider les autorités migratoires et policières à prendre des décisions concernant les personnes, telles que leur droit d’entrée ou de séjour dans l’attente d’une décision en matière d’asile.20 L’article 8 (2) de la Charte confère à toute personne dont les données ont été collectées par une autorité européenne le droit à la protection des données individuelles. Cela inclut le droit d’accéder aux données stockées à leur sujet et de rectifier ou d’effacer toute donnée incorrecte.21

Les demandeurs d’asile sont progressivement contraints à livrer des informations personnelles détaillées. Dans sa version la plus récente, le système Eurodac recueillera les images faciales et les informations personnelles de demandeurs d’asile (et d’autres ressortissants étrangers) âgés d’à peine six ans.22 Les autorités nationales collectent et échangent massivement les données personnelles des individus, qui n’en ont généralement pas conscience jusqu’à ce que ces données servent de base à une décision concernant leur cas.

Bien que la multiplication des bases de données nouvelles et élargies puisse faciliter la prise de décision, elles ne sauraient constituer la seule source d’information pour une décision concernant les demandes d’asile. En 2006, dans l’affaire Espagne c. Commission, la CJUE a statué que les autorités ne devraient pas prendre de décisions automatisées fondées uniquement sur des informations stockées dans un système d’information européen. Les décisions doivent reposer sur une évaluation individuelle de la situation du demandeur, y compris une évaluation des motifs légaux de refus d’entrée.23

Néanmoins, la pratique consistant à refuser l’entrée et à expulser des personnes perçues comme présentant un risque pour la sécurité nationale persiste. Les États concernés manquent souvent de transparence quant aux motifs de ces décisions. En 2020, la CJUE a précisé qu’une personne a le droit d’obtenir un minimum de motifs pour le refus d’entrée dans l’Union. L’article 47 de la Charte24, qui consacre le principe de l’égalité des armes, exige des autorités nationales qu’elles divulguent le nom de l’État à l’origine du partage des informations ayant servi de base à la décision, ainsi que les motifs spécifiques de l’évaluation des risques. Cette divulgation permet aux demandeurs d’exercer un recours effectif contre la décision.25 De même, en vertu de l’article 8 (2) de la Charte, le droit d’accès sert de « garde-fou permettant aux personnes concernées de poursuivre leur action »26, telles que demander la suppression ou la rectification d’accusations injustifiées qui ont une incidence sur leur droit à un procès équitable.

Malgré ces dispositions, l’accès à l’information est loin d’être uniformément respecté par les États membres. Bien trop souvent, les demandeurs d’asile découvrent que des preuves « secrètes » sont utilisées contre eux. Dans certains cas, c’est le pays duquel une personne demande l’asile qui fournit les données sur lesquelles les autorités fondent leur décision.27 Même si l’échange de données avec un pays tiers doit respecter les normes de protection de l’UE,28 y compris l’interdiction d’utiliser des informations obtenues sous la torture, dans la pratique, cela ne fait pas l’objet d’un contrôle adéquat 29

Depuis la mise en œuvre du dernier règlement sur les systèmes d’information30 et du règlement Europol31, le risque que les autorités nationales s’appuient sur des données inexactes ou illégales a été amplifié. Néanmoins, les normes de protection des données pour les demandeurs d’asile s’avèrent bien moins strictes que celles dont bénéficient les citoyens de l’UE. Le récent scandale du « Traitement des données personnelles pour l’analyse des risques » (PeDRA - Processing of Personal Data for Risk Analysis), dans lequel Frontex a proposé la collecte de données personnelles intrusives, violant de manière flagrante les droits de protection des données, en est un exemple32. Dans le même temps, le Contrôleur européen de la protection des données (CEPD) a affirmé que les règles régissant l’agence sont vagues en ce qui concerne les « conditions ou limites du partage des données avec d’autres agences, États et pays tiers, ainsi que les recours disponibles pour les individus ».33

Comme l’a souligné le CEPD, « la vie privée et la protection des données font partie des droits de l’homme trop souvent suspendus aux frontières de l’Union européenne ».34 Cette affirmation met en évidence un thème récurrent dans la réglementation en matière d’asile, de migration et de frontières, illustrant la tendance à considérer certains groupes de migrants comme des problèmes de sécurité et ne méritant pas les protections accordées aux citoyens ou à d’autres catégories de ressortissants étrangers 35

Droits d’asile numériques : Un appel à des garanties accrues dans le contexte de la numérisation des procédures

Les technologies publiques sont souvent utilisées par les autorités dans la perspective d’améliorer l’efficacité et d’atténuer ou d’éliminer les biais dans la prise de décision humaine. Cependant, des études sur l’impact de ces technologies montrent souvent des effets contraires.36 Les questions de discrimination et de racisme persistent, mais elles s’enchevêtrent dans la complexité des systèmes techniques. Il est donc de plus en plus difficile de déterminer quand et comment se produisent les violations des droits.

Les négociations législatives en cours au sein de l’UE visent à étendre l’utilisation des technologies numériques dans les procédures d’asile et de migration. Néanmoins, ces négociations ouvrent également des perspectives de renforcement de la protection de la vie privée. La proposition de règlement relatif à l’examen des demandes d’asile pourrait permettre de renforcer la protection du droit à la vie privée des demandeurs d’asile. Cet objectif peut être atteint grâce à l’inclusion d’un mécanisme indépendant conçu pour contrôler la protection des droits fondamentaux des personnes lors de leur identification par les autorités frontalières. Toutefois, ce règlement doit encore être approuvé, et il relèvera en fin de compte de la compétence de l’Agence des droits fondamentaux et des États membres dans le cadre de leurs juridictions respectives, afin de clarifier la procédure de ce nouveau mécanisme.37

Dans les années à venir, la numérisation des procédures d’asile et d’immigration devrait s’accentuer. Il est donc primordial de renforcer la compréhension de la vie privée, de la protection des données et des autres droits numériques parmi les demandeurs d’asile, les migrants et les activistes de la migration, les professionnels du droit et les organisations non gouvernementales.

Jens Theilen, Université Helmut Schmidt, Hambourg

Inégalités numériques et historiques

Dans son livre Peau noire, masques blancs, le philosophe et révolutionnaire anticolonialiste Frantz Fanon décrit ce qu’il appelle le « regard blanc » (« white gaze ») et ses implications: « Car le Noir n’a plus à être noir, mais à l’être en face du Blanc. […] La connaissance du corps est une activité uniquement négatrice. C’est une connaissance en troisième personne. »1 Plus d’un demi-siècle plus tard, le récit de Fanon trouve un écho étrange dans les expériences de Joy Buolamwini, chercheuse noire au MIT Media Lab. Alors qu’elle travaillait sur un projet qui consistait à projeter des masques numériques sur son reflet, elle s’est rendu compte que la technologie de reconnaissance faciale qu’elle utilisait ne pouvait pas détecter suffisamment les contours de son visage à moins qu’elle ne porte un masque blanc. La juxtaposition par Fanon de la peau noire et des masques blancs dans le titre de son livre prend ainsi un sens littéral inattendu. Buolamwini a appelé ce phénomène le « regard codé » (« coded gaze »): une forme de biais algorithmique aux effets discriminatoires. On en observe un exemple dans l’utilisation des logiciels de reconnaissance faciale par les forces de l’ordre, où une identification erronée peut entraîner une surveillance et des arrestations accrues.2 Dans une publication ultérieure en collaboration avec Timnit Gebru, Buolamwini a analysé trois classificateurs commerciaux de genre. L’analyse a révélé que « les sujets masculins étaient classés avec plus de précision que les sujets féminins », que « les sujets à la peau claire étaient classés avec plus de précision que les sujets à la peau foncée » et que « tous les classificateurs avaient les pires performances pour les sujets féminins à la peau foncées ».3

Le parallèle entre le concept de « regard blanc » de Fanon et celui de « regard codé » de Buolamwini montrent clairement que les structures oppressives telles que le racisme et le (cis)sexisme restent centrales dans les environnements numériques. Internet n’a pas instauré un espace utopique exempt d’inégalités, et il serait illusoire de placer nos espoirs dans la technologie en tant que solution facile aux problèmes sociétaux. À l’inverse, il n’est pas non plus judicieux de considérer les inégalités numériques comme des problèmes entièrement nouveaux, apparus uniquement avec les avancées technologiques. Elles sont en réalité enracinées dans des pratiques historiques de surveillance et de traitement des données qui ont longtemps été utilisées comme outils d’esclavage, de colonialisme, de patriarcat et d’autres formes de domination. Comme l’a dit Simone Browne, spécialiste de la surveillance: « La surveillance n’est pas une nouveauté pour les Noirs. C’est le fait de l’antiblackness » ». Elle met en garde contre le fait de considérer la surveillance comme « un phénomène récent apparu avec les nouvelles technologies telles que la reconnaissance faciale automatisée ou les véhicules autonomes sans conducteur (ou les drones) », et affirme qu’elle est continue, permanente et profondément ancrée dans le racisme, l’antiblackness et d’autres pratiques, performances et politiques oppressives.4 Les inégalités numériques ne sont que la continuité des inégalités historiques.

La promesse d’égalité

Face aux inégalités sous toutes ses formes, le droit fait la promesse d’égalité. L’article 20 de la Charte des droits fondamentaux de l’Union européenne (UE) (« la Charte ») exprime cette promesse de façon concise: « Toutes les personnes sont égales devant la loi ». Cette formulation très générale prend une forme plus concrète dans la clause de non-discrimination de l’article 21 (ainsi que dans divers actes de droit dérivé), qui interdit toute discrimination fondée sur une longue liste, non limitative, de motifs, dont le sexe, la race, la religion, le handicap, l’âge ou l’orientation sexuelle. La nécessité de telles listes montre clairement que si l’égalité et la non-discrimination sont aujourd’hui largement acceptées comme des idéaux abstraits, dans la pratique, leur promesse n’est toujours pas tenue. Un nombre décourageant d’exemples atteste que cela vaut pour les contextes numériques et l’utilisation des nouvelles technologies: la politique prédictive qui cible de manière disproportionnée les personnes de couleur et les populations défavorisées; les discours de haine sur les réseaux sociaux visant les personnes queers, les femmes, et en particulier les femmes transgenres et les femmes de couleur; la discrimination des femmes sur le marché du travail basée sur des décisions algorithmiques; les stéréotypes racistes et sexistes reflétés dans les résultats des moteurs de recherche en ligne; ainsi que bien d’autres exemples.5

Le décalage entre l’idéal et la réalité met en lumière des possibilités d’amélioration: nous pouvons utiliser la promesse d’égalité pour lutter contre les inégalités, y compris leurs manifestations dans le domaine numérique. À cet égard, les clauses d’égalité et de

“...les inégalités (sont) enracinées dans des pratiques historiques de surveillance et de traitement des données qui ont longtemps été utilisées comme outils d’esclavage, de colonialisme, de patriarcat et d’autres formes de domination...”

non-discrimination de la législation européenne recèlent un potentiel inexploité considérable, d’autant plus qu’elles s’appliquent aussi bien aux acteurs privés qu’aux organismes publics. Depuis toujours, les droits fondamentaux et les droits de l’homme sont dirigés contre l’État, mais ne contraignent pas – du moins pas directement – les actions des acteurs privés.6 Cependant, dans la conjoncture actuelle de capitalisme de surveillance7, le pouvoir de générer et de maintenir les inégalités numériques n’appartient plus seulement à l’État, mais aussi à des acteurs privés tels que les entreprises multinationales: les entreprises qui proposent et utilisent des logiciels génériques de reconnaissance faciale, qui gèrent les plateformes de médias sociaux et les moteurs de recherche et qui déterminent qui peut être banni ou non pour discours haineux, et quels algorithmes sont utilisés pour générer des résultats de recherche, et ainsi de suite. Le droit européen diffère du droit international des droits de l’Homme en ce qu’il oblige ces acteurs privés à respecter la promesse d’égalité, au moins dans certains cas.8

Est-ce que « toutes les personnes » sont égales devant la loi ?

Le droit n’est cependant pas une panacée, et cette promesse d’égalité peut être indéfiniment reportée pour certains. L’une des critiques fréquemment formulées à l’encontre de la législation sur la non-discrimination est qu’elle tend à considérer les motifs de discrimination, tels que le genre et la race, comme des catégories distinctes et homogènes.9 À l’inverse, l’utilisation de l’intersectionnalité comme cadre de référence illustre la manière dont les systèmes d’oppression tels que le racisme et le (cis-)sexisme s’imbriquent et ont un impact sur différentes personnes de différentes manières.10 À titre d’exemple, comme indiqué précédemment, l’analyse de Buolamwini et Gebru sur les classificateurs commerciaux de genre a non seulement révélé une diminution de la précision en fonction de la race et du genre, mais a également révélé que les résultats étaient particulièrement mauvais pour les femmes de couleur. Les algorithmes peuvent également intégrer des représentations culturelles et des stéréotypes connus spécifiquement pour les femmes noires ou à d’autres femmes de couleur. Un exemple flagrant en est l’ancien cas des recherches Google sur les « filles noires », où les premiers résultats affichaient majoritairement du contenu pornographique. Ce n’est qu’après une pression publique soutenue que des changements ont été apportés.11

Malgré une prise de conscience croissante de l’importance de l’analyse intersectionnelle, un rapport récent du Center for Intersectional Justice a révélé que « les organes juridiques européens ne sont pas encore suffisamment outillés pour traiter efficacement les cas de discrimination intersectionnelle ».12 Des progrès considérables en la matière seraient nécessaires pour combattre les inégalités sans négliger les plus vulnérables. Comme le dit Aisha Kadiri, « la prise en compte du type unique de biais auquel les personnes concernées sont confrontées exige la reconnaissance de l’intersectionnalité dès le départ ».13 Bien que la doctrine juridique la considère comme subsidiaire par rapport à des clauses de non-discrimination plus spécifiques, la promesse d’égalité pour « toutes les personnes » inscrite dans l’article 20 de la Charte devrait servir à rappeler que la discrimination ne peut être cloisonnée en motifs de discrimination distincts, mais qu’elle doit être appréhendée de manière holistique.

Il n’y a pas de solution miracle

Adopter une approche intersectionnelle pour lutter contre les inégalités numériques implique également de de s’interroger sur les bénéficiaires et les victimes du déploiement de nouvelles technologies. À titre exemple, il y a quelques années, la principale société de transport public de Berlin a utilisé la classification automatisée du genre sur certains de ses distributeurs de billets pour accorder une réduction aux femmes à l’occasion de la Journée internationale de la femme. Ce qui semble à première vue être un projet bénin visant à réduire légèrement l’écart de rémunération, s’avère toutefois n’être avantageux que pour certaines femmes, au détriment d’autres. Des études comme celle de Buolamwini et Gebru démontrent non seulement que les femmes de couleur sont davantage susceptibles de ne pas bénéficier de la réduction, mais également la notion même d’attribution d’un genre binaire aux individus sur la base de l’apparence physique

de leur visage est fondamentalement discriminatoire pour les transgenres. La classification automatisée du genre contribue à normaliser l’idée erronée que le genre est identifiable à partir de l’apparence physique et s’oppose donc à une identité de genre autodéterminée – c’est pourquoi de nombreuses personnes transgenres rejettent cette technologie dans son ensemble, plutôt que de militer pour une réforme visant à la rendre plus inclusive.14 Cet exemple montre que les nouvelles technologies ne contribuent pas uniquement à la création d’inégalités entre les groupes, mais aussi, par la manière dont elles catégorisent les personnes et normalisent certains modes de pensée, aux processus mêmes de genrisation et de racialisation.15

Il est important de comprendre l’ampleur des problèmes, car cela met en évidence une question récurrente en ce qui concerne les égalités numériques. Souvent, il n’y a pas de solution miracle, car ces inégalités sont intimement liées à la technologie en question. Ce constat ne se limite pas qu’aux conceptions trans-exclusionnistes du genre, mais il s’applique aussi à de nombreuses formes de technologie, lorsqu’elles sont considérées dans le contexte plus large de leur développement, de leur utilisation et de leur institutionnalisation. Les historiens de la technologie ont démontré qu’à maintes reprises, les nouvelles technologies n’ont pas seulement servi les intérêts des détenteurs du pouvoir, mais qu’elles ont été délibérément développées et utilisées pour soutenir les efforts de domination, de maintien de l’ordre et de surveillance. Que ce soit par le biais de schémas de classification des genres et des races ou d’autres méthodes, les inégalités sont enracinées dans les fondements mêmes des infrastructures numériques qui nous semblent aujourd’hui si familières. « Le sexisme est une caractéristique, pas un bug »,16 et « le racisme anti-Noir, que ce soit dans les résultats de recherche ou dans les systèmes de surveillance, n’est pas seulement un symptôme ou une conséquence, mais une condition préalable à la fabrication de ces technologies ».17 Les bugs, les symptômes et les résultats peuvent être facilement corrigés, mais les problèmes sont plus profonds.

Les limites des revendications en matière d’égalité

Le langage de l’égalité et de la non-discrimination fait courir le risque de ne se limiter qu’à revendiquer l’inclusion et l’exactitude des résultats, tout en ignorant le rôle crucial des structures oppressives telles que le racisme et le (cis-)sexisme dans la conception même des technologies numériques, ainsi que les contextes politiques, institutionnels et économiques de leur utilisation. Pour reprendre l’exemple de la reconnaissance faciale, il apparaît rapidement qu’outre l’objectif commercial de son utilisation, ces systèmes technologiques intéressent principalement les organismes chargés de l’application de la loi, tels que la police et les services de contrôle aux frontières. l est important de noter que ces derniers dépendent souvent de technologies privées et d’importantes sociétés de conseil en technologie. Ces institutions sont gangrénées par le racisme et d’antiblackness ; le contrôle aux frontières de l’Europe, en particulier, est fondé sur des logiques coloniales violentes qui considèrent que la vie des Noirs n’est pas indispensable.18 Il est difficile d’appréhender des problèmes de ce type dans le langage juridique de l’égalité et de la non-discrimination. Comme le souligne Dean Spade, juriste et activiste trans, des questions structurelles telles que les disparités de richesse, le ciblage des sanctions pénales, les atteintes à l’environnement, l’application des lois relatives à l’immigration et bien d’autres sont « considérées comme neutres par le principe de non-discrimination ».19 Ainsi, les revendications d’égalité en droit peuvent donc légitimer des institutions profondément injustes, même si des changements superficiels sont apportés au niveau des symptômes ou des résultats. Une reconnaissance faciale plus précise serait en effet, à première vue, plus égalitaire en termes de genre et de race. Cependant, dans le contexte de son utilisation par les forces de l’ordre, la promesse d’égalité perd son attrait.

Revenons à la notion de « regard blanc » de Frantz Fanon et au « regard codé » de Joy Buolamwini, qui l’a revisitée. Dans ces références au « regard », comme dans d’autres, la vision est liée au pouvoir – comme le dit la féministe noire bell hooks, il y a « un pouvoir dans le regard ». Elle développe la notion de « regard oppositionnel » (« oppositional gaze ») pour exprimer le pouvoir de regarder en retour de manière provocante et courageuse: « Je ne me contenterai pas de regarder fixement. Je veux que mon regard change la réalité ».20 Comment pouvons-nous transformer la réalité au moyen de revendications d’égalité? Comme je l’ai fait valoir plus haut, nous pouvons utiliser la promesse d’égalité pour contester les inégalités, y compris leurs manifestations dans les environnements numériques. Nous devons cependant être conscients de ses limites. Dans le meilleur des cas, l’égalité signifierait la réciprocité, un regard mutuel basé sur

“La

promesse d’égalité devant le droit ne doit pas épuiser l’horizon de notre imagination et de nos actions collectives.”

un même pied d’égalité, où la noirceur ne se définirait plus par rapport à la blancheur. Cependant, les revendications d’égalité devant la loi n’aboutissent généralement pas à ce type de réciprocité. Difficile de les utiliser pour remettre en question le regard dominant qui définit d’emblée les sujets racialisés et genrés, et dont les intérêts sont codés dans nos infrastructures numériques et nos nouvelles technologies. Dans de nombreux cas, nous devrions résister à l’attrait de l’exactitude et de l’inclusion dans lequel l’égalité se glisse si facilement, et nous concentrer sur l’opposition et le refus. Comme le disent les auteurs du Feminist Data Manifest-No: « Nous refusons de croire que convaincre des institutions injustes de nous écouter est le seul moyen de faire avancer les choses. Nous nous engageons à co-construire notre langage et nos questions avec les communautés que nous servons afin de renforcer notre pouvoir ».21 La promesse de l’égalité devant la loi ne doit pas épuiser l’horizon de notre imagination et de nos actions collectives.

Raphaële Xenidis, Professeure assistante en droit européen, Sciences Po École de droit

Série d’articles: Les droits numériques sont des droits fondamentaux de la Charte

Précisions

Les recherches menées dans cet article sont liées à un projet qui a bénéficié d’un financement du programme de recherche et d’innovation Horizon 2020 de l’Union européenne dans le cadre de la subvention Marie Skłodowska-Curie n° 898937.

Introduction

L’article 21 de la Charte des droits fondamentaux de l’Union européenne (UE) (ci-après « la Charte ») protège le droit fondamental à la non-discrimination. Il comprend deux paragraphes : l’article 21 (1), une clause de non-discrimination ouverte, basée sur le modèle de l’article 14 de la Convention européenne des droits de l’homme (CEDH), qui interdit « toute discrimination fondée notamment sur le sexe, la race, la couleur, les origines ethniques ou sociales, les caractéristiques génétiques, la langue, la religion ou les convictions, les opinions politiques ou toute autre opinion, l’appartenance à une minorité nationale, la fortune, la naissance, un handicap, l’âge ou l’orientation sexuelle. » ; et l’article 21 (2), qui interdit « toute discrimination fondée sur la nationalité » « [d]ans le domaine d’application du traité instituant la Communauté européenne et du traité sur l’Union européenne, et sans préjudice des dispositions particulières desdits traités ». De nombreuses recherches ont mis en lumière l’omniprésence de biais et d’inégalités dans les systèmes algorithmiques.1 Dans ce contexte, les protections et les garanties offertes par le droit fondamental à la non-discrimination sont d’une importance capitale. Le présent article analyse la manière dont le droit à la non-discrimination consacré par l’article 21 pourrait être interprété et appliqué dans un contexte numérique. À cet effet, la section 1 explore d’abord la pertinence du droit fondamental à la non-discrimination dans une société algorithmique et présente l’exemple concret de la partialité raciale dans les logiciels de surveillance des examens utilisés par certaines universités durant la pandémie de Covid-19. Ensuite, la section 2 met en évidence les questions d’interprétation nées de la « transposition » du droit à la non-discrimination dans un contexte algorithmique. Enfin, la section 3 explique comment l’article 21 pourrait servir d’instrument de prévention et de correction de la discrimination algorithmique.

1. La pertinence du droit fondamental à la nondiscrimination dans une société algorithmique

En raison du champ d’application de la Charte, tel qu’exprimé à l’article 51 paragraphe1, l’interdiction de discrimination s’applique aux « institutions et organes de l’Union » ainsi qu’aux « États membres uniquement lorsqu’ils mettent en œuvre le droit de l’Union ». Par conséquent, il incombe à l’UE de s’abstenir de toute forme de discrimination fondée sur l’ensemble des éléments énumérés à l’article 21. Cela signifie, par exemple, que Frontex, une agence de l’UE, ne peut pas utiliser un logiciel de contrôle des frontières qui discrimine les individus sur la base de facteurs tels que la couleur de la peau, l’origine ethnique ou la langue.

Cependant, les États membres ont une obligation plus limitée : la clause de non-discrimination contenue dans l’article 21 ne s’applique que lorsqu’il existe un « lien direct » avec la législation de l’UE.2 Dans le cadre du champ d’application matériel des quatre directives anti-discrimination de l’UE (directives 2000/43/CE, 2000/78/CE, 2004/113/CE et 2006/54/CE), les dispositions du droit dérivé interdisent la discrimination fondée sur le sexe ou le genre, la race ou l’origine ethnique, l’orientation sexuelle, le handicap, la religion ou les croyances et l’âge.3 L’article 21 de la Charte, qui consacre le principe général de l’égalité de traitement, s’applique dans le cadre spécifique défini par ces directives.4 Toutefois, lorsque les directives ne peuvent pas, en principe, s’appliquer directement aux parties privées, la Cour de justice de l’Union européenne (CJUE) a reconnu à l’article 21 (1) de la Charte des effets horizontaux directs.5 Ainsi, l’article 21 interdit aux employeurs privés au sein de l’UE de déployer des outils de recrutement algorithmiques qui défavorisent indûment les femmes ou les candidats handicapés.

Dans les cas où la situation ne relève pas du champ d’application du droit dérivé de l’UE, mais conserve un lien direct avec le droit de l’UE,6 l’article 21 fonctionne de manière subsidiaire.7 Par exemple, l’article 21 interdit à un État membre de mettre en œuvre un système algorithmique discriminatoire dans le cadre du traitement de données à caractère personnel, qui est régi par le Règlement général sur la protection des données de l’UE.8

Examinons un exemple concret. En 2022, une étudiante néerlandaise nommée Robin Pocornie, soutenue par le Racism and Technology Centre, a déposé une plainte pour discrimination auprès de l’organisme néerlandais de promotion de l’égalité et de l’institution nationale des droits de l’homme, le College voor de Rechten van de Mens (l’Institut des droits de l’homme). Pocornie a affirmé que l’utilisation par la Vrije Universiteit Amsterdam (l’Université libre d’Amsterdam) d’un logiciel de surveillance pour empêcher la tricherie lors des examens passés à domicile pendant la pandémie de Covid-19 en 2020 était discriminatoire à son égard en raison de sa race. L’application n’a pas reconnu son visage à plusieurs reprises, compliquant ainsi sa participation aux examens et lui imposant un stress inutile. D’après les preuves qu’elle a recueillies, les étudiants non racisés n’ont pas rencontré ce problème. Son affirmation confirme les recherches universitaires montrant que les systèmes commerciaux de reconnaissance faciale sont nettement moins performants lorsqu’ils tentent d’identifier les visages de personnes (et en particulier de femmes) à la peau plus foncée.9 Lorsque ces systèmes sont utilisés pour contrôler l’accès aux ressources, aux services, aux institutions ou aux privilèges, leurs performances médiocres pour certains groupes démographiques entraînent des discriminations injustes.

2. Application de l’article 21 aux biais algorithmiques

Cette section est l’occasion d’analyser l’interprétation juridique de l’article 21 en relation avec la partialité algorithmique. Dans le cas de l’application de surveillance biaisée, le système a été utilisé pour surveiller les examens, qui font partie intégrante des cours et permettent d’accéder à des opportunités futures. Conformément au droit européen,10 cette affaire relève du champ d’application de la Directive 2000/43/CE relative au principe de l’égalité de traitement entre les personnes sans distinction de race, qui s’étend au domaine de l’éducation.11 Le principe général d’égalité de traitement inscrit à l’article 21 s’applique également à ce cas, car la directive établit le lien permettant aux États membres d’être considérés comme appliquant le droit communautaire. Conformément à la décision de la CJUE dans l’affaire Egenberger, l’interdiction de la discrimination est directement applicable aux entités publiques et privées.12 L’article 21 de la Charte confère donc au requérant un droit directement exécutoire à l’égalité de traitement algorithmique à l’encontre de la Vrije Universiteit Amsterdam (l’Université libre d’Amsterdam).

Néanmoins, la transposition du droit fondamental à la non-discrimination dans le contexte des biais algorithmiques pose quelques défis quant à la qualification juridique de ces biais. Par exemple, dans son jugement provisoire du 7 décembre 2022, l’Institut néerlandais des droits de l’homme a mis l’accent sur les difficultés rencontrées par Pocornie pour présenter des preuves que l’outil de surveillance fonctionnait différemment pour les étudiants ayant des couleurs de peau différentes.13 L’Institut a souligné qu’étant donné que « les registres [informatiques] n’étaient pas fournis aux candidats à l’examen », « la requérante […] n’avait aucune idée des notifications que le logiciel avait enregistrées dans son cas et ne pouvait donc pas les relier à un événement particulier ou à une action (ou absence d’action) de sa part ». Cette remarque met en évidence le défi auquel sont confrontées les victimes de biais algorithmiques lorsqu’il s’agit de faire naître un soupçon raisonnable de discrimination. Le manque d’accès à des informations compréhensibles sur le fonctionnement du système et l’« atomisation » des expériences individuelles dans l’environnement en ligne entravent la comparaison heuristique traditionnelle qui sous-tend l’application de la loi sur la non-discrimination. Cependant, l’Institut néerlandais des droits de l’homme a analysé l’expérience de la candidate avec le logiciel de surveillance dans le contexte de la recherche existante sur les biais dans les logiciels de reconnaissance faciale afin d’établir une présomption de discrimination. Cette présomption a déplacé la charge de la preuve sur le défendeur, en l’occurrence l’Université (et le fournisseur du logiciel).14

L’Institut néerlandais des droits de l’homme a catégorisé l’affaire comme un cas de discrimination indirecte, estimant qu’il était « possible que les algorithmes de détection des visages […] aient, de manière pratique, une incidence plus particulièrement sur les personnes ayant une couleur de peau plus foncée ». En vertu du droit dérivé de l’UE, la constatation d’une discrimination indirecte aboutit à un test de proportionnalité ouvert, selon lequel une pratique discriminatoire prima facie peut être justifiée si elle répond à un objectif légitime par des moyens appropriés et nécessaires. Toutefois, du point de vue de l’article 21 de la Charte, la proportionnalité doit être évaluée à l’aide des critères énoncés à l’article 52 (1). La présente disposition stipule que « toute limitation de l’exercice des droits et libertés reconnus par la présente Charte doit être prévue par la loi et respecter le contenu essentiel desdits droits et libertés », et que « des limitations ne peuvent être apportées que si elles sont nécessaires et répondent effectivement à des objectifs d’intérêt général reconnus par l’Union ou au besoin de protection des droits et libertés d’autrui ». Il en résulte une seconde problématique liée à la transposition des paramètres du test de proportionnalité au fonctionnement d’un système algorithmique. Dans l’affaire relative à la surveillance, la partie défenderesse a soutenu que « la discrimination opérée est […] justifiée par l’intérêt légitime de prévenir la fraude aux examens dans le contexte de la pandémie de [COVID-19] » et que « l’utilisation d’un logiciel de surveillance était à la fois appropriée et nécessaire à cet égard ». Un défendeur pourrait soutenir que la garantie de l’équité des examens et le maintien du mérite dans l’éducation sont un objectif d’intérêt général et que, compte tenu des circonstances, l’utilisation d’un logiciel de surveillance était à la fois appropriée et nécessaire. En outre, un défendeur pourrait affirmer que la proportionnalité stricto sensu est maintenue, car le signalement pourrait ne pas atteindre le seuil permettant de le qualifier de préjudice discriminatoire, en particulier s’il ne résulte pas en un préjudice ultérieur. À l’inverse, l’Institut néerlandais des droits de l’homme, se référant à la jurisprudence de la Cour européenne des droits de l’homme, a affirmé que la signalisation constituait en soi un préjudice discriminatoire et que « l’absence alléguée de conséquences matériellement préjudiciables dues au fait que la durée de l’examen a été prolongée n’était pas pertinente ».15

3. Mettre à profit les atouts de l’article 21 pour lutter contre la discrimination algorithmique

Si la section 2 a mis en lumière certains des problèmes rencontrés dans le traitement des biais algorithmiques sous l’angle du droit fondamental à la non-discrimination, l’article 21 de la Charte contient également un certain nombre de dispositifs intéressants qui peuvent être exploités pour interpréter la disposition de manière ciblée dans le contexte des systèmes algorithmiques.

Premièrement, l’article 21 (1) fournit une liste ouverte de catégories protégées qui pourraient être exploitées dans le contexte de la différenciation algorithmique systémique.16 Par exemple, l’« origine sociale » et la « fortune » sont explicitement mentionnées à l’article 21 comme des éléments protégés, qui pourraient servir de base pour lutter contre la discrimination algorithmique fondée sur le revenu ou le profilage socio-économique. Néanmoins, cet article concerne exclusivement les situations dans lesquelles les États membres appliquent le droit de l’UE, mais ces situations ne relèvent pas au champ d’application matériel des directives de non-discrimination. En effet, dans l’affaire FOA, la CJUE a affirmé que « il n’y a pas lieu d’étendre le champ d’application de la directive 2000/78 par analogie au-delà des discriminations fondées sur les motifs énumérés de manière exhaustive à l’article 1er de celle-ci ».17

La dimension ouverte de la clause de non-discrimination de l’article 21 de la Charte pourrait également faciliter la correction des schémas complexes de discrimination algorithmique,18 un phénomène dont la recherche a montré qu’il était très répandu.19 Toutefois, la réticence manifestée par la CJUE dans l’affaire Parris à l’égard de la discrimination intersectionnelle, si elle se reflète dans l’interprétation de l’article 21, pourrait réduire l’efficacité de la Charte dans la lutte contre la discrimination algorithmique.20

En second lieu, en principe, l’application de l’article 21 ne nécessite pas la distinction conventionnelle entre la discrimination directe et indirecte.21 Pour les situations qui présentent un lien direct avec le droit européen, mais qui n’entrent pas dans le champ d’application du droit dérivé de l’UE en matière de lutte contre la discrimination, un régime de justification unifié découle de l’article 52 (1). Étant donné la difficulté de qualifier le

“...es droits fondamentaux protégés par la Charte, tels que la non-discrimination, devraient fonctionner de manière transparente audelà de la frontière entre les domaines physique et numérique...”

biais algorithmique en tant que discrimination directe ou indirecte,22 et les obstacles probables à la justification des cas de discrimination algorithmique directe, le cadre de justification unifié attaché à l’article 21 de la Charte pourrait constituer une voie de recours intéressante. Toutefois, dans la pratique, la CJUE a tendance à intégrer le cadre analytique différencié prévu par les directives anti-discrimination de l’UE en ce qui concerne les justifications pour interpréter l’interdiction de discrimination telle qu’elle est définie par la Charte.23

Les restrictions au droit fondamental à l’égalité de traitement en vertu de l’article 21 ne peuvent être tolérées que si elles sont « prévues par la loi et respectent l’essence des droits et libertés », tels qu’ils sont garantis par la Charte. Ainsi, la marge de manœuvre des entreprises privées est intrinsèquement réduite, car tout système discriminatoire doit s’aligner sur un cadre légal et respecter « le contenu essentiel » du droit à la non-discrimination. En outre, le test de proportionnalité intégré à la Charte impose deux conditions : les limitations doivent être « nécessaires » et « répondent effectivement à des objectifs d’intérêt général reconnus par l’Union ou au besoin de protection des droits et libertés d’autrui. » Dans le cas de l’outil de surveillance algorithmique, on pourrait affirmer que l’atteinte au droit des étudiants à la non-discrimination n’était pas prévue par la loi, ne respectait pas l’essence du droit fondamental garanti par l’article 21, ne correspondait pas véritablement aux objectifs d’intérêt général reconnus par l’UE et n’était pas nécessaire pour protéger les droits et les libertés d’autrui.24 Le régime établi à l’article 52 (1) restreint donc considérablement l’ensemble des justifications admissibles avant même de procéder à une analyse de la proportionnalité stricto sensu. Cet aspect unique du droit à la non-discrimination, tel qu’il est consacré à l’article 21 de la Charte, pourrait donc contribuer à anticiper et à contourner certaines des difficultés liées au contrôle de la proportionnalité stricto sensu des décisions prises dans le contexte des compromis entre l’équité et la précision dans les systèmes algorithmiques.25

Conclusions

Afin de rappeler le titre de cette série d’articles, la prise de conscience du fait que les droits garantis par la Charte sont des droits numériques et vice versa est d’une importance capitale dans le contexte d’une société algorithmique. En effet, les droits fondamentaux protégés par la Charte, tels que la non-discrimination, devraient fonctionner de manière transparente au-delà de la frontière entre les domaines physique et numérique. Une interprétation téléologique de ces droits est essentielle pour garantir que les transformations sociotechniques, telles que le déploiement généralisé de systèmes algorithmiques d’évaluation des risques et de prise de décision, ne compromettent pas l’équilibre normatif inscrit dans les cadres juridiques. Par conséquent, pour garantir une protection efficace des droits fondamentaux, il est nécessaire de réévaluer les réglementations existantes à la lumière de la manière dont les avancées technologiques modifient la dynamique du pouvoir et redistribuent les coûts et les bénéfices sociétaux.

Nadia Benaissa, Bits of freedom

Un

espace pour être et devenir : la protection de la vie privée, la base du développement personnel

Conformément à l’article 20 de la Charte des droits fondamentaux de l’Union européenne (UE) (« la Charte »), toutes les personnes sont égales et se trouvent sur un pied d’égalité en droit. Cependant, l’égalité n’implique pas l’homogénéité. Nous percevons, communiquons et aimons de diverses manières. Nous portons en nous des histoires familiales uniques, nous naviguons dans des structures de pouvoir différentes et nous portons la signification historique et sociale de notre race et de notre sexe dès le jour de notre naissance. Et nous sommes constamment confrontés à des interprétations politiques de la manière dont nous nous exprimons, de ce que nous représentons et de ce en quoi nous croyons.

Nous sommes tous égaux, mais pas identiques.

De ce fait, nous avons besoin d’espace. De l’espace pour explorer, pour hésiter, pour se décider et changer à nouveau d’avis, pour persister et persévérer. De l’espace pour comprendre qui nous étions, qui nous sommes et qui nous aspirons à être. Un espace pour apprendre à connaître notre moi intérieur, sans l’interférence, la condescendance ou le dénigrement des autres. Et de l’espace pour vivre notre réalité, même si cette réalité n’est pas populaire, aimée ou même comprise.

Cet espace est l’élément vital de notre développement personnel et d’une société libre et ouverte. Il est en partie garanti par le droit au respect de la vie privée, tel que stipulé dans la Charte : « Toute personne a droit au respect de sa vie privée et familiale, de son domicile et de ses communications. ». Le droit au respect de la vie privée est inextricablement lié à d’autres droits de l’homme. Par exemple, le traitement de données relatives au sexe, à la religion ou à l’appartenance ethnique pourrait porter atteinte aux droits de l’individu à l’égalité de traitement ou à la liberté d’expression religieuse. Par conséquent, le droit au respect de la vie privée joue le rôle de garant des autres droits de l’homme. Cet article examine plusieurs cas récents aux Pays-Bas où la violation du droit au respect de la vie privée a entraîné la violation d’autres droits de l’homme.

Des identités

réduites à des stéréotypes: le traitement des données et les dangers du réductionnisme stéréotypé

Avec l’avènement de capacités technologiques de traitement des données apparemment illimitées, le droit au respect de la vie privée est mis à rude épreuve. Les données contenant des informations personnelles sont traitées, analysées et interprétées à une échelle sans précédent. Les idées et les conclusions tirées de ces données sont diffusées et échangées. Les aspects multiples qui construisent les identités sont simplifiés, catégorisés et regroupés dans des profils prédéterminés, un processus qui réduit les identités complexes à de simples stéréotypes.

En effet, le profilage pourrait simplifier la prédiction de la réaction d’un individu vis-àvis des stratégies publicitaires ou du succès de traitements médicaux. Mais dans quelle mesure est-il approprié d’estimer, sur la base du profilage, les convictions politiques d’un électeur, la probabilité qu’une personne soit impliquée dans des « transactions suspectes » ou qu’elle commette une fraude aux prestations sociales ?

En outre, la prise de décision automatisée basée sur le profilage a été annoncée comme une promesse de simplicité, d’efficacité et d’efficience. Malheureusement, il semble que ce soit le contraire qui se produise et que les conséquences soient de plus en plus évidentes, car nous constatons que divers droits fondamentaux sont fragilisés en raison de violations du droit au respect de la vie privée.

Une discrimination combinée: l’impact cumulatif des biais

Le domaine de la sécurité sociale numérique offre un exemple frappant d’atteintes à la vie privée entraînant d’autres violations des droits de l’homme. Le système de protection sociale numérique néerlandais a suscité le désormais célèbre scandale des allocations familiales1 En 2018, il est apparu que de nombreux parents qui recevaient des allocations familiales de l’administration fiscale néerlandaise avaient été identifiés à tort comme fraudeurs. Cette classification erronée a contraint les parents à rembourser des milliers d’euros à l’État, plongeant nombre d’entre eux dans de graves difficultés financières, de se retrouver sans domicile fixe et de subir un stress et une pauvreté aiguë. Selon une révélation alarmante, pas moins de 2090 enfants de parents concernés ont été pris en charge entre 2015 et 20222

Parmi les parents concernés, il s’est avéré qu’un nombre disproportionné d’entre eux étaient issus de l’immigration. Cette constatation a été corroborée par des enquêtes ultérieures, qui ont révélé que l’administration fiscale utilisait des données relatives à la nationalité des parents. L’autorité néerlandaise de protection des données3 a confirmé cette affirmation et identifié trois processus de traitement illicites. Premièrement, les doubles nationalités étaient traitées. Deuxièmement, les données relatives à la nationalité étaient utilisées comme indicateur pour le modèle de classification des risques. Troisièmement, ce modèle était utilisé pour détecter la fraude organisée. L’Autorité a conclu à l’existence d’une discrimination fondée sur la nationalité. L’enquête complémentaire d’Amnesty International4 a révélé que la discrimination était perpétrée non seulement sur la base de la nationalité, mais aussi de l’appartenance ethnique. En effet, l’utilisation des données relatives à la nationalité a facilité le ciblage discriminatoire des minorités ethniques par le modèle de classification des risques. Comme le souligne Amnesty dans son rapport, « le profilage ethnique viole l’interdiction de la discrimination. Il conduit à la criminalisation de certains groupes de personnes et renforce les associations traditionnellement stéréotypées entre la fraude et l’appartenance ethnique ».

En outre, l’enquête a révélé que les personnes qui recevaient des allocations plus élevées étaient plus susceptibles d’être accusées de fraude. Les personnes issues de ménages à faibles revenus ont donc été touchées de manière disproportionnée en raison de leur plus grande dépendance vis-à-vis des prestations et des sommes plus importantes qu’elles percevaient. De plus, les parents à faible revenu ont rencontré des difficultés à rembourser les sommes considérables exigées par le gouvernement néerlandais. L’évaluation d’Amnesty a qualifié la situation de discrimination intersectionnelle5, car les personnes les plus touchées étaient généralement des groupes ethniques minoritaires, qui sont généralement plus susceptibles d’avoir de faibles revenus. Pour aggraver le problème, il semble par la suite qu’un profilage religieux6 était également pratiqué, les personnes ayant fait des dons à des mosquées étant considérées comme présentant un risque plus élevé.

Le scandale des allocations familiales illustre de manière frappante la nature intersectionnelle de la discrimination, dans laquelle plusieurs axes de biais se renforcent mutuellement. Ce phénomène n’est pas nouveau. Dès 1989, Crenshaw7 soulignait que l’intersection des couches politiques et sociales de nos identités pouvait nous rendre plus vulnérables à la discrimination ou aux privilèges. Des facteurs tels que le sexe, l’appartenance ethnique, la classe sociale, l’orientation sexuelle, la religion, le poids et le handicap peuvent tous influer sur la position d’une personne dans le spectre du pouvoir au sein de la société. L’intersection de multiples facteurs peut soit consolider une position de privilège, soit exposer un individu à une discrimination aggravée. Ce phénomène est bien illustré par le scandale des allocations familiales du type d’aide garde d’enfants. Par exemple, les personnes musulmanes, à faible revenu et possédant au moins une origine ethnique non néerlandaise ont été triplement pénalisées uniquement sur la base de ces classifications, sans tenir compte de leur situation individuelle.

L’incrimination avant la transgression: le coût des présomptions

Ces formes distinctes de discrimination apparaissent lorsque des collecteurs de données, tels que le bureau de l’administration fiscale du gouvernement néerlandais dans notre exemple précédent, établissent des profils sur la base des données collectées. Alors que

les individus peuvent soupçonner que leurs données peuvent être utilisées pour faire des suppositions à leur sujet, dans ce dernier cas, ces suppositions ont été utilisées pour prédire la probabilité que l’individu commette une fraude à la sécurité sociale. En outre, la tendance à suspecter des individus avant même (ou malgré l’absence) de violation des règles montre que les actions supposées de la catégorie à laquelle appartient une personne sont primordiales dans l’établissement de son profil de risque. Il est essentiel de noter que le gouvernement néerlandais a justifié sa mise en œuvre du profilage algorithmique par le fait qu’il contribuerait à la détection et à la prévention efficaces de la fraude, servant ainsi l’intérêt public. Ainsi, la question se pose de savoir si l’argument de l’intérêt public doit l’emporter sur les droits et les intérêts des citoyens individuels.

En 2020, la Cour de district de La Haye8 a contesté cette notion, estimant que la prévention et la lutte contre la fraude dans l’intérêt du bien-être économique doivent être mises en balance avec les intrusions dans la vie privée des individus. La Cour a évalué si la législation sur le Systeem Risico Indicatie (SyRI), qui permettait la confluence de diverses données pour lutter contre la fraude, était en violation de l’article 8 de la Convention européenne des droits de l’homme. La Cour a déterminé que la législation SyRI ne répondait pas au critère du « juste équilibre » nécessaire pour justifier la violation du droit à la vie privée pour la défense d’intérêts plus larges. Par ailleurs, la Cour a noté que l’utilisation de SyRI n’offrait que peu de mesures de protection en raison de son manque de transparence et de vérifiabilité. La législation violant le droit européen, elle a été jugée illégale et non applicable. Les actions en justice intentées par des organisations de la société civile, notamment le Comité néerlandais des juristes pour les droits de l’homme et la Plate-forme pour les droits civils, ont envoyé un message clair : Les tribunaux et gouvernements doivent examiner judicieusement les intrusions dans la vie privée des individus, notamment par la collecte, la combinaison et le partage de données personnelles.

Le droit au respect de la vie privée: la sentinelle des droits de l’homme

La collecte et le traitement de données à grande échelle ont des conséquences considérables. En effet, les personnes considérées comme présentant un risque élevé doivent en subir les conséquences, qu’elles soient au courant ou non de cette classification. Le scandale des allocations familiales illustre à quel point le coût humain de telles violations est important. En outre, alors que les allocations étaient brusquement supprimées et que les demandes de remboursement s’accumulaient, les parents ne savaient pas pourquoi ils avaient été accusés de fraude, et les demandes d’information9 se heurtaient à des dossiers lourdement rédigés. Même la protection juridique s’est avérée insuffisante. Selon le Conseil judiciaire10, les familles ont été contraintes à une lutte inégale contre un gouvernement bien plus puissant.

Selon la Charte des droits fondamentaux de l’UE, la dignité humaine est inviolable et doit être respectée et protégée (article 1), et la discrimination est interdite (article 21). Les individus ont droit à la liberté de pensée et de croyance (article 10), à la liberté d’expression (article 11), à l’égalité en droit (article 20), au droit à la protection et aux soins des enfants (article 24), au droit à la sécurité sociale si l’autosuffisance n’est pas réalisable (article 34) et au droit à la protection juridique (article 47). Les personnes ont le droit d’être présumées innocentes jusqu’à ce que leur culpabilité soit prouvée. Tous ces droits garantis par la Charte ont été menacés dans le scandale des allocations familiales, qui a commencé par le traitement illégal de données à caractère personnel. Le fait que l’un des objectifs centraux du Règlement général sur la protection des données soit de protéger tous les droits et libertés fondamentaux, en particulier (mais pas exclusivement) le droit à la protection des données à caractère personnel, n’est pas sans fondement. La violation de la vie privée par le traitement de données à caractère personnel peut porter atteinte à d’autres droits fondamentaux. Ainsi, nous qualifions le droit au respect de la vie privée de « garant » des autres droits de l’homme. Ce constat souligne la raison pour laquelle nous devons continuer à défendre le droit au respect de la vie privée en tant que droit fondamental : il est essentiel à la sauvegarde d’une société ouverte et libre dans laquelle chacun est égal et dont les différences sont préservées, respectées et valorisées.

“La violation de la vie privée par le traitement de données à caractère personnel peut porter atteinte à d’autres droits fondamentaux. C’est pourquoi nous qualifions le droit au respect de la vie privée de « gardien » des autres droits de l’homme.”

Ioannis Kouvakas, Conseiller juridique principal et avocat général adjoint, Privacy International (PI) ; doctorant externe, Groupe de recherche sur le droit, la science, la technologie et la société (LSTS), Université libre de Bruxelles (VUB).

Remarques générales

L’article 8 de la Charte des droits fondamentaux de l’UE (la Charte) consacre expressément un droit à la protection des données à caractère personnel, qui est distinct du droit au respect de la vie privée consacré à l’article 7 de la Charte et n’a pas d’équivalent dans la Convention européenne des droits de l’homme (CEDH).1 Il contient un ensemble d’obligations et de limitations visant à régir le traitement des données à caractère personnel des personnes, notamment l’exigence que les données à caractère personnel soient traitées « loyalement, à des fins déterminées et sur la base du consentement de la personne concernée ou en vertu d’un autre fondement légitime prévu par la loi », tout en établissant un droit d’accès et de rectification des données à caractère personnel collectées à leur sujet (article 8 (2)). La Cour de justice de l’UE (CJUE) a également introduit un droit à l’oubli en application de l’article 8.2 L’article 8 (3) de la Charte soumet le respect des règles en matière de protection des données à la surveillance d’une autorité indépendante. Les acquis de l’UE en matière de protection des données sont complétés par le droit dérivé, notamment le Règlement général sur la protection des données (RGPD)3 et la Directive relative à l’application des lois4

En se concentrant sur la jurisprudence qui a façonné l’interprétation de l’article 8 de la Charte, cet article examine certaines questions relatives à l’application de ce droit et à sa relation avec l’article 7 de la Charte à l’ère numérique.

Champ d’application

L’article 8 s’applique au « traitement » de « données à caractère personnel ». Ces deux termes, définis dans le droit dérivé de l’UE,5 ont été largement interprétés par la CJUE. Les « données à caractère personnel » englobent tous les types d’informations relatives à une personne identifiée ou identifiable, qu’elles soient de nature privée ou sensible,6 ainsi que les informations subjectives telles que les avis et les appréciations.7 Il n’est pas nécessaire que l’identité de la personne soit déjà connue ; ce qui compte, c’est que l’entité responsable du traitement soit raisonnablement en mesure d’identifier la personne. Dans l’affaire Breyer, la CJUE a jugé que les adresses IP dynamiques pouvaient constituer des données à caractère personnel même si les informations supplémentaires nécessaires pour identifier l’utilisateur d’un site web n’étaient pas détenues par le fournisseur de services de médias en ligne qui collectait les adresses IP.8 Parallèlement, la notion de « traitement » doit être comprise comme toute opération effectuée sur des données à caractère personnel, y compris la collecte, la conservation, le transfert, l’effacement, etc.9

En effet, l’article 8, tout comme les autres droits de la Charte, lie à la fois les organes de l’UE et les États membres lorsqu’ils mettent en œuvre le droit de l’UE (article 51 (1) de la Charte). Dans l’affaire Tele2, la CJUE a examiné la validité d’une loi nationale imposant aux fournisseurs de services de télécommunications l’obligation de conserver certaines données de télécommunications à des fins judiciaires.10 Bien que les activités relatives à la répression soient explicitement exclues du champ d’application de la Directive vie privée et communications électroniques, qui garantit la confidentialité des communications,11 la Cour a estimé que la législation de l’UE couvrait toujours la conservation des données par les fournisseurs de services ainsi que l’accès à ces données par les autorités, car, entre autres, ladite directive imposait des obligations visant à garantir la confidentialité des communications et prévoyait des restrictions possibles, y compris en matière de répression.12

La même conclusion a été tirée dans l’affaire Privacy International,13 sur des mesures similaires, mais cette fois dans le but de sauvegarder la sécurité nationale, un domaine qui « reste de la seule responsabilité de chaque État membre » (article 4 (2) du Traité sur l’UE). Appliquant le raisonnement suivi dans l’affaire Tele2, la Cour a estimé que les mesures législatives réglementant les activités des fournisseurs de services de télécommunications relevaient du champ d’application de la Directive vie privée et communications électroniques (et, par conséquent, du droit de l’UE) parce qu’elles impliquaient le traitement de données à caractère personnel par ces fournisseurs en vertu de cette même directive.14

Interactions avec l’article 7 de la Charte

Dans sa distinction entre les articles 7 et 8 de la Charte, la CJUE ne suit pas une approche constante, déclarant en général que la protection des données « est étroitement liée au droit au respect de la vie privée ».15 Lorsqu’elle examine s’il y a eu ingérence dans les articles 7 et 8, la CJUE concentre souvent son analyse sur la question de savoir s’il y a eu ingérence dans le droit au respect de la vie privée, puis déclare qu’il y a également ingérence dans le droit à la protection des données parce que la mesure en cause implique le traitement de données à caractère personnel.16

De même, cette dernière a indûment insisté sur le fait qu’il fallait d’abord établir l’existence d’une ingérence dans l’article 7 avant de juger que l’article 8 était également en cause.17 Dans l’affaire Schecke, par exemple, qui portait sur la validité de la législation européenne exigeant la publication de détails sur les bénéficiaires de fonds agricoles, la Cour de Luxembourg n’a pas fait de distinction entre les deux droits et a traité les articles 7 et 8 comme un seul « droit au respect de la vie privée à l’égard du traitement des données à caractère personnel ».18 Cette approche, fortement influencée par la jurisprudence de la Cour européenne des droits de l’homme (Cour EDH), qui, pour faire valoir sa compétence, doit d’abord établir une ingérence dans le droit au respect de la vie privée en vertu de l’article 8 de la CEDH, semble considérer la protection des données comme un sous-ensemble du droit au respect de la vie privée et pourrait compromettre l’existence de la protection des données en tant que droit indépendant garanti par la Charte. Inversement, le large champ d’application de l’article 8 de la CEDH pourrait permettre de déclencher plus facilement l’applicabilité de la Charte, voire d’établir une ingérence dans l’article 8 de la CEDH, devant les juridictions nationales, étant donné que le traitement de données à caractère personnel dans le contexte numérique est susceptible de constituer une ingérence dans le droit au respect de la vie privée.19 Par exemple, en décidant que la reconnaissance faciale réalisée en public constituait une ingérence dans l’article 8 de la CEDH, la Divisional Court du Royaume-Uni a également mis l’accent sur les termes « données à caractère personnel » et « traitement » contenus dans l’article 8 de la Charte :

58. La [CJUE] a également souligné à plusieurs reprises que le droit à la protection des données à caractère personnel est « étroitement lié au droit au respect de la vie privée » et que « le droit au respect de la vie privée à l’égard du traitement des données à caractère personnel » est fondé à la fois sur les articles 7 et 8 de la Charte des droits fondamentaux de l’Union européenne et s’étend à « toute information concernant une personne identifiée ou identifiable ».20

Limites

L’article 52 de la Charte énonce horizontalement une série de conditions auxquelles doivent répondre les éventuelles limitations à l’exercice des droits garantis par la Charte. Les limitations doivent être prévues par la loi, respecter le contenu essentiel des droits et libertés et être proportionnées ; elles ne peuvent être apportées que si elles sont nécessaires et répondent effectivement à des objectifs d’intérêt général reconnus par l’Union européenne ou au besoin de protection des droits et libertés d’autrui (article 52 (1)).

L’article 8 de la Charte ne prévoyant qu’un système de contrôle auquel le traitement des données à caractère personnel doit satisfaire, l’application de l’article 52 (1) à ce dernier revient à apprécier les limitations imposées aux éléments essentiels de ce droit. Néanmoins, la CJUE s’est montrée plus à l’aise dans le cadre de l’application de l’article 52 (1) de la Charte dans le contexte de l’article 7.21

En ce qui concerne l’essence du droit à la protection des données, la Cour de Luxembourg considère généralement qu’il est respecté à condition que la mesure en question contienne certaines dispositions relatives à la protection des données, en particulier à la sécurité des données. Dans l’affaire Digital Rights Ireland, la CJUE a estimé que les obligations imposées aux fournisseurs de services de communication exigeant la conservation de certaines données de communication ne violaient pas l’essence des droits énoncés aux articles 7 et 8 de la Charte.22 En ce qui concerne l’article 8, elle a souligné que « les États membres veillent à l’adoption de mesures techniques et organisationnelles appropriées contre la destruction accidentelle ou illicite, la perte ou l’altération accidentelle des données ».23 Si le contenu essentiel de la protection des données est un

noyau minimal dont l’atteinte rend impossible l’exercice de ce droit24 ou, comme l’a dit la Cour, « remet en cause » le droit fondamental en tant que tel,25 une analyse des mesures techniques ou de sécurité sera probablement insuffisante pour satisfaire aux exigences de l’article 52 (1) de la Charte.

Contrairement à la Cour EDH, la CJUE a appliqué les principes de nécessité et de proportionnalité d’une manière beaucoup plus structurée, exigeant que toute limitation prévue à l’article 8 de la Charte soit strictement nécessaire 26 La Cour ne se contente pas d’examiner si l’objectif en question pourrait être atteint par des moyens moins restrictifs, mais propose souvent des approches législatives alternatives 27 Lorsqu’il s’agit de mettre en balance la protection des données et d’autres droits ou intérêts, la CJUE a adopté une position très protectrice à l’égard de l’article 8, en défendant la protection des données à caractère personnel contre les intérêts économiques des grandes entreprises technologiques,28 ainsi que l’accès du public aux documents 29

Conclusion

En somme, l’article 8 de la Charte confère à la protection des données son propre fondement constitutionnel dans l’UE en tant que droit fondamental, en établissant un ensemble de freins et de contrepoids pour régir le traitement des données des personnes. Si la CJUE n’a pas hésité à interpréter largement les dispositions de l’article 8 et à défendre la protection des données contre plusieurs autres intérêts, elle n’a toutefois pas réussi à distinguer systématiquement ce droit de celui consacré par l’article 7 de la Charte et à donner des indications claires sur la manière dont ses exigences, y compris son contenu, devraient être interprétées à la lumière de l’article 52 (1). Malgré ces lacunes, l’article 8, grâce à son large champ d’application, reste une disposition clé dans la défense des droits numériques devant les tribunaux nationaux et européens. De manière plus significative, et comme le suggère la jurisprudence examinée ci-dessus, les affaires relevant de l’article 8 restent un outil précieux pour atteindre des objectifs qui ne se limitent pas aux droits à la protection des données, mais qui peuvent avoir un impact plus large, dans le contexte des litiges relatifs aux droits numériques.

“...les affaires relevant de l’article 8 restent un outil précieux pour atteindre des objectifs qui ne se limitent pas aux droits à la protection des données, mais qui peuvent avoir un impact plus large, dans le contexte des litiges relatifs aux droits numériques.”

Les auteurs sont introduits par ordre alphabétique, leur contribution à cet essai est égale.

Melanie Fink, Leiden Law School
Giulia Gentile, LSE Law School

Le droit à une bonne administration, garanti par l’article 41 de la Charte des droits fondamentaux de l’Union européenne (UE) (« la Charte »), inscrit dans le droit constitutionnel le principe général analogue développé dans la jurisprudence de l’UE1. Ce droit incarne la position de l’UE en tant que communauté de droit, dans laquelle les individus sont protégés contre les décisions administratives arbitraires et ont droit à des garanties fondamentales dans leurs interactions avec les institutions et organes de l’UE, destinées à assurer des procédures administratives justes et équitables.

Dans le cadre de la bonne administration, l’article 41 comprend plusieurs droits procéduraux. Alors que chacun de ces droits peut avoir des effets sur le paysage numérique, certains revêtent une importance particulière dans ce contexte, notamment le droit d’être entendu, le droit à une décision motivée, le droit à des dommages-intérêts et le principe plus large de la transparence. Afin d’apporter une réflexion plus large sur la pertinence de l’article 41 dans le contexte numérique, cet article décrit d’abord le champ d’application de cette disposition, puis examine chacun de ces droits.

Champ

d’application des obligations découlant de l’article 41

Le champ d’application de l’article 41 se limite à l’administration de l’UE au sens strict, c’est-à-dire aux institutions, organes et organismes de l’UE. En excluant les États membres en tant que destinataires des obligations, l’article 41 s’écarte du principe plus généralement applicable de l’article 51 (1), selon lequel la Charte s’applique également aux États membres « lorsqu’ils mettent en œuvre le droit de l’Union ». La Cour de justice de l’Union européenne (CJUE) a parfois laissé entendre que le champ d’application de l’article 41 était plus large (voir, par exemple, affaire MM c. Minister for justice, paragraphes 81-942). Toutefois, la Cour adopte plus fréquemment une interprétation littérale, excluant les États membres du champ d’application de l’article 41 (voir, par exemple, affaire R.N.N.S et K.A c. Minister van Buitenlandse Zaken, paragraphe 333).

L’article 41, considéré fréquemment comme une codification des principes généraux du droit élaborés par les tribunaux de l’UE, présente un chevauchement important avec ces principes. Toutefois, contrairement à l’article 41, le droit à une bonne administration s’applique non seulement à l’UE elle-même, mais aussi aux autorités des États membres lorsqu’elles agissent dans le cadre du droit de l’UE. C’est ce qu’a explicitement indiqué la CJUE dans l’affaire R.N.N.S. et K.A. (paragraphe 344). En appliquant le droit à la bonne administration à l’ensemble de l’administration de l’UE, ces principes généraux jouent un rôle indépendant de celui de l’article 41.

Alors que le droit à la bonne administration s’applique uniquement aux autorités publiques de l’UE, une question pertinente dans le contexte numérique est de savoir si le droit lui-même – ou les valeurs qu’il consacre – peut être étendu aux entités privées. Cette question devient particulièrement pertinente lorsque ces entités collaborent avec les autorités publiques ou lorsqu’elles utilisent des technologies numériques à grande échelle qui ont un impact significatif sur la vie des individus, ce qui les amène à exercer des pouvoirs de nature quasi publique. Plusieurs références abordant le principe de bonne administration ont été incluses dans la proposition de législation européenne sur l’intelligence artificielle (législation sur l’IA), suggérant l’applicabilité de ce principe dans le cadre de cette réglementation, et donc aux entités privées.

Le droit d’être entendu

L’article 41, paragraphe 2, alinéa a, confère à toute personne le droit d’être entendue avant qu’une mesure individuelle qui l’affecterait défavorablement ne soit prise à son encontre. Ce droit stipule que les individus doivent avoir la possibilité de présenter leur position aux autorités pendant la procédure au cours de laquelle la mesure en question est décidée (Technische Universität München, paragraphe 255). De plus, ces positions doivent être prises en considération par les autorités et doivent être reflétées dans les motifs de la décision (Elf Aquitaine, cons. 1676). En permettant à la personne concernée

(1) Les auteurs sont introduits par ordre alphabétique, leur contribution à cet essai est égale.

“...une question pertinente dans le contexte numérique est de savoir si le droit lui-même – ou les valeurs qu’il consacre –peut être étendu aux entités privées. Cette question devient particulièrement pertinente lorsque ces entités collaborent avec les autorités publiques ou lorsqu’elles utilisent des technologies numériques à grande échelle qui ont un impact significatif sur la vie des individus, ce qui les amène à exercer des pouvoirs de nature quasi publique.”

“...l’article 41 de la Charte, ainsi que le principe général de droit correspondant, offrent la protection la plus solide du droit d’exiger une décision motivée de la part des autorités publiques de l’UE.”

d’influencer le processus décisionnel en faisant part de son point de vue, l’objectif est en fin de compte d’assurer des décisions plus équitables. La mise en place des éléments d’équité procédurale dans l’interaction entre les individus et les organes administratifs permet à l’article 41 (2) (a) d’être intimement lié à l’article 47 de la Charte, qui garantit les droits à un procès équitable et à un recours effectif.

L’intégration du droit d’être entendu au titre de l’article 41 dans le paysage numérique présente des défis spécifiques. L’un d’entre eux consiste à déterminer comment garantir que les observations d’une personne sont prises en compte dans les processus décisionnels qui intègrent un certain degré d’automatisation. Dans ce contexte, il est également nécessaire de déterminer si une personne doit être entendue par un être humain ou si un outil automatisé peut suffisamment répondre à cette exigence. À cet égard, on notera que l’article 22 du Règlement général sur la protection des données (RGPD) impose l’intervention d’un être humain dans la plupart des cas de prise de décision automatisée. Ainsi, comme le suggère l’article 22 (3) du RGPD, l’intervention humaine peut être déterminante pour préserver le droit d’être entendu dans le paysage numérique.

Un exemple pertinent est le système européen d’information et d’autorisation concernant les voyages (règlement (UE) 2018/1240), qui devrait être opérationnel à la fin de 2023 et qui automatise (partiellement)7 la décision concernant l’entrée des ressortissants de pays tiers au sein de l’UE. Alors que la réglementation actuelle8 ne stipule qu’un droit de recours en cas de refus, l’article 41 (2) (a) de la Charte sera déterminant pour garantir que les individus puissent effectivement être entendus avant qu’un refus d’autorisation de voyage ne devienne définitif.

Le droit à une décision motivée

L’article 41 (2) (c), inscrit à l’article 296 du Traité sur le fonctionnement de l’Union européenne (TFUE), stipule que le droit à une bonne administration comprend « l’obligation pour l’administration de motiver ses décisions ». Selon la CJUE, l’exposé des motifs doit être suffisamment clair et non équivoque pour permettre à la Cour d’apprécier la légalité d’une décision et de fournir aux parties concernées des informations adéquates pour discerner le bien-fondé de la décision et la contester s’il apparaît qu’il en est autrement (Elf Aquitaine, cons. 147-148). Par conséquent, l’obligation d’énoncer les motifs n’est pas simplement une obligation de transparence indépendante ; elle est plutôt conçue pour encourager la responsabilité et faciliter l’accès des individus à la justice. À cet égard, la CJUE cite souvent l’article 47 de la Charte, le droit à un recours effectif, pour étayer l’exigence d’énoncer les motifs (R.N.N.S. et K.A., cons. 43).

Il existe une tension entre le devoir de l’administration d’articuler les motifs de ses décisions et l’incorporation de l’intelligence artificielle (IA) dans le processus de prise de décision. Le nœud du problème réside dans la possibilité que les systèmes d’intelligence artificielle deviennent si complexes que les humains ne puissent pas comprendre comment ou pourquoi un système est parvenu à sa conclusion (nommé problème de la « boîte noire »9). Les décideurs humains peuvent avoir du mal à clarifier les motifs spécifiques qui justifient une décision fortement influencée par une « boîte noire ». Considérons le cas d’une personne à qui l’on refuse l’entrée sur le territoire de l’UE parce qu’un système d’IA10 l’a désignée comme présentant un « risque pour la sécurité ». Si les processus internes du système d’IA sont trop opaques pour que l’agent qui s’y réfère comprenne les facteurs qui ont contribué à cette classification, l’explication de l’agent ne peut aller au-delà de « parce que le système d’IA l’a dit ». Une telle justification ne répond pas aux normes définies à l’article 4111

Ces dernières années, un débat animé s’est engagé sur la question de savoir si le RGPD crée un « droit à l’explication » (pour12 et contre13). Toutefois, son existence et son contenu précis restent incertains. En outre, il ne s’appliquerait pas à tous les cas d’utilisation de l’IA dans le secteur public. La proposition de législation sur l’IA délimite les responsabilités des fabricants pour rendre l‘IA à haut risque intelligible pour l’homme (article 13), facilitant ainsi le droit à l’explication. Néanmoins, elle ne prévoit aucune obligation pour les utilisateurs d’IA de justifier ou d’expliquer leurs décisions aux personnes concernées, et encore moins un droit correspondant pour les individus d’exiger de telles explications. Par conséquent, à l’heure actuelle, l’article 41 de la Charte, ainsi que le principe général de droit correspondant, offrent la meilleure protection du droit d’exiger une décision motivée de la part des autorités publiques de l’UE.

Le droit à réparation

L’article 41 (3) garantit à toute personne le droit à la réparation des dommages causés par l’Union « conformément aux principes généraux communs aux droits des États membres ». Cette disposition fait écho à l’article 340(2) du TFUE, en vertu duquel la Cour a constamment statué que la responsabilité n’est engagée que pour des violations jugées suffisamment graves, ce qui signifie que l’autorité en question a fait preuve d’une « méconnaissance manifeste et grave […] des limites qui s’imposent à son pouvoir d’appréciation » (Bergaderm, paragraphe 4314).

Le point décisif est de savoir comment la décision d’utiliser des outils numériques tels que l’IA pour soutenir la prise de décision affecterait l’évaluation de la gravité de l’erreur commise par une autorité. La CJUE a précédemment déterminé que le fait de se fier raisonnablement à l’évaluation d’une autre autorité constitue un facteur pertinent (voir, par exemple, British Telecommunications, paragraphe 4315 et Robins, paragraphe 8116). Il reste à voir si ce principe – selon lequel les autorités peuvent faire confiance à des sources d’information spécifiques sans vérification – est applicable dans le contexte numérique et, dans l’affirmative, dans quelles conditions. Une telle situation augmenterait considérablement le degré auquel les décisions fondées sur les recommandations d’un système d’IA peuvent être considérées comme suffisamment graves par la CJUE pour engager la responsabilité de l’État. Par conséquent, les perspectives de contester avec succès de telles décisions pourraient être minces.

En septembre 2022, la Commission européenne a proposé une Directive sur la responsabilité en matière d’IA dans le but d’adapter les règles de responsabilité extracontractuelle pour répondre aux défis uniques posés par les systèmes d’IA. Cette directive introduirait des règles de divulgation et des présomptions réfutables pour contrer les difficultés de preuve que les victimes de dommages causés (partiellement) par l’IA peuvent rencontrer, notamment en raison de la complexité et de l’opacité de certains systèmes d’IA. La directive ne modifie pas directement les règles de responsabilité énoncées à l’article 340 du TFUE ou, par extension, à l’article 41(3) de la Charte. Toutefois, elle pourrait éventuellement influencer le régime de responsabilité civile de l’UE en influençant les « principes généraux communs aux droits des États membres », qui constituent le fondement de l’article 340 du TFUE. En outre, le raisonnement qui justifie cette directive pourrait guider l’élaboration d’une approche plus appropriée de la responsabilité en matière d’IA, notamment en ce qui concerne les dommages causés par l’administration de l’UE grâce à l’utilisation de systèmes d’IA.

La transparence

Le principe de transparence est intimement lié au droit à une bonne administration. Certains droits mentionnés à l’article 41 sont intrinsèquement liés aux droits à la transparence eux-mêmes, notamment l’article 41(2)(b), qui garantit à toute personne l’accès à son dossier, ainsi que le droit à une décision motivée. Toutefois, au-delà de ces droits spécifiques, le principe de transparence, qui est présenté comme un objectif général de l’UE dans l’ensemble des traités, est une condition préalable fondamentale pour une bonne administration.

Dans le paysage numérique, l’opacité des algorithmes – qu’elle résulte des droits de propriété intellectuelle, d’un manque de connaissances spécialisées ou des caractéristiques de l’algorithme lui-même – pose un sérieux défi au principe de transparence. Alors qu’une grande partie du débat s’est axée sur les droits d’explication, une question pressante est de savoir si le principe de transparence nécessiterait des droits beaucoup plus larges17, tels que l’accès aux jeux de données d’apprentissage, aux codes sources ou à d’autres informations relatives à l’algorithme lui-même.

La législation spécifique au secteur numérique intègre souvent des droits explicites liés à la transparence. Par exemple, le RGPD énonce plusieurs droits à l’information. Il s’agit notamment du droit à l’information concernant l’existence et les implications de la prise de décision automatisée, ainsi que « la logique sous-jacente » (article 13 du RGPD). La proposition de législation sur l’IA nécessite un certain niveau de transparence algorithmique, mais uniquement pour permettre aux utilisateurs du système d’interpréter les algorithmes (article 13 de la législation sur l’IA). Les personnes concernées par l’utilisation effective des algorithmes n’ont qu’un droit limité : celui d’être informées lorsqu’elles interagissent avec un algorithme plutôt qu’avec un être humain (article 52 de la législation

sur l’IA). Le principe de transparence, associé au droit à une bonne administration, y compris le droit d’accès à ses propres dossiers, peut constituer une base juridique plus solide pour étendre des droits plus larges aux destinataires des décisions algorithmiques administratives.

Conclusion

Le droit à une bonne administration a une valeur significative dans la régulation de l’utilisation de la technologie par l’administration de l’UE. En particulier, en garantissant que les individus sont entendus et que les décisions administratives sont motivées, il fonctionne comme un outil permettant d’exercer le droit à un recours effectif en vertu de l’article 47 de la Charte.

Néanmoins, son importance va bien au-delà de ce rôle instrumental. L’article 41 de la Charte établit les conditions d’une prise de décision administrative qui assure un juste équilibre entre les intérêts de la société et les intérêts individuels. Cet équilibre est particulièrement important à la lumière des profondes mutations de l’administration publique induites par l’utilisation croissante des technologies numériques, en particulier lorsque ces technologies sont développées et commercialisées par des entités privées. Il est important de noter que le fait de garantir que les décisions administratives sont motivées et équitables augmente également la probabilité que les décisions qui en résultent soient conformes à la loi. Cette conformité réduit la nécessité de recourir à des litiges coûteux devant des institutions judiciaires déjà surchargées. Par conséquent, le droit à une bonne administration joue un rôle essentiel pour garantir que l’adoption de nouvelles technologies ne porte pas atteinte à la justice administrative et, plus largement, à l’État de droit.

Nawal Mustafa, Public Interest Litigation Project (PILP)

Introduction

En décembre 2009, la Charte des droits fondamentaux de l’Union européenne (la Charte) est entrée en vigueur concomitamment avec le Traité de Lisbonne. Grâce à cette Charte, les droits fondamentaux qui étaient éparpillés dans divers documents juridiques nationaux et internationaux ont été rassemblés en un seul document constituant la norme commune unique régissant les droits fondamentaux en Europe. La Charte est l’une des principales sources du droit européen. Les articles 51 à 54 précisent les critères selon lesquels l’on peut faire appel à la Charte et la manière dont les dispositions de la Charte doivent être interprétées. Un aspect important de la Charte est le fait qu’elle ne peut être invoquée que dans les cas où les États membres et les institutions de l’UE mettent en œuvre le droit européen. En tant que l’un des principaux instruments du droit européen, la Charte joue plusieurs rôles. Premièrement, en tant que principe général du droit de l’UE, elle peut être utilisée comme outil d’interprétation puisque les lois nationales et le droit dérivé de l’UE dans le champ d’application du droit de l’UE doivent être interprétés à sa lumière. Deuxièmement, elle fonctionne comme un instrument de contrôle juridictionnel, ce qui signifie que la Cour de justice de l’Union européenne (CJUE) a le pouvoir d’évaluer la compatibilité des lois, des actes et des mesures avec les droits fondamentaux garantis par la Charte. Ainsi, la CJUE peut annuler toute loi nationale entrant dans le champ d’application du droit de l’UE qui porte atteinte aux droits fondamentaux énoncés par la Charte. Troisièmement, celle-ci sert également de plateforme pour l’expression et la promotion des principes généraux évolutifs du droit de l’UE. Cet article examine l’action en justice contre l’utilisation par le gouvernement néerlandais du programme « System Risk Indication (SyRI) » tout en montrant comment l’article 47 et les différents rôles de la Charte peuvent être utilisés dans le contexte des droits numériques. Étant donné que ce système traite des données à caractère personnel, il favorise le profilage et peut potentiellement porter atteinte aux droits fondamentaux des personnes. Il devait donc être soumis à un certain nombre de garanties fondées sur la Charte et sur d’autres textes législatifs de l’UE visant à réglementer le traitement des données, tout en limitant les atteintes aux droits énoncés aux articles 7 et 8 de la Charte. Les avancées et les innovations technologiques rapides ont bouleversé les modes de fonctionnement de nos sociétés et de nos institutions. Les méthodes de travail classiques sont devenues presque obsolètes en raison de l’évolution des technologies de l’information, de la numérisation continue de presque tous les aspects de la vie publique et privée, ainsi que de l’augmentation actuelle de l’utilisation de l’intelligence artificielle. Par conséquent, les décideurs et les législateurs tirent profit de la disponibilité des données numériques issues de l’utilisation des appareils technologiques par les citoyens. Le travail fondé sur les données et l’utilisation croissante de l’intelligence artificielle ont apporté de nombreux avantages, mais ils ont malheureusement également eu de nombreuses conséquences négatives qui nécessitent d’être examinées de manière plus approfondie. Parmi les conséquences négatives liées à ces développements technologiques, on peut citer la perte d’emplois due à l’automatisation, l’accroissement des inégalités en matière de revenus, la perte de la sphère privée, le racisme numérique et ce que certains chercheurs ont appelé « l’esclavage numérique ».1 La reconnaissance et l’atténuation des inconvénients potentiels des développements technologiques revêtent une importance capitale afin de garantir une répartition équitable des avantages. En outre, les cadres juridiques et éthiques nécessaires pour limiter les conséquences négatives de l’utilisation des technologies par les pouvoirs publics sont pratiquement inexistants. Cependant, de nombreuses législations existantes peuvent être utilisées de manière à réduire et à prévenir les dommages causés par l’utilisation des technologies en élargissant leur champ d’application.

Diverses sources juridiques de l’UE sont pertinentes dans le contexte des droits numériques, du traitement des données et de la protection des données.2 L’objectif de cet article est de réfléchir à la manière dont l’article 47 de la Charte, qui concerne le droit à un recours effectif et à accéder à un tribunal impartial, peut être appliqué aux contextes numériques. Le présent article est divisé en deux parties. La première partie traite de la question du System Risk Indication (SyRI) dans son ensemble et réfléchit à la pertinence de cette question à la lumière de l’article 47. La seconde partie aborde le champ d’application de l’article 47 et tente de mettre en évidence les aspects qui deviennent pertinents dans le contexte numérique. Enfin, une conclusion certes brève mais concise souligne les possibilités offertes par l’article 47 en matière de protection contre les violations des droits numériques.

“La protection et la jouissance des droits fondamentaux passent par des recours juridiques efficaces qui fournissent aux victimes de violations de données les outils dont elles ont besoin pour sauvegarder leurs droits.”

System Risk Indication (SyRI) (Système d’indication des risques)

Le gouvernement néerlandais a utilisé le système SyRI dans ses efforts pour lutter contre et prévenir la fraude à la sécurité sociale, le travail illégal et la fraude fiscale.3 Ce système était basé sur ce que l’on appelle les Landelijke Stuurgroep Interventieteams (LSI), qui consistaient en une collaboration étroite entre différentes municipalités, le ministère des Affaires sociales et de l’Emploi, la police, le ministère public, les services d’immigration et les autorités sociales et fiscales. Dans ce cadre de collaboration,4 l’échange et l’analyse de données numériques à caractère personnel étaient essentiels pour la prévention, la détection et l’investigation de la fraude et d’autres activités illicites. Les données recueillies par le LSI, les projets et expériences qui en découlent et les méthodologies employées par le LSI, y compris l’utilisation du système de la « boîte noire », ont été à la base du système SyRI.5

SyRI a été inscrit dans la loi en 2014 par le biais des articles 64 et 65 de la Loi SUWI, tandis que le chapitre 5a du Décret SUWI établit les règles et les procédures d’application.6 Le ministère des affaires sociales et de l’emploi est responsable de l’utilisation du SyRI. La création d’une base juridique pour SyRI avait pour objectif principal le renforcement de l’approche rigoureuse de la lutte contre la fraude aux prestations sociales en tirant parti des technologies numériques et de l’analyse des données. Les législateurs et les décideurs politiques au sein du gouvernement néerlandais prévoyaient également qu’en légiférant sur SyRI, les préoccupations de longue date soulevées par les organismes de réglementation concernant les violations des droits à la vie privée et à la protection des données devraient être définitivement résolues.

Dans le cadre de cet article, l’affaire SyRI est importante à plusieurs titres. Tout d’abord, c’est l’une des premières affaires ayant fondamentalement remis en question l’utilisation systématique et autorisée par la loi de technologies numériques dans le cadre de l’État-providence pour la prévention et la détection de la fraude à l’aide sociale sur la base de considérations relatives aux droits humains.7 Deuxièmement, cette affaire a montré que les technologies de surveillance de masse telles que SyRI ont tendance à cibler de manière disproportionnée les quartiers pauvres et défavorisés où les groupes marginalisés sont les plus nombreux.8 Troisièmement, l’implication d’un groupe diversifié d’organisations de la société civile dans les procédures judiciaires contre SyRI reflète une inquiétude généralisée quant à la probabilité que de tels systèmes empiètent sur les droits de tous.9 La façon dont différentes organisations ont collaboré à la procédure judiciaire pour lutter contre le système SyRI est inspirante du point de vue de l’accès aux recours juridiques et à un jugement impartial.

Les cas d’atteinte à la confidentialité des données tels que celui de SyRI causent de nombreux préjudices matériels et immatériels pour lesquels les victimes devraient pouvoir réclamer des dommages et intérêts. Certains de ces préjudices, tels que la dépression, les troubles anxieux et le syndrome de stress post-traumatique, entrent dans les catégories officielles du cinquième Manuel diagnostique et statistique des troubles mentaux (DSM 5). D’autres préjudices, comme le préjudice émotionnel, le stress ou l’atteinte au nom et à la réputation, peuvent être considérés comme des dommages psychologiques susceptibles d’entraîner des troubles mentaux. La protection et la jouissance des droits fondamentaux passent par des recours juridiques efficaces qui fournissent aux victimes de violations de données les outils nécessaires à la sauvegarde de leurs droits.

Les

principes et le champ d’application

de l’article 47 de la Charte

Lorsque l’on fait appel à l’article 47, la première étape consiste à déterminer si la Charte s’applique au regard du critère énoncé à l’article 51 (1) de la Charte.10 Si tel est le cas, une protection juridique effective doit être assurée par les États membres puis les institutions, organes et organismes de l’Union européenne lorsqu’ils mettent en œuvre le droit de l’Union.11 Le droit à un recours effectif et à accéder à un tribunal impartial sont des principes généraux essentiels du droit européen. La Cour de justice de l’Union européenne applique par conséquent ces dispositions de manière large et générale afin d’assurer aux individus tant une protection juridique adéquate qu’un accès à la justice approprié.12 Les mesures administratives et procédurales entrent dans le champ d’ap-

plication de l’article 47.13 Les États membres doivent garantir à la fois un accès effectif aux voies de recours et des tribunaux indépendants et impartiaux afin que les individus puissent remettre en question les violations de leurs droits et demander réparation.

Les droits énoncés à l’article 47 correspondent aux droits énoncés aux articles 6 et 13 de la Convention européenne des droits de l’homme et à leur interprétation par la Cour européenne des droits de l’homme. Par conséquent, l’article 47 doit être interprété dans l’esprit de ces dispositions ainsi que d’autres droits de la Charte, la législation de l’UE et les dispositions internationales en matière de droits humains. En outre, l’une des principales caractéristiques de l’article 47 est que son application et son interprétation doivent privilégier et promouvoir la réalisation et la protection des droits fondamentaux.

L’un des moyens pour y parvenir est le principe de l’efficacité minimale, qui exige que les règles nationales ne rendent pas l’exercice des droits de l’UE impossible en pratique (effectivité) et ne soient pas moins favorables que celles qui régissent des actions similaires au niveau national (équivalence).14 Bien que les exigences d’effectivité et d’équivalence se concentrent généralement sur les règles de procédure nationales, elles peuvent également s’appliquer à l’interprétation du droit matériel tel que les droits consacrés par les articles 7 et 8 de la Charte. En outre, l’article 47 exige que les tribunaux déterminent, dans chaque affaire qu’ils examinent, si des voies de recours effectives sont disponibles.

Selon la CJUE, il y a violation du principe d’effectivité lorsque les autorités refusent l’accès à des données pertinentes pour les faits d’une affaire.

Chaque fois qu’un État membre ou les institutions de l’UE semblent limiter les protections accordées par le droit à un recours effectif et à accéder à un tribunal impartial, le contrôle de proportionnalité garantit l’(il)légalité de la disposition. Selon les conditions qui lui sont associées, la limitation en question doit être nécessaire, raisonnable et proportionnée à la réalisation d’un objectif légitime. Toute restriction des droits énoncés dans cet article doit donc être concrète et ne pas aller au-delà de ce qui est nécessaire pour protéger l’intérêt public ou d’autres droits.

Les aspects négatifs du travail fondé sur les données et l’utilisation de l’IA par les autorités modifient fondamentalement les débats juridiques sur la protection des données, la vie privée et le droit à un recours effectif et à accéder à un tribunal impartial. Dans les cas de violation de données, lorsqu’il s’agit de déterminer la proportionnalité, on peut faire valoir, sur la base de l’article 47, que la charge de la preuve devrait incomber aux autorités qui collectent les données plutôt qu’aux individus dont les données sont collectées. La raison en est qu’il serait quasiment impossible ou extrêmement difficile pour les individus de s’opposer aux autorités publiques qui collectent et utilisent leurs données à leur insu. Il est très difficile de prouver aux individus quels types de préjudices immatériels réels ils subissent lorsque leurs droits fondamentaux sont violés.

Il n’existe pas de jurisprudence spécifique traitant directement des droits numériques au titre de l’article 47. Toutefois, la CJUE a développé une solide jurisprudence concernant les préjudices numériques conformément aux articles 7 et 8.15 Cette jurisprudence peut fournir des indications sur la manière dont l’article 47 peut être appliqué et interprété dans le contexte des droits numériques.

Conclusion

La collecte et le traitement des données à caractère personnel sont réglementés au niveau européen. Toutefois, cet article examine les préoccupations fondamentales soulevées dans l’affaire SyRI, qui relèvent du champ d’application de l’article 47. Bien que l’affaire n’ait pas été portée devant la CJUE et que le litige ait principalement porté sur le fait de déterminer si le système SyRI limitait illégalement les droits consacrés par les articles 7 et 8, et si le contrôle juridique prévu à l’article 47 constitue un moyen efficace pour les litiges à venir. Les tribunaux nationaux pourraient demander à la CJUE d’évaluer si les lois qui permettent l’utilisation de systèmes tels que SyRI sont conformes aux droits consacrés par la Charte. En outre, les litiges fondés sur l’article 47 peuvent contribuer au développement et à l’évolution du droit européen dans le contexte des droits numériques en clarifiant son champ d’application, en renforçant la protection des droits fondamentaux et en promouvant l’État de droit. Il peut servir de moyen puissant de défense, en soulignant les violations des droits humains et en encourageant les réformes juridiques aux niveaux national et européen.

“...la CJUE a développé une solide jurisprudence concernant les préjudices numériques au regard des articles 7 et 8. Cette jurisprudence peut fournir des indications sur la manière dont l’article 47 peut être appliqué et interprété dans le contexte des droits numériques.”

Divij Joshi, University College London

Introduction

Dans son Rapport phare de 2019 aux Nations Unies, Philip Alston, Rapporteur Spécial sur l’Extrême Pauvreté, a fait une déclaration choc en guise d’avertissement : « l’humanité […] doit éviter de s’engager sans réfléchir, tels des automates, sur la voie d’un monde de dystopie numérique de sécurité sociale ».1 Cette déclaration percutante est la conclusion d’une étude pionnière sur l’intégration mondiale des technologies numériques émergentes telles que la biométrie, le traitement informatisé des données et les systèmes algorithmiques de prise de décision dans l’administration de la sécurité sociale et de l’aide sociale. Les conclusions du rapport révèlent que l’utilisation des technologies numériques dans l’administration de la sécurité sociale se traduisait souvent par des pratiques susceptibles de porter atteinte aux droits de l’homme, notamment aux droits à la sécurité sociale, à une vie digne et au respect de la vie privée.

Malgré ce rapport alarmant, les gouvernements du monde entier, y compris ceux de l’Union européenne (UE), n’ont pas tenu compte de l’appel du rapporteur spécial à une plus grande introspection dans l’adoption des technologies numériques au service de la sécurité sociale. Cet article est une étude de la manière dont les États membres de l’UE ont utilisé les technologies numériques basées sur les données et les algorithmes dans la conception et la mise en œuvre de leurs systèmes de sécurité sociale et d’aide sociale. Cet article examine également les préjudices potentiels et réels que revêtent ces systèmes, tout en évaluant le rôle de la Charte des droits fondamentaux de l’UE (« la Charte »), en particulier l’article 34 sur la sécurité sociale, dans l’évaluation de la légalité et de la légitimité des systèmes d’aide sociale numériques.

Aide social numérique au sein de l’UE

L’administration de la sécurité sociale intègre depuis longtemps des processus assistés par ordinateur et de traitement numérique de l’information. Toutefois, cette « numérisation » de l’administration de la sécurité sociale s’est poursuivie plus rigoureusement ces dernières années, parallèlement à l’essor de l’informatisation et de l’Internet, entraînant des changements majeurs dans la manière dont les États remplissent leurs obligations en matière de sécurité sociale. Désireux d’adopter de nouvelles technologies basées sur les données pour améliorer leurs capacités de gouvernance, les gouvernements se sont efforcés de rendre leurs citoyens plus « lisibles » et donc plus gouvernables. Cependant, comme l’ont noté plusieurs auteurs, la lisibilité accrue offerte par la datafication et la numérisation se fait souvent au prix d’une surveillance accrue,2 d’expérimentations basées sur la population3 et d’une dépendance excessive à l’égard de méthodologies statistiques potentiellement erronées.4

La recherche empirique suggère une tendance croissante à la numérisation du secteur de la protection sociale dans l’UE, qui se manifeste à des degrés et sous des formes variables. Par exemple, plusieurs études ont montré comment le Danemark, les Pays-Bas, le Portugal, la France et la Pologne ont mis en œuvre des systèmes algorithmiques pour lutter contre la « fraude sociale » dans des secteurs tels que la fiscalité, les prestations sociales universelles, les soins de santé et l’éducation. Ces systèmes traitent les données personnelles pour établir des scores et des classifications fondés sur le risque, qui sont utilisés pour prédire la probabilité d’une fraude aux prestations sociales dans un scénario donné.5 Trelleborg, une municipalité suédoise, a mis en place un système ambitieux visant à « entièrement automatiser » les demandes et les droits en matière d’aide sociale. Il s’agissait notamment d’utiliser des systèmes algorithmiques fondés sur des règles pour traiter les données des citoyens et déterminer l’éligibilité à des prestations telles que l’aide financière.6 En Slovénie, la numérisation a été mise à profit pour créer des profils complets de citoyens afin d’accroître la lisibilité. Cela a permis d’améliorer la visibilité sur la façon dont les citoyens utilisent les services sociaux dans différents domaines et est donc utilisé pour mettre en place la politique de sécurité sociale.7

Le processus d’adaptation et de transformation numérique a entraîné une augmentation de l’exclusion des systèmes de sécurité sociale et d’aide sociale par le biais de la technologie, un problème que les États n’ont pas réussi à résoudre de manière appropriée. Le cas du Systeem Risico Indicatie (SyRI), un système de calcul des risques basé sur des données mis en oeuvre par le gouvernement néerlandais, est un exemple probant de la manière dont de tels systèmes de traitement des données peuvent mettre en péril la sécurité sociale. SyRI a relié les données des citoyens à travers les agences administratives et a servi de base à des modèles informatiques qui prédisent le risque de fraude

“La numérisation des systèmes de protection sociale risque de réduire systématiquement la transparence des gouvernements, de favoriser la prise de décisions arbitraires et discriminatoires et d’affaiblir les garanties procédurales contre les abus de pouvoir des gouvernements.”

à l’aide sociale. Toutefois, la nature des informations utilisées, le modèle de calcul des risques et les algorithmes de calcul n’ont été ni rendus publics ni communiqués aux personnes concernées. En raison de ce manque de transparence, il était possible que des personnes soient signalées pour des enquêtes pour fraude sans explication suffisante. La législation et la mise en œuvre de SyRI ont ensuite été remis en question devant un tribunal civil néerlandais, qui a jugé le système illégal au motif qu’il violait divers droits garantis par la Convention européenne des droits de l’homme, notamment le droit au respect de la vie privée.8 Cependant, malgré l’injonction du tribunal contre SyRI, des enquêtes ultérieures ont révélé que le gouvernement néerlandais avait continué à mener l’expérience des systèmes numériques d’aide sociale présentant des risques comparables, ce qui démontre l’enracinement profond des technologies numériques dans l’administration de la sécurité sociale dans certains États.9

Comme le montrent ces exemples, les technologies numériques sont largement utilisées dans les systèmes de prise de décision automatisés, où les résultats remplacent ou complètent la prise de décision humaine dans des tâches telles que l’identification et l’authentification des bénéficiaires de la sécurité sociale, la détermination de l’éligibilité aux prestations, le calcul des montants des prestations et la détection des fraudes.10 Le déploiement de ces systèmes influence profondément la relation entre les citoyens et l’État et, par conséquent, les droits fondamentaux des citoyens de l’UE.

La numérisation des systèmes d’aide sociale risque de réduire systématiquement la transparence des gouvernements, de favoriser la prise de décisions arbitraires et discriminatoires et de fragiliser les garanties procédurales contre les abus de pouvoir des gouvernements. Ce problème découle en partie de la nature complexe de ces systèmes de traitement de l’information, qui peuvent être difficiles à comprendre ou à examiner, et qui ne sont souvent pas suffisamment documentés ou expliqués pour assurer transparence et reddition de compte.11 L’opacité de SyRI en est un exemple : le gouvernement n’a pas divulgué les types de données personnelles utilisées pour établir le profil des citoyens ni la manière dont ces profils ont été construits. Le traitement discriminatoire et arbitraire des données constitue un autre risque potentiel.12 Par exemple, en Autriche, un programme d’allocation d’aide à l’emploi aurait attribué des notes inférieures à des personnes en fonction de leur identité sexuelle et de leur statut de personne en situation de handicap, compromettant potentiellement leur capacité à faire des demandes dans le cadre de ce programme.13 Cela souligne le fait que les systèmes numériques d’aide sociale peuvent utiliser les données de manière discriminatoire, que ce soit ouvertement ou par le biais de proxys. En outre, ces systèmes sont souvent mis en œuvre dans des contextes où il n’y a pas de reddition de compte ou de contrôle approprié et systématique. Cela signifie que des personnes peuvent perdre leur accès à la sécurité sociale sans notification préalable ni possibilité de prendre part aux décisions concernant leurs droits, de faire appel ou de contester ces dernières.14

Article 34 et droit à la sécurité sociale

La Charte, contraignante pour tous les États membres de l’UE, stipule clairement un droit à la sécurité sociale dans l’article 34 sur la solidarité. La portée et l’applicabilité de l’article 34 en tant que droit à la sécurité sociale sont spécifiées comme étant « conformes [au] droit communautaire et [aux] législations et pratiques nationales ». Cet article doit être interprété dans le même esprit que les articles 51 et 52 de la Charte, ainsi que le traité sur le fonctionnement de l’Union européenne (TFUE). Dans ce contexte, l’article 34 n’est pertinent que pour la mise en œuvre du droit européen ou dans les domaines de compétence législative de l’Union. Les articles 34 (1) et 34 (3) de la Charte servent de principes directeurs, plutôt que de prescriptions, pour l’UE et ses institutions, et imposent que toute mise en œuvre de la législation de l’UE soit conforme à leurs exigences. Actuellement, étant donné qu’aucune législation de l’Union ne stipule de prestations minimales de sécurité sociale, seul l’article 34 (2) prévoit un droit subjectif pour toute personne qui « réside et se déplace légalement » au sein de l’UE. Néanmoins, le droit prévu à l’article 34 (2) est effectivement limité par le Règlement 883/2004 qui coordonne les systèmes de sécurité sociale dans les États membres et y est incorporé. Ainsi, comme le soulignent certains auteurs, l’article 34 ne prévoit pas en son sein de droit opposable aux instruments ou à l’administration de sécurité sociale par des États membres, par exemple pour réclamer des droits minimaux en matière de logement, d’emploi ou d’assistance sociale. Toutefois, dans le contexte de l’intelligence artificielle, l’Agence européenne des droits fondamentaux interprète l’article 34 (1) de la Charte comme offrant une protection contre les mesures restreignant ou abolissant les droits de sécurité sociale existants.15

La jurisprudence de la Cour de justice de l’Union européenne n’apporte que très peu de précisions quant à l’interprétation du champ d’application de l’article 34. L’article 34 (1) n’a pas fait l’objet d’une analyse approfondie de sa part. Toutefois, selon les conclusions de l’avocat général Mengozi dans les affaires Melchior et Wojciechowski, l’article 34 (1) ne peut servir que de « références interprétatives ou paramètres du contrôle de la légalité » des actes de transposition. Dans des affaires comme Melchior, Wojciechowski et Dano, la CJUE a jugé la Charte inapplicable car les affaires concernaient la législation nationale et non le droit de l’Union. Dans l’affaire Kamberaj, qui concernait le refus d’une aide au logement à un ressortissant d’un pays tiers, la CJUE a néanmoins invoqué l’article 34 (3) afin d’interpréter la Directive 2003/109 de l’UE, qui définit les droits des ressortissants de pays tiers. Cette directive prévoit que les États doivent respecter l’égalité de traitement dans l’octroi des prestations essentielles de la protection sociale. Dans le contexte de l’article 34 (3), la Cour a interprété le terme « prestations essentielles » comme étant celles qui répondent à l’objectif de protection de la sécurité sociale au titre de l’article 34 (3) et qui « assurent une existence digne à tous ceux qui ne disposent pas de ressources suffisantes ». Certains auteurs ont également noté que des dispositions non spécifiques de la Charte ont été invoquées pour garantir les droits à la sécurité sociale, comme le droit à la dignité énoncé à l’article 1.16 Dans l’ensemble, bien qu’il existe un certain désaccord quant au champ d’application de la Charte en ce qui concerne les mesures de sécurité sociale,17 les dispositions de l’article 34 peuvent encore être interprétées de manière plus large que ce soit par la CJUE ou dans les développements futurs concernant les droits à la sécurité sociale au niveau de l’Union européenne. Malgré les limites de l’article 34 en tant que droit justiciable à la sécurité sociale dans l’UE, son utilité potentielle réside dans l’atténuation des effets négatifs sur les individus des systèmes de protection sociale numériques et dans l’évaluation de leur légalité dans le cadre plus large des droits fondamentaux de l’UE. En particulier, en mettant l’article 34 dans le contexte plus large des droits fondamentaux de l’UE et du droit international des droits humains, nous proposons qu’un droit à la sécurité sociale exige que les interventions numériques de l’État dans les systèmes de protection sociale soient conformes aux obligations de transparence, de non-discrimination et d’absence d’arbitraire. La reconnaissance d’un droit à la sécurité sociale dans le droit international des droits humains, tel que l’article 9 du Pacte international relatif aux droits économiques, sociaux et culturels,18 fournit des indications quant au contenu substantiel de ce droit au regard des dispositions des États en matière de sécurité sociale. Ainsi, le Comité des droits économiques et sociaux des Nations unies a reconnu que le droit à la sécurité sociale englobe la possibilité de bénéficier des prestations de sécurité sociale sans discrimination, que ce soit en droit ou en fait ; la transparence quant aux conditions qui qualifient ou excluent les bénéficiaires, et le fait que ces conditions doivent être raisonnables et non arbitraires ; puis la possibilité pour les bénéficiaires de participer à l’administration de la sécurité sociale, par exemple en recevant des avis de déclaration et d’autres informations sur leurs droits.

Même si l’interprétation de l’article 34, en tant que droit justiciable de protection contre les préjudices causés par les systèmes de protection sociale numériques, reste limitée, elle constitue un point de référence essentiel pour tester ces systèmes émergents. Quoi qu’il en soit, les États membres de l’UE doivent veiller à ce que leurs incursions dans les systèmes de protection sociale numérique soient conformes aux intentions et aux objectifs du droit à la sécurité sociale, en luttant contre l’insécurité, l’opacité et la précarité que ces systèmes engendrent.

“...les États membres de l’UE doivent veiller à ce que leurs incursions dans les systèmes de protection sociale numérique soient conformes aux intentions et aux objectifs du droit à la sécurité sociale, en luttant contre l’insécurité, l’opacité et la précarité que ces systèmes engendrent.”

James Farrar, Worker Info Exchange

De nombreux syndicalistes font preuve d’un scepticisme avisé à l’égard du droit, et pour cause, il suffit de se pencher sur l’histoire de la criminalisation de la lutte des classes depuis la révolution industrielle.

Dans les années 1830, six dirigeants d’un syndicat agricole émergent du sud de l’Angleterre ont été arrêtés et condamnés à une peine de sept ans de déportation dans la colonie pénitentiaire d’Australie. Le sort de ces martyrs de Tolpuddle a donné naissance au mouvement syndical moderne en Grande-Bretagne.

L’activité syndicale était considérée comme une conspiration criminelle et une entrave au commerce en Grande-Bretagne jusqu’à l’adoption de la loi sur les syndicats de 18711 Cependant, même après cette adoption, le fait de tenir un piquet de grève et de faire grève est demeuré un délit pénal jusqu’en 18752.

Aujourd’hui encore, les militants syndicaux sont confrontés à des situations similaires : une dichotomie où la liberté d’association est respectée, mais où la liberté, et a fortiori le droit de protester et de faire grève, ne l’est absolument pas.3C’est ainsi que l’État a bafoué le droit de grève pendant des générations. En 1972, vingt-deux syndicalistes britanniques ont été condamnés pour « conspiration en vue d’intimider » et emprisonnés après avoir organisé des grèves sur des chantiers de construction autour de Shrewsbury. En 2021, les condamnations ont finalement été annulées. En 1984, quatre-vingt-onze mineurs en grève à Orgreave ont été inculpés d’émeutes et de troubles violents, mais tous ont bénéficié d’un non-lieu après la révélation de bavures policières majeures dans ces affaires. Aujourd’hui, l’opposition de la part de l’État se poursuit. La loi de 2022 sur la police, la criminalité, les peines et les tribunaux (Police, Crime Sentencing and Courts Act)4 applique de nouvelles sanctions pénales strictes au droit de manifester au Royaume-Uni, ce qui met en péril les travailleurs en grève et les manifestants. Ces derniers jours, nous avons assisté à une répression violente de la part de l’État à l’encontre de travailleurs en grève en France qui protestaient contre le recul de l’âge de départ à la retraite. Bien que la solidarité de classe soit un principe fondamental de la lutte pour les droits des travailleurs, les grèves de soutien restent illégales dans de nombreux pays de l’UE, comme c’est le cas au Royaume-Uni.

Il en a toujours été ainsi. Force est de reconnaître la réalité historique selon laquelle les actions de grève et les actions collectives sont menées dans le contexte d’un conflit de classe permanent entre la classe dirigeante capitaliste et la classe ouvrière. Les droits et les libertés dont nous disposons ont été durement acquis, mais ils sont toujours strictement contrôlés, modérés et réduits par la classe dirigeante. La bonne nouvelle, c’est que la révolution permanente peut, doit et va se poursuivre malgré tout, car la lutte est loin d’être terminée.

Les erreurs de classification et la résistance du capital contre les travailleurs de l’économie à la demande

La classification erronée au sein de l`économie à la demande est le plus souvent associée aux employeurs de la plateforme qui utilisent des contrats malicieux avec les travailleurs pour les qualifier à tort d`entrepreneurs indépendants afin de se soustraire aux obligations d`emploi. Cependant, il existe d’autres effets tout aussi préjudiciables aux intérêts collectifs à long terme des travailleurs. Lorsque nous avons tenté de créer l’App Drivers & Couriers Union (ADCU) en 2020, nous avons immédiatement été confrontés à trois obstacles à la reconnaissance de notre organisation par le régulateur gouvernemental. Tout d’abord, il nous fallait prouver que nous menons déjà nos activités en tant que syndicat avant de pouvoir être reconnu comme tel – un casse-tête à l’image de celui de l’œuf et de la poule. Ensuite, nous devions montrer que le syndicat agissait dans l’intérêt collectif des travailleurs membres en réglementant la relation entre les employés et les employeurs tels qu’Uber. Cette tâche était presque impossible, compte tenu de l’asymétrie de pouvoir entre le syndicat et la puissance d’une société plateforme comme Uber ou Deliveroo et de leur refus absolu de reconnaître nos droits à la négociation collective. Finalement, nous avons satisfait à la réglementation en démontrant une action collective suffisante au nom des travailleurs par le biais de la création de notre base de données pour les travailleurs, avec l’objectif de renforcer le pouvoir de négociation collective en rendant les revenus et la répartition du travail plus transparents pour les membres du syndicat.

Enfin, lors de la certification, le régulateur gouvernemental nous a prévenu que si nous ne parvenions pas à nous faire reconnaître en tant que travailleurs devant la Cour su-

“...malgré les droits et libertés de grève et de négociation collective en Europe, ces droits sont en pratique menacés...”

prême, notre certification syndicale serait révoquée. En effet, en vertu de la législation syndicale britannique, les syndicats doivent être composés principalement de travailleurs. Par conséquent, si la classification erronée avait été maintenue en raison de la technicité de la loi, comme cela a été le cas jusqu’à présent pour les coursiers de Deliveroo, ceux qui ont le plus besoin de la protection syndicale de la collectivité en seraient privés. Dans l’état actuel des choses, la classe dirigeante et les tribunaux considèrent de manière absurde que les coursiers de Deliveroo font partie de la classe capitaliste parce qu’ils ne sont pas encore reconnus comme des travailleurs. En effet, la loi reconnaît généralement le droit de substitution comme un critère essentiel pour déterminer si une personne est un travailleur ou un entrepreneur indépendant. Pour les chauffeurs fournissant des services de transport de passagers, une telle substitution est généralement strictement interdite par les conditions locales d’octroi des licences de transport. Dans le secteur de la livraison de nourriture, le droit est offert non pas parce qu’une externalisation plus poussée est souhaitable ou nécessaire d’un point de vue commercial, mais parce qu’il s’agit d’un moyen de faire échouer les revendications en matière d’emploi. L’effet secondaire tragique est l’augmentation de la précarité dans l’industrie et des conditions d’esclavage moderne. Dans un cas examiné par Worker Info Exchange, une demande d’accès aux données a révélé que 49 travailleurs étaient liés à un seul compte bancaire sur la plateforme.

Pourtant, sans la protection limitée du statut de travailleur ou d’employé, les syndicats ou les groupes d’employés se mettent en danger s’ils entreprennent une action collective. En 2018, le syndicat GMB a été contraint d’abandonner son action de grève contre un fournisseur de services de livraison d’Amazon après avoir été menacé d’une action en responsabilité délictuelle visant à poursuivre les dommages résultant de l’action de grève entreprise par des chauffeurs qui n’étaient pas catégorisés comme travailleurs.5

De même, en Espagne, les chauffeurs de taxi membres d’Elite Taxi et de Taxi Project ont été menacés d’une amende de 120 000 euros après le dépôt d’une plainte selon laquelle leur action de protestation contre Uber constituait une restriction du commerce préjudiciable à Uber.6 Sans statut d’emploi ou de travailleur, les travailleurs les plus précaires sont exposés à ces risques juridiques redoutables.

“Dans le domaine de l’économie à la demande, les erreurs de classification et la désinformation ont brouillé les pistes en ce qui concerne les progrès vers la négociation collective.”

Les grandes plateformes n’ont pas tardé à s’attirer les faveurs du gouvernement et de la classe dirigeante et à aligner leurs intérêts sur les leurs. En Californie, les plateformes de cette économie à la demande se sont alliées avec succès pour faire pression en vue de l’inclusion d’une proposition sur les bulletins de vote lors d’une élection générale. Cette proposition était en fait un référendum visant à isoler les travailleurs à la demande et à leur refuser les droits à l’emploi qu’ils avaient établis devant les tribunaux en vertu de la législation de l’État. Cette proposition cruelle a été couronnée de succès, bien que la contestation juridique de sa constitutionnalité se poursuive.

En Europe, Uber et d’autres plateformes de covoiturage ont mené une stratégie d’intégration poussée dans leur offre de systèmes de transport public de masse. Cela inclut non seulement les services de covoiturage, mais aussi les services de micromobilité tels que les scooters et les bicyclettes. Dans le même temps, la puissance de l’intelligence des plateformes s’est avérée très précieuse pour les forces de police et de renseignement7 ainsi que pour la planification stratégique du gouvernement central dans le cadre de sa riposte face à la crise Covid.8 Bien qu’il reste encore du chemin à parcourir, il est facile de voir comment les entreprises de plateforme deviennent finalement non seulement trop grandes pour être réglementées, mais elles apparaissent également indispensables à la société au point que les actions de grève pourraient être limitées dans la mesure où elles sont « prévues par la loi, constituent des mesures nécessaires dans une société démocratique à la sécurité nationale ou à la sûreté publique, à la défense de l’ordre et à la prévention du crime, à la protection de la santé ou de la morale, ou à la protection des droits et libertés d’autrui. »

Ne vous y méprenez pas, malgré les droits et libertés de grève et de négociation collective en Europe, ces droits sont en pratique menacés. En 2022, le Congrès international des syndicats a signalé que le droit de grève était menacé en raison de la criminalisation accrue des grévistes, tandis que le droit de négociation collective subissait également une grave érosion.9

Dans le domaine de l’économie à la demande, les erreurs de classification et la désinformation ont brouillé les pistes en ce qui concerne les progrès vers la convention collective. En 2021, Uber a conclu un accord de reconnaissance avec le syndicat GMB.10 Cet accord ne prévoit pas de convention collective pour résoudre le problème des bas salaires persistants et de la non-reconnaissance du temps d’attente en tant que temps de travail rémunéré. En 2022, le GMB a signé un accord de reconnaissance avec Deli-

veroo, qui stipule que les coursiers de l’entreprise ne sont pas des travailleurs, mais des entrepreneurs indépendants.11 Dans le cas d’Uber, les contrats actuels des chauffeurs nient expressément tout élément de négociation collective en ce qui concerne les accords contractuels. Des accords similaires ont été signés aux États-Unis, au Canada, en Australie et en Belgique.

Dans ces accords, nous constatons peut-être que les tactiques des grands syndicats et les méthodes de négociation industrielle d’une autre époque sont appliquées à l’économie des services avec des employeurs qui n’agissent pas de bonne foi et qui ne sont pas encore disposés ou prêts à un véritable partenariat dans la négociation collective. Trop souvent, cette approche descendante se traduit par des accords syndicaux inefficaces avec l’employeur ou par le fait que les travailleurs peu rémunérés du secteur des services sont tout simplement laissés pour compte.

En Suède, malgré la longue histoire du célèbre modèle social suédois, les travailleurs de l’économie à la demande se retrouvent fermement en dehors des négociations collectives, tant au niveau de l’entreprise qu’au niveau sectoriel, et donc en dehors de la protection de l’État. En Suède, une grande partie de la gestion des relations de travail n’est pas prévue par la loi, mais reste du ressort du partenariat social entre les syndicats et les employeurs ; Raison pour laquelle la Suède n’a pas jugé nécessaire de légiférer sur la question du salaire minimum.

En effet, en décembre 2022, le gouvernement suédois s’est fermement opposé à la proposition de directive européenne sur le travail via des plateformes, au motif qu’elle interférerait avec le modèle social suédois, y compris les négociations collectives.12 De toute évidence, la stabilité atteinte par des conventions collectives bien organisées et influencées par l’État pourrait se révéler inefficaces et contre-productives. De telles circonstances surviennent lorsque les objectifs de ces conventions collectives sont déconnectés et éloignés de la véritable lutte des classes sous-jacente.

Worker Info Exchange et l’App Drivers & Couriers Union ont mené une longue bataille pour les droits des travailleurs contre Uber. En parallèle, ils ont mené une bataille pour la transparence algorithmique et l’accès des travailleurs à leurs données personnelles au travail contre Uber et Ola Cabs, dans le but de renforcer le pouvoir collectif des travailleurs des plateformes. Ola Cabs a fait valoir devant les tribunaux que ces objectifs constituaient un abus de droit au titre des articles 15 et 20 du règlement général sur la protection des données (RGPD). Les juridictions de première instance ont rejeté cet argument en déclarant que tant que l’objectif de la personne concernée incluait l’exercice du droit d’inspecter et de vérifier l’exactitude des données, il importait peu que les objectifs secondaires soient de partager les données avec leur syndicat dans le but de créer une base de données sur les travailleurs. La juridiction de première instance a poursuivi en soulignant que l’un des objectifs de la portabilité garantie aux travailleurs par l’article 20 était de « renforcer le contrôle sur ses propres données »13 et que le transfert de données à caractère personnel à un syndicat ou à une base de données de travailleurs était donc parfaitement compatible avec la loi.

Ola Cabs a fait appel de ce point et la Cour d’appel d’Amsterdam a également rejeté l’argument d’Ola Cabs selon lequel l’utilisation collective des données équivalait à une procédure individuelle abusive. « Le fait que les demandes actuelles poursuivent également certains intérêts syndicaux ou renforcent la position de négociation des chauffeurs ne change rien au fait que les requérants étaient libres de soumettre les demandes actuelles en vertu du RGPD sans avoir à prouver un quelconque intérêt. En effet, les articles 15 et 20 du RGPD n’exigent pas un tel intérêt. À cet égard, la Cour rappelle la jurisprudence de la Cour de justice de l’UE (ci-après : CJUE), qui souligne que le RGPD vise notamment à assurer un niveau élevé de protection des personnes physiques au sein de l’Union et que, à cet égard, le cadre juridique général créé par le RGPD donne effet aux exigences découlant du droit fondamental à la protection des données à caractère personnel garanti par l’article 8 de la Charte des droits fondamentaux de l’Union européenne, en particulier aux exigences expressément énoncées au paragraphe 2 de cet article ».14

L’article 28 de la Charte des droits fondamentaux de l’UE prévoit explicitement un droit à la négociation collective et un droit de grève. Toutefois, ces deux droits restent fortement limités par les gouvernements des États membres. Nous devons cependant reconnaître que ces droits existent dans le contexte d’un conflit de classe permanent, un état de révolution permanente où les syndicats eux-mêmes et les institutions gouvernementales sont soumis à des pressions en matière de réforme et de renouvellement en phase avec la lutte de classe manifeste. Les droits de grève et de négociation collective doivent donc servir à faciliter la lutte des classes, et non pas simplement à la contenir ou à la restreindre.

Fieke Jansen, chercheuse au sein du laboratoire d’infrastructures critiques de l’Université d’Amsterdam et organisatrice de la coalition Green Screen Climate Justice and Digital Rights.

La datafication de la vie quotidienne a fait passer les droits numériques d’une niche à une question transversale qui englobe tous les aspects de la société et qui est considérée comme une condition préalable à l’exercice des droits de l’homme. Cette évolution sociétale a également eu une incidence sur la manière dont les questions relatives aux droits numériques sont abordées. Alors que dans le passé, les discussions sur les technologies de surveillance étaient fermement ancrées dans le droit au respect de la vie privée et à la protection des données, elles sont désormais liées aux questions relatives à la surveillance policière à caractère racial1 et à la nature xénophobe de la forteresse européenne2. Les débats sur la concurrence sont passés des principes de neutralité du réseau à l’économie des données – la centralisation de la trésorerie, du pouvoir et de la richesse entre les mains de quelques entreprises technologiques. Cet article aborde un autre lien émergent : les droits numériques et le droit à la protection de l’environnement, article 373 de la Charte européenne des droits fondamentaux. Il commencera par mettre en lumière les intersections entre le climat, l’environnement et la technologie. Ensuite, il abordera l’article 37 et les fondements nécessaires à l’utilisation de ce droit fondamental pour limiter la nature extractiviste d’Internet et de son économie des données.

Les répercussions environnementales d’Internet

L’augmentation du niveau des mers, les feux de forêt, les sécheresses, les vagues de chaleur et d’autres changements météorologiques affectent les communautés, les animaux et les plantes dans le monde entier. Ces événements ne doivent pas être abordés comme des problèmes isolés, mais comme des manifestations interconnectées de l’ère de dégradation de l’environnement et de crise climatique4 dans laquelle nous vivons actuellement. Nos économies et nos industries, y compris l’économie des données et les grandes technologies, sont conçues pour exacerber les inégalités systémiques et épuiser rapidement la planète. Pour éviter de dépasser les limites planétaires, nous devons opérer un changement rapide et sans précédent vers une société plus juste et plus durable. Cela implique de comprendre et d’agir sur le lien entre l’environnement, le climat et la technologie.

À cet effet, une coalition informelle d’individus, de praticiens de la justice climatique et des droits numériques, des organismes de financement et des universitaires a été mise sur pied il y a deux ans. La coalition Green Screen Climate Justice and Digital Rights (Écran vert pour la justice climatique et les droits numériques) a commencé par explorer ce que signifie mettre en évidence la justice climatique sur les droits numériques5 et saisir les impacts environnementaux liés à Internet. Nous sommes actuellement en train de nous réunir, de créer des coalitions entre les différents mouvements et d’identifier des pistes d’action à suivre concernant un certain nombre de sujets, parmi lesquels le contentieux pourrait être l’un d’entre eux. Cet article s’inspire du travail, de la recherche et des discussions que nous avons entretenues au cours des deux dernières années avec des organisateurs communautaires, des activistes, des artistes, des organismes de financement et des universitaires.

Les recherches initiales6 commandées par la coalition Green Screen ont mis en évidence qu’au cœur de la justice climatique et des droits numériques se trouvent les litiges sur les ressources naturelles, la désinformation rampante des entreprises de combustibles fossiles en matière d’écoblanchiment et l’extraction de matières premières essentielles pour la fabrication de matériel informatique qui a un impact écologique considérable. Ce ne sont là que quelques-uns des nombreux problèmes complexes qui se situent à l’intersection du climat et de la technologie. D’autres sujets qui ont été abordés depuis sont la nécessité d’identifier et la remise en question des solutions climatiques fausses et trompeuses7, l’extractivisme et le besoin de solidarité – soutenir les militants pour le climat, pour l’environnement et pour la terre. Je développerai ci-dessous le litige des ressources naturelles, les centres de données et l’extraction de matières premières essentielles. Des études démontrent , Internet et les technologies de communication représentaient en 2020 entre 1,8 % et 2,8 % des émissions mondiales de gaz à effet de serre8 et qu’elles devraient atteindre 14 % en 20409. De surcroît, les centres de données sont en train de devenir l’une des frontières d’Internet en matière de conflit sur les droits de propriété foncière, d’électricité10 et d’eau11, entre les entreprises de données et les résidents locaux. Aux Pays-Bas, on estime que le centre de données prévu par Meta absorbera deux fois la consommation d’énergie de la ville d’Amsterdam12, et que le centre de données de Microsoft sera le seul consommateur d’un parc éolien à grande échelle13. Les habi-

“Le mouvement écologiste jouit d’une longue expérience en matière de litiges stratégiques qui lui ont permis d’obliger les entreprises et les États à réduire leurs émissions de carbone, d’attribuer les responsabilités et de réclamer des dommages et intérêts après qu’une fuite de gaz ou de pétrole a contaminé le sol et l’eau, entraînant une perte de valeur des biens, des dommages physiques et mentaux, et de mettre un terme à la délivrance de nouveaux permis d’extraction de combustibles fossiles.”

tants de la campagne néerlandaise se sentent floués14, car on leur avait promis une production locale d’énergie renouvelable pour la consommation locale, mais les politiciens ont donné la priorité à l’industrie technologique plutôt qu’aux besoins des ménages. De même, Meta souhaite étendre son centre de données à Los Lunes, au Nouveau-Mexique (États-Unis), ce qui soulève le problème de l’accès à l’eau15. Dans cette région où l’eau est rare, les besoins en eau de Meta ont été privilégiés par rapport au détriment des droits élémentaires des citoyens.

La nature extractiviste16 de notre économie des données. Internet n’est pas un nuage17, c’est une infrastructure matérielle composée de câbles, de fils, de commutateurs et d’appareils destinés aux utilisateurs en bout de chaîne. Il s’agit d’une infrastructure conçue, entretenue et réglementée par des personnes et des institutions dans un but d’interconnectivité, de rapidité, d’efficacité et de résistance. La métaphore du nuage a masqué la nature extractiviste d’Internet et la dépendance à l’égard des matières premières essentielles. APC rapporte18 que « les minéraux utilisés dans la fabrication des technologies continuent de provenir de zones et de régions où la destruction de l’environnement, les violations des droits humains et les conflits se produisent, et où les représailles contre les défenseurs de l’environnement et des terres par des acteurs étatiques et privés sont monnaie courante ». Les matières premières essentielles à Internet et à son économie de données sont considérées comme rares dans la chaîne d’approvisionnement mondiale19 et proviennent principalement de Chine, de Türkiye, d’Afrique du Sud et du Triangle du lithium20 au Chili, en Argentine et en Bolivie.

Ces exemples mettent en évidence le lien entre la dégradation de l’environnement, la crise climatique, Internet et l’économie des données. Un champ naissant et croissant a commencé à examiner ces questions, à remettre en question les solutions technologiques trompeuses en matière de climat et à travailler à la mise en place d’infrastructures Internet durables et équitables. Cependant, l’urgence de la crise climatique, le désastre environnemental de l’exploitation minière et des déchets électroniques, et l’exclusion de ceux qui sont touchés de manière disproportionnée par les solutions à ces problèmes nous obligent tous à agir. Dans la section suivante, cet article examinera comment établir un lien entre la protection de l’environnement et les questions relatives aux droits numériques.

Article 37: Protection de l’environnement

Internet et son économie de données ont un impact évident sur l’environnement. Pourtant, la Commission européenne21 considère la technologie comme un moyen de sortir de la crise climatique. Les investissements dans les villes intelligentes et l’intelligence artificielle sont considérés comme des moyens d’atténuer la crise climatique et de s’y adapter. L’hypothèse sous-jacente est que la technologie rendra d’autres industries plus efficaces et moins polluantes et créera des systèmes d’alerte précoce qui permettront aux États d’atténuer l’augmentation du niveau des mers, les feux de forêt, les sécheresses et d’autres changements météorologiques. Il n’y a pas de réflexion critique sur la manière dont ces infrastructures et ces technologies contribuent et accentuent la dégradation de l’environnement, le changement climatique et la crise sociale.

En dissociant les deux transitions – le New Deal vert et l’agenda de numérisation – et en donnant la priorité aux solutions techniques plutôt qu’aux changements industriels rapides, l’Union européenne et ses États-nations privilégient les intérêts économiques et la position géopolitique par rapport à la protection sociale et environnementale. La question est de savoir : quel est le lien avec l’article 37 de la Charte européenne des droits fondamentaux relatif à la protection de l’environnement22 ? L’article 37 stipule qu’« un niveau élevé de protection de l’environnement et l’amélioration de sa qualité doivent être intégrés dans les politiques de l’Union et garantis conformément au principe du développement durable ». Quelques recherches juridiques de l’article 37 mettent en évidence un certain nombre de défis.

« Son libellé diffère de manière frappante de celui d’une disposition classique sur les droits : le terme “droit” lui-même est omis, tout comme des termes similaires utilisés dans d’autres dispositions de la Charte qui accordent et protègent des droits individuels. »

En somme, l’article 37 est une déclaration de principes. Il ne stipule aucun droit judiciaire individuel à la protection de l’environnement ou à un environnement sain, et ne précise aucun bénéficiaire. L’article donne des directives administratives vagues, établit

le devoir des autorités publiques d’inclure des considérations environnementales dans l’élaboration et la mise en œuvre des politiques sans définir ou opérationnaliser des concepts tels que « un niveau élevé de protection de l’environnement » et « les principes du développement durable ». Ainsi, chaque autorité publique peut interpréter de manière flexible ces concepts larges et non définis. Enfin, l’article 37 fait abstraction des droits procéduraux en matière d’environnement, ne garantissant pas les droits d’accès à l’information et de participation du public aux processus décisionnels concernant leur environnement, comme le stipule la Convention d’Aarhus.

Il n’y a d’ailleurs aucune jurisprudence recourant à l’article 37 pour contester l’impact sur l’environnement des infrastructures et des nouvelles technologies Internet. Ce qui n’est pas surprenant puisque la question de l’impact environnemental et climatique d’Internet est une question émergente. Cet article ne peut donc pas illustrer la manière dont l’article 37 a été mis en application pour limiter la nature extractiviste de cette industrie. Cependant, il s’appuiera sur le travail de la Green Screen Coalition pour mettre en évidence les conditions d’une collaboration entre mouvements, qui pourrait permettre au dit mouvement d’utiliser le potentiel de la Charte de l’UE pour défendre et protéger les droits numériques et environnementaux. La création d’une coalition pour la justice climatique et les droits numériques nécessite un investissement dans l’articulation d’un point d’entrée commun, la construction d’une communauté, l’articulation d’une idéologie politique, la recherche d’un terrain d’entente, l’apprentissage mutuel et la définition d’un programme d’action commun.

Collaboration inter-mouvements

Articuler un point d’entrée. Dans son livre Pollution is Colonialism23, Max Libioron affirme qu’il est nécessaire d’étudier et de s’éloigner d’une approche axée sur les préjudices pour se tourner vers une approche axée sur la violence. Un cadre axé sur les préjudices se concentre sur les raisons pour lesquelles une certaine industrie pollue à un certain moment et dans un certain espace, c’est-à-dire qu’une quantité x d’énergie renouvelable est priorisée par rapport aux besoins des ménages ou qu’une quantité x de lithium et d’eau est utilisée dans la production d’un ordinateur. Cette approche crée des opportunités technocratiques permettant de trouver des conditions dans lesquelles la pollution est jugée acceptable. Un cadre fondé sur la violence soutient qu’étant donné l’ampleur d’Internet et de l’économie des données, nous pouvons supposer qu’ils utiliseront x quantités d’énergie et d’eau pour fonctionner et x quantités de matières premières essentielles pour exister. En tant que telle, cette industrie est un pollueur.

Construire un réseau de droits numériques et de justice climatique. La plupart des personnes entreprenant des travaux sur ce lien sont des experts dans le domaine des droits numériques, de la justice climatique ou de la justice environnementale. L’ampleur et la profondeur de ce domaine exigent que les différents mouvements travaillent en collaboration, trouvent des moments stratégiques pour se connecter, exploitent les possibilités d’actions conjointes et partagent leur apprentissage et leurs expériences sur des sujets spécifiques.

Construire une communauté à la hauteur de la complexité du problème. Nous avons besoin des voix et de l’expertise des personnes les plus touchées, du mouvement environnemental et climatique et de la communauté des droits numériques pour mettre fin aux pratiques extractives, trouver des solutions et influencer activement la prochaine Loi sur les semi-conducteurs et la Loi sur les matières premières essentielles. Pour ce faire, il convient d’adopter une approche respectueuse des communautés les plus touchées par la crise climatique, la pollution, la mauvaise gestion de l’environnement et les pratiques industrielles néfastes, afin de s’assurer que les solutions ne répètent pas les systèmes d’oppression existants.

Articuler une idéologie politique24. La diversité des voix permet de rassembler une myriade de besoins, de perspectives, de priorités, de privilèges et d’approches. Cela nécessite l’articulation d’une théorie du pouvoir. Historiquement, les deux mouvements ont eu des relations différentes avec le marché et l’État. Par exemple, les entreprises étaient des alliés naturels de la communauté des droits numériques au début d’Internet, alors que le mouvement climatique et environnemental entretient une relation critique et conflictuelle avec le marché et plus particulièrement avec les entreprises de combustibles fossiles. Même si cette dynamique a changé et que la relation avec les grandes entreprises technologiques est devenue plus conflictuelle, les coalitions doivent discuter de leur théorie du pouvoir.

“L’article 37 de la Charte de l’Union européenne, qui énonce le droit à la protection de l’environnement, pourrait être un moyen de forcer ceux qui investissent, gèrent et profitent d’Internet et de son économie de données à changer.”

Trouver un terrain d’entente. Les différents mouvements ont leur propre histoire, leurs luttes, leur vocabulaire, leurs communautés et leur répertoire d’actions. Pour établir un lien entre la protection de l’environnement et les droits numériques, trouver un terrain d’entente s’avère nécessaire. Il faut pour cela faire preuve de curiosité et d’humilité pour apprendre des autres mouvements et trouver une cause commune autour de laquelle se rallier. Un thème naturel pourrait être l’extractivisme25, qui fait référence à l’extraction de minerais rares essentiels aux appareils numériques, à la consommation d’autres ressources naturelles, telles que l’eau, tant dans le processus d’extraction que dans celui de traitement des données, et à l’approche extractiviste plus large du secteur technologique, axée sur le profit.

Apprendre les uns des autres. Le mouvement écologiste jouit d’une longue expérience en matière de litiges stratégiques qui lui ont permis d’obliger les entreprises et les États à réduire leurs émissions de carbone, d’attribuer les responsabilités et de réclamer des dommages et intérêts après qu’une fuite de gaz ou de pétrole a contaminé le sol et l’eau, entraînant une perte de valeur des biens, des dommages physiques et mentaux, et de mettre un terme à la délivrance de nouveaux permis d’extraction de combustibles fossiles. Récemment, Urgenda a gagné un procès contre l’État néerlandais pour non-respect de son devoir de protection et d’amélioration de l’environnement en raison de son manque d’action en matière de réduction des émissions de gaz à effet de serre. En pratique, cela signifie qu’en 2020, la Cour d’appel de La Haye a statué que l’État devait réduire les émissions de CO2 de 25 % par rapport à 1990.

Conclusion

L’urgence de la crise climatique impose à tous les secteurs d’activité de s’orienter vers un avenir durable et équitable dans le cadre de leurs activités actuelles. Cela englobe l’économie des données et exige que ce secteur s’éloigne fondamentalement de sa nature extractiviste, de la recherche d’une croissance infinie et des solutions technologiques trompeuses à des problèmes complexes. Cela ne se fera pas naturellement. L’article 37 de la Charte de l’Union européenne, qui énonce le droit à la protection de l’environnement, pourrait être un moyen de contraindre ceux qui investissent, gèrent et profitent d’Internet et de son économie de données à changer. Pour y parvenir, nous devons investir dans la construction d’une coalition de personnes touchées, de personnes qui œuvrent pour l’environnement, la justice climatique ainsi que le mouvement des droits numériques.

Remerciements : Cet article est le fruit des innombrables conversations que j’ai eues avec Michelle Thorne, Maya Richman, la Green Screen Coalition et ses auteurs, tout particulièrement ceux qui ont émis une analyse du paysage et qui les notes de synthèse26, ainsi que les participants aux réunions de Berlin et de San Jose, et bien d’autres encore.

Toutes les opinions exprimées ici sont personnelles.

Alexandre Biard, BEUC – The European Consumer Organisation

L’article 38 de la Charte de l’Union européenne stipule qu’« un niveau accru de protection des consommateurs est assuré dans les politiques de l’Union ». Il fait partie, avec d’autres articles sur les soins de santé, la protection de l’environnement ou la sécurité sociale, d’un titre IV plus large intitulé « Solidarité », qui établit les principes fondamentaux des politiques de l’UE. L’art. 38 est basé sur l’article 169 du traité sur le fonctionnement de l’Union européenne (TFUE).1 Toutefois, alors que l’article 169 TFUE fournit des informations supplémentaires sur la manière dont l’Union doit assurer un niveau accru de protection des consommateurs, la formulation de l’article 38 reste brève et abstraite. Comme pour l’ensemble du Titre IV, l’histoire législative de l’article 38 a été tumultueuse.2 La version initiale de la Charte faisait référence à « un niveau élevé de protection de la santé, de la sécurité et des intérêts des consommateurs ».3 Les amendements ultérieurs ont occasionné une proposition visant à supprimer l’Art. 38 dans son intégralité4 ou de le changer en un droit subjectif pour les consommateurs.5 La version finale adoptée a finalement été qualifiée de compromis.6

À première vue, l’article 38 semble jouer un double rôle. D’une part, son insertion dans la Charte véhicule un message symbolique fort, car il fait de la protection des consommateurs l’un des objectifs fondamentaux des politiques de l’UE. Il reconnaît également le rôle croissant joué par la protection des consommateurs dans l’UE. D’autre part, la dimension opérationnelle de l’article 38 soulève plusieurs questions. Tout d’abord, bien qu’il soit inclus dans la Charte des droits fondamentaux de l’UE, l’article 38 tend à établir simplement un principe et non un droit qui pourrait être invoqué directement par les individus. Ensuite, sa formulation large soulève des questions quant à la mesure dans laquelle il guide réellement l’intervention des décideurs politiques de l’UE lors de la préparation de nouvelles propositions législatives. Au-delà de ces doutes, la question est de savoir si et comment l’art. 38 pourrait jouer un rôle plus pratique à l’avenir.

Une pertinence ex ante (limitée) du point de vue de l’élaboration des politiques

L’article 38 établit le « niveau accru de protection des consommateurs » comme un objectif primordial guidant la politique de l’UE. La question est de savoir si la référence à l’article 38 par les institutions de l’UE lors de l’élaboration de nouvelles politiques est significative et bien pensée ou si elle équivaut simplement à une forme d’édulcoration. Une attention particulière aux travaux préparatoires qui ont accompagné plusieurs législations européennes récentes dans le domaine de la protection des consommateurs peut contribuer à éclairer cette question.

Examinons tout d’abord la proposition d’une directive européenne sur les actions représentatives (directive UE 2020/1828). Dans son exposé des motifs, la Commission européenne a souligné que « la proposition contribue à assurer un niveau accru de protection des consommateurs (article 38 de la Charte) ».7 Cependant, elle n’a pas fourni de précisions supplémentaires sur son implication en termes pratiques. Le contraste est saisissant si l’on considère le paragraphe suivant consacré à l’article 47 de la Charte de l’UE où la Commission européenne explique concrètement pourquoi et comment la proposition législative répond aux exigences de l’article 47.8

La même observation vaut pour la proposition relative à une meilleure application et à une modernisation des règles de l’UE en matière de protection des consommateurs (directive 2019/2161 de l’UE). Son exposé des motifs se contente d’indiquer que « la proposition est conforme à l’article 38 de la Charte des droits fondamentaux selon lequel l’UE doit assurer un niveau élevé de protection des consommateurs », mais ne définit pas clairement son implication en pratique. Enfin, il convient également d’examiner la proposition de législation sur l’intelligence artificielle. L’exposé des motifs explique que « […] la proposition renforcera les droits d’un certain nombre de groupes particuliers dans différents domaines d’intervention, notamment les droits des travailleurs à des conditions de travail justes et équitables (article 31), le droit des consommateurs à un niveau élevé de protection (article 38) […] ». Cependant, au-delà de déclarations de principe, la législation sur l’IA, telle qu’elle est proposée par la Commission européenne, ne contribue pas à un niveau élevé de protection des consommateurs. Comme l’a souligné le BEUC :

« Au-delà de la déclaration non contraignante contenue dans les considérants, la protection des consommateurs est absente de la proposition de législation sur l’IA. La proposition ne mentionne pas la protection des consommateurs contre les effets négatifs de l’IA parmi les objectifs législatifs de la législation sur l’IA. Les consommateurs ne se voient pas accorder de droits horizontaux dans la proposition et sont ex-

clus du cadre conceptuel puisque la définition de « l’utilisateur » dans la proposition n’est définie que comme un utilisateur institutionnel ou commercial».9

En raison de sa formulation vague, qui peut être interprétée de différentes manières, et de la difficulté à définir ce qu’implique concrètement un « niveau élevé de protection des consommateurs », la fonction normative de l’article 38 semble limitée en pratique, avec le risque que sa mise en œuvre par les décideurs politiques de l’UE reste souvent une coquille vide.

Une pertinence ex post (croissante) du point de vue de la mise en œuvre

Lors de la rédaction de la Charte, la Convention a considéré l’article 38 comme un principe et non comme un droit substantiel pour les individus.10 Cela n’est pas sans conséquences puisque l’article 51 prévoit que les droits prévus par la Charte doivent être respectés, tandis que les principes doivent seulement être observés. La question est maintenant de savoir s’il est possible d’aller au-delà de cette hypothèse initiale et de faire de l’article 38 un instrument utile qui pourrait être utilisé par les individus et les organisations de la société civile. Il est intéressant de noter que dans son rapport 2020, l’Agence des droits fondamentaux semble déjà brouiller les pistes lorsqu’elle parle d’un « droit à la protection des consommateurs » et utilise la protection des consommateurs dans le contexte d’un litige stratégique :

« Les organisations de la société civile (OSC) et les autres organisations actives dans le domaine des droits fondamentaux, telles que les INDH, les ONG ou les avocats spécialisés dans les droits de l’homme et d’autres défenseurs des droits de l’homme, peuvent utiliser la Charte dans tous les aspects de leur travail quotidien. Cela inclut les campagnes et contentieux stratégiques, les activités de sensibilisation et de formation, le suivi et la recherche. La nature supranationale de la Charte et son libellé explicite en font un outil important pour les contentieux stratégiques. Citons par exemple le droit à la protection des données, le droit à la protection des consommateurs et le droit à un tribunal impartial. »11

Un examen de la jurisprudence de la Cour de justice de l’Union européenne (CJUE) fournit quelques indications sur la manière de faire appel à l’article 38. Dans deux décisions concernant les droits des passagers aériens, la CJUE a utilisé l’article 38 pour équilibrer et restreindre l’application d’autres droits également en jeu. Plus précisément, l’affaire C-12/11 (Mc Donagh c/ Ryanair)12 concernait un litige entre un transporteur aérien et un passager qui s’était vu refuser la prise en charge prévue par la législation européenne 261/2004 après qu’une éruption volcanique ait entraîné l’annulation de vols. La compagnie aérienne a notamment fait valoir que l’obligation de prendre en charge les passagers, telle que prévue par la législation de l’UE, portait atteinte à ses droits fondamentaux au titre de l’article 16 (liberté d’entreprise) et de l’article 17 (droit de propriété) de la Charte de l’Union européenne. La compagnie aérienne a donc soutenu que les dispositions pertinentes du droit européen étaient invalides. La Cour s’est référée à l’article 38 pour limiter la portée des droits fondamentaux de l’entrepreneur. Tout d’abord, la Cour a souligné qu’« […] il importe également de tenir compte de l’article 38 qui […] tend à assurer, dans les politiques de l’Union, un niveau élevé de protection des consommateurs, y compris les passagers aériens »,13 puis a jugé que « l’importance que revêt l’objectif de protection des consommateurs, y compris donc les passagers aériens, est susceptible de justifier des conséquences économiques négatives, même considérables, pour certains opérateurs économiques ». Cette approche a ensuite été confirmée dans une autre décision (affaire C-28/20 Airhelp) où la Cour a jugé que « la liberté d’entreprendre et le droit de propriété ne constituent pas des prérogatives absolues et qu’ils doivent […] être conciliés avec l’article 38 de la Charte qui, à l’instar de l’article 169 TFUE, tend à assurer, dans les politiques de l’Union, un niveau élevé de protection des consommateurs, y compris les passagers aériens ».14

De même, au niveau national, les tribunaux ont examiné l’application de l’article 38 de la Charte. À titre d’illustration, une affaire en République tchèque traitait de la situation d’un particulier qui avait conclu un contrat en ligne avec une société pour la relecture d’une thèse. Faute de satisfaction du résultat final, la personne s’est retirée du contrat sans payer les honoraires convenus. L’entreprise a porté plainte contre le particulier et le tribunal de district a statué en faveur de l’entreprise. Le montant en jeu étant faible, le jugement n’était pas susceptible d’appel. Le particulier a déposé une plainte devant

la Cour constitutionnelle en invoquant le droit à la protection des consommateurs sur la base de l’article 38 de la Charte. La Cour constitutionnelle a jugé que le tribunal de district aurait dû - à la lumière de l’article 38 de la Charte - appliquer les dispositions du Code civil tchèque relatives à la protection des consommateurs et a donc confirmé le droit du plaignant à la protection des consommateurs et a annulé le premier jugement du tribunal de district.15 En Slovaquie, de même un tribunal régional a utilisé (entre autres) l’article 38 pour déclarer illégale une clause contractuelle imposant des frais de pénalité à un consommateur. Comme l’a souligné le tribunal :

« La sanction contractuelle n’a pas été convenue individuellement, il s’agit d’un contrat standard qui crée une disproportion majeure dans les droits et obligations des parties contractantes, désavantageant le consommateur, il est en conflit avec la protection des droits du consommateur, en conflit avec la Charte des droits fondamentaux de l’Union européenne (art. 38), selon laquelle pour remplir l’un des droits fondamentaux de l’Union européenne, les politiques de l’État doivent assurer un niveau élevé de protection du consommateur, et il est donc possible d’utiliser tous les moyens efficaces pour protéger les consommateurs afin d’accroître la confiance des consommateurs dans le marché qui ne devrait pas imposer aux consommateurs des pratiques déraisonnables ».16

Le potentiel de l’article 38 doit encore être développé par la jurisprudence et la doctrine, mais sa valeur ajoutée semble d’ores et déjà prometteuse.

Un potentiel à exploiter

L’article 38 reconnaît l’importance de la protection des consommateurs en tant que valeur fondamentale de l’UE. Toutefois, son effet opérationnel reste paradoxal. Tout d’abord, l’article 38 a été initialement conçu comme un principe directeur des politiques de l’UE. Pourtant, dans la pratique, son impact normatif semble souvent limité. Par ailleurs, cet article n’a pas été conçu à l’origine pour donner des droits subjectifs et pourtant l’expérience tend à montrer qu’il a été invoqué pour défendre les intérêts des consommateurs.

En fin de compte, le principe de protection des consommateurs énoncé à l’article 38 peut être utilisé en conjonction avec d’autres droits substantiels,17 tels que l’article 47 (sur le recours effectif) ou l’article 8 (sur la protection des données). L’un des principaux défis à venir consistera à élaborer progressivement une nouvelle compréhension de la politique de protection des consommateurs de l’UE et de l’article 38, en tenant compte d’autres droits fondamentaux clés protégés par la Charte, tels que le droit à la non-discrimination (Art. 21) (important par exemple dans le contexte du développement de l’intelligence artificielle), les droits de l’enfant (Art. 24), des personnes âgées (Art. 25) et des personnes handicapées (Art. 26) (important pour la protection des consommateurs vulnérables). Ces droits fondamentaux doivent être pleinement pris en compte lors de la régulation des marchés et contribuer à l’élaboration d’une définition renouvelée et moderne de la protection des consommateurs dans l’UE.

“L’un des principaux défis à venir consistera à élaborer progressivement une nouvelle compréhension de la politique de protection des consommateurs de l’UE et de l’article 38, en tenant compte d’autres droits fondamentaux clés protégés par la Charte.”

Notes

Article 11

1. CDH, 2018, p. 18, § 48: “Pour se doter de garanties de non-discrimination dignes de ce nom, les entreprises doivent dépassent les approches formalistes selon lesquelles toutes les caractéristiques protégées sont également exposées aux violences, au harcèlement et à diverses formes de censure.” Le Rapporteur spécial sur la promotion et la protection du droit à la liberté d’opinion et d’expression reconnaît ici que l’abus et le harcèlement, par leur effet de réduction au silence, constituent une forme de censure.

2. Quintais et al., 2022, p. 24: « il convient de noter que le principe des obligations positives constitue un élément important de l’article 10 de la CEDH et de l’article 11 de la Charte. En vertu du droit à la liberté d’expression, les États ont non seulement l’obligation négative de “s’abstenir” d’entraver la liberté d’expression, mais ils ont également l’obligation positive de protéger la liberté d’expression, “même dans la sphère des relations entre individus”, y compris entre un individu et une “société privée” ».

3. Frosio, Husovec, 2020 p. 15: « Grâce au principe de protection en matière de responsabilité, les fournisseurs sont partiellement libérés de la responsabilité du contenu de leurs utilisateurs. Ils ont donc effectivement le pouvoir de décider du contenu que les utilisateurs publient. Toutefois, ce pouvoir n’est pas complété par une responsabilité envers leurs utilisateurs de respecter leurs droits d’expression sous une forme particulière. C’est ce qui a conduit Tushnet à parler de “pouvoir sans responsabilité”. »

4. Quintais et al., 2022, p. 26: « L’article 20 (4) semble impliquer que les utilisateurs peuvent directement porter plainte auprès de la plateforme sur la manière dont leurs droits fondamentaux ont été pris en compte dans la décision de modération de contenu d’une plateforme. Cela signifie que la plateforme ne doit pas seulement examiner si le comportement ou le contenu était illégal ou en violation de ses CGU, mais aussi examiner son propre processus d’application et de mise en œuvre et vérifier si les droits fondamentaux de l’utilisateur ont été pris en compte de manière appropriée. »

5. Business Insider, 2018, selon Jimmy Wales, cofondateur de Wikipédia: « L’une de mes plus grandes préoccupations concernant les filtres de téléchargement obligatoires est que cela ne ferait qu’asseoir le pouvoir de Google et Facebook qui ont déjà la capacité technique de faire ce genre de choses, et les plus petits acteurs, les start-ups, toutes les autres plateformes que les gens utilisent vont être un peu exclus. »

6. Tel que décrit dans le documentaire « The Cleaners » (de Hans Block et Moritz Riesewiec, 2018).

7. Politico, 2022: « Ces dernières semaines, le gouvernement allemand a qualifié à plusieurs reprises le projet de loi d’atteinte à la vie privée et aux droits fondamentaux, son Ministre de l’économie numérique Volker Wissing avertissant cette semaine que le projet de loi “dépasse une limite”. »

8. Frosio, Husovec, 2020, p. 6: « Les blocages de virement ont privé Wikileaks de 95 % de ses revenus, lorsque PayPal, Moneybookers, Visa et MasterCard ont cessé d’accepter les dons du public. Aucune procédure judiciaire n’a jamais été engagée contre Wikileaks. »

Article 18

1. Article 18, Droit d’asile, Charte des droits fondamentaux de l’Union européenne [2008] 2000/C 364/01 : « Le droit d’asile est garanti dans le respect des règles de la convention de Genève du 28 juillet 1951 et du protocole du 31 janvier 1967 relatifs au statut des réfugiés et conformément au traité sur l’Union européenne et au traité sur le fonctionnement de l’Union européenne (ci-après dénommés “les traités”). »

2. Article 19 de la Charte, Protection en cas d’éloignement, d’expulsion et d’extradition: « 1. Les expulsions collectives sont interdites. 2. Nul ne peut être éloigné, expulsé ou extradé vers un État où il existe un risque sérieux qu’il soit soumis à la peine de mort, à la torture ou à d’autres peines ou traitements inhumains ou dégradants. »

3. MyAidbyFAR est un exemple d’initiative qui vise à aider les individus à prendre des décisions éclairées concernant leurs procédures d’immigration et d’aider les membres de la société civile à leur fournir des informations. Elle a été présentée lors d’une conférence le vendredi 17 mars 2023 à la Vrij Universiteit Amsterdam, https://vu.nl/en/ events/2023/legal-technology-a-stance-for-socialjustice, consulté le 3 avril 2023.

4. Le projet LeaveNoOneBehind associe la localisation téléphonique des personnes à une photo pour fournir une preuve de leur présence dans l’UE. Mathias Monroy, Projet LeaveNoOneBehind: Une appli pour le droit d’asile (digit.site36, 17 octobre 2022), https://digit.site36. net/2022/10/17/sea-watch-an-app-for-the-right-toasylum/, consulté le 3 avril 2023.

5. Article 7 de la Charte : respect de la vie privée et familiale.

6. Article 52 de la Charte : portée et interprétation des droits et des principes.

7. Affaire C-291/12, Michael Schwarz c. Ville de Bochum [2013] CJUE, EU:C:2013:670.

8. Schwarz, cons. 43.

9. Schwarz, cons. 36-37.

10. Affaires jointes C-148/13 à C-150/13, A, B, C c. Staatssecretaris van Veiligheid en Justitie [2014] Conclusions de l’avocat général Sharpston, EU:C:2014:2111.

11. Affaires jointes C-148/13 à C-150/13, A, B, C c. Secretary of State for Security and Justice [2014] CJUE, EU:C:2014:2406.

12. Selon le dictionnaire Oxford, le terme « pseudoscience » est « utilisé pour désigner des idées et des théories qui semblent avoir fait l’objet de recherches approfondies et être scientifiques mais qui, en réalité, ne sont pas étayées par des preuves suffisantes », comme nous l’avons lu pour la première fois dans le contexte de ce billet de blog : Nuno Ferreira et Denise Venturi, Tell me what you see and I’ll tell you’re gay : Analysing the Advocate General’s Opinion in Case C-473/16, F v Bevándorlási és Állampolgársági Hivatal (eumigrationlawblog.eu, 24 novembre 2017), https://eumigrationlawblog.eu/tell-me-what-yousee-and-ill-tell-you-if-youre-gay-analysing-the-advocate-generals-opinion-in-case-c-47316-f-v-bevandorlasi-es-allampolgarsagi-hivatal/, consulté le 03 avril 2023.

13. Affaire C-473/16, F/Office de l’immigration et de la nationalité [2018] CJUE, EU:C:2018:36, cons. 58.

14. Affaire C-473/16, F/Office de l’immigration et de la nationalité [2018] CJUE, EU:C:2018:36, cons. 53.

15. Ozkul, D., « Automating Immigration and Asylum: The Uses of New Technologies in Migration and Asylum Governance in Europe », Oxford: Refugee Studies Centre, 2023, University of Oxford p. 50-53. « EU deportations organized on the basis of social media profiles » (Statewatch, 13 février 2023), https://www.statewatch.org/news/2023/february/eu-deportations-organized-on-the-basis-of-social-media-profiles/, consulté le 03 avril 2023.

16. Dr. Francesca Palmiotto et Dr. Derya Ozkul, « “Like Handing My Whole Life Over”: The German Federal Administrative Court’s Landmark Ruling on Mobile Phone Data Extraction in Asylum Procedures » (Verfassungsblog, 28 février 2023), https://verfassungsblog.de/like-handing-my-whole-lifeover/, consulté le 03 avril 2023.

17. Nuno Ferreira et Denise Venturi, « Tell me what you see and I’ll tell you if you’re gay: Analysing the Advocate General’s Opinion in Case C-473/16, F v Bevándorlási és Állampolgársági Hivatal » (eumigrationlawblog.eu, 24 novembre 2017), https://eumigrationlawblog.eu/tell-mewhat-you-see-and-ill-tell-you-if-youre-gay-analysingthe-advocate-generals-opinion-in-case-c-47316-f-vbevandorlasi-es-allampolgarsagi-hivatal/, consulté le 03 avril 2023.

18. « Joint statement: The EU Artificial Intelligence Act must protect people on the move » (Statewatch, 06 décembre 2022), https://www.statewatch.org/news/2022/december/ joint-statement-the-eu-artifical-intelligence-act-mustprotect-people-on-the-move/, consulté le 03 avril 2023.

19. Niovi Vavoula, « Databases for Non-EU Nationals and the Right to Private Life: Towards a System of Generalised Surveillance of Movement? » in Francesca Bignami (dir.), EU Law in Populist Times: Crises and Prospects, Cambridge University Press, 2020, p. 229.

20. Nouvelle carte en ligne des bases de données « interopérables » de l’UE en matière d’immigration et de police (Statewatch, 09 novembre 2022), https://www. statewatch.org/news/2022/november/new-online-mapof-the-eu-s-interoperable-immigration-and-policingdatabases, consulté le 04 avril 2023.

21. Article 8 de la Charte: protection des données à caractère personnel.

22. Proposition modifiée de règlement du Parlement européen et du Conseil relatif à la création d’« Eurodac » pour la comparaison de données biométriques aux fins de l’application effective du règlement (UE) XXX/XXX [règlement relatif à la gestion de l’asile et de la migration] et du règlement (UE) XXX/XXX [règlement relatif à la réinstallation], pour l’identification des ressortissants de pays tiers ou des apatrides en séjour irrégulier, et relatif aux demandes de comparaison avec les données Eurodac présentées par les autorités répressives des États membres et Europol à des fins répressives, et modifiant les règlements (UE) 2018/1240 et (UE) 2019/818 [2020] COM/2020/614 final.

23. Affaire C-503/03, Commission des Communautés européennes c. Royaume d’Espagne [2006] CJUE EU:C:2006:74.

24. Article 47: Droit à un recours effectif et à accéder à un tribunal impartial.

25. Affaires jointes C-225/19 et C-226/19, R.N.N.S. et K.A. c. Minister van Buitenlandse Zaken [2020] CJUE EU:C:2020:951.

26. Norris, C., de Hert, P., L’Hoiry, X., & Galleta, A. (dir.), « The unaccountable state of surveillance: Exercising access rights in Europe » (Law, Governance and Technology Series; Vol. 34, 2017), Springer International.

27. Comité Helsinki hongrois, The Right to Know - Comparative Report on Access to Classified Data in National Security Immigration Cases in Cyprus, Hungary and Poland (13 septembre 2021) https://helsinki.hu/en/comparative-report-on-access-to-classified-data-in-national-security-immigration-cases/ consulté le 3 avril 2023.

28. Affaire C-362/14, Maximillian Schrems c. Commissaire à la protection des données [2015] CJUE EU: C:2015:650.

29. Laura Dreschler, “Wanted: LED adequacy decisions: How the absence of any LED adequacy decision is hurting the protection of fundamental rights in a law enforcement context”, International Data Privacy Law, 11(2), 2021, p. 182-195.

30. En raison de l’augmentation des données stockées et échangées dans les systèmes d’information européens sur la migration et l’asile.

31. Jane Kilpatrick, Chris Jones, « Empowering the police, removing protections: the new Europol Regulation », Statewatch, 2022, https://www.statewatch.org/publications/reports-and-books/empowering-the-police-removing-protections-the-new-europol-regulation/, consulté le 03 avril 2023.

32. Luděk Stavinoha, Apostolis Fotiadis et Giacomo Zandonini, « EU’s Frontex Tripped in Its Plan for ‘Intrusive’ Surveillance of Migrants », (Balkan Insight, 7 juillet 2022), https://balkaninsight.com/2022/07/07/eus-frontex-tripped-in-planfor-intrusive-surveillance-of-migrants/, consulté le 03 avril 2023.

33. Observations formelles du CEPD sur la proposition de règlement relatif au corps européen de garde-frontières et de garde-côtes (30 novembre 2018, CEPD), https://edps. europa.eu/data-protection/our-work/publications/comments/formal-comments-edps-proposal-regulation-european_de, consulté le 03 avril 2023.

34. Wojciech Wiewiórowski, « Privacy and data protection too often suspended at EU borders » (27 janvier 2023, Euractiv), https://www.euractiv.com/section/data-privacy/opinion/ it-is-time-to-tear-down-this-wall/, consulté le 03 avril 2023.

35. Teresa Quintel, Managing Migration Flows by processing Personal Data within the adequate Data Protection Instrument: Scoping Exercise between general and law enforcement Data Protection Rules applicable to Third Country Nationals, Upsala Universiteit et Université du Luxembourg, Thèse de doctorat, 2021. p. 290. http://uu.diva-portal.org/smash/record.jsf?pid=diva2%3A1569545&dswid=135, consulté le 03 avril 2023.

36. Petra Molnar, « Technological Testing Grounds: Border tech is experimenting with people’s lives » (9 novembre 2019, EDRI and the refugee law lab), https://edri.org/ our-work/technological-testing-grounds-border-techis-experimenting-with-peoples-lives/, consulté le 03 avril 2023.

37. Agence des droits fondamentaux (2022) Establishing national independent mechanisms to monitor fundamental rights compliance at EU external borders, https://fra. europa.eu/es/publication/2022/border-rights-monitoring, consulté le 3 avril 2023.

Article 20

1. Frantz Fanon, Peau noire, Masques blancs, Éditions du Seuil, coll. Esprit, 1952, p. 88-89.

2. Un compte-rendu plus complet de ses expériences est disponible dans son discours TEDxBeaconStreet: Joy Buolamwini, Code4Rights, Code4All (2016)

3. Joy Buolamwini y Timnit Gebru, «Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification», Proceedings of Machine Learning Research 81 (2018) 77-91

4. Simone Browne, Dark Matters. On the Surveillance of Blackness, Duke University Press, 2015, p. 8.

5. Pour des aperçus et des exemples, outre les ouvrages cités dans les autres notes de bas de page, voir par exemple Cathy O’Neil, Weapons of Math Destruction. How Big Data Increases Inequality and Threatens Democracy (Crown, 2016) ; Virginia Eubanks, Automating Inequality : How High-tech Tools Profile, Police, and Punish the Poor (St. Martin’s Press, 2018) ; Catherine D’Ignazio et Lauren F. Klein, Data Feminism (MIT Press, 2020) ; Jens T. Theilen y otros, «Feminist Data Protection: An Introduction», Internet Policy Review 10 (2021) doi:10.14763/2021.4.1609

6. Pour une discussion sur ce point dans le contexte des technologies numériques, voir Julie E. Cohen, Between Truth and Power : The Legal Constructions of Informational Capitalism (Oxford University Press, 2019), p. 239 ; Tendayi E. Achiume, Racial discrimination and emerging digital technologies: a human rights analysis (2020), UN Doc. A/ CDH/44/57.

7. Voir Shoshana Zuboff, The Age of Surveillance Capitalism: The Fight for a Human Future at the new Frontier of Power (Public Affairs, 2019).

8. Par exemple, CJCE, affaire C-414/16 - Egenberger, considérant 76.

9. Pour une critique du « cadre dominant actuel à axe unique au sein de la législation de l’UE sur l’égalité » ainsi que des pistes possibles, voir Nozizwe Dube, “Not Just Another Islamic Headscarf Case”, European Law Blog, 19 janvier 2023.

10. Pour une vue d’ensemble des débats sur l’intersectionnalité, voir Patricia Hill Collins et Sirma Bilge, Intersectionality (2e éd., Polity 2020), en particulier les pages 127-138 sur les médias sociaux et la violence numérique ; dans le contexte de la législation antidiscrimination, voir Kimberlé Crenshaw, “Demarginalizing the Intersection of Race and Sex : A Black Feminist Critique of Antidiscrimination Doctrine, Feminist Theory and Antiracist Politics”, University of Chicago Legal Forum, 1989, p. 139 ; Shreya Atrey, Intersectional Discrimination (Oxford University Press, 2019) ; Anna Lauren Hoffmann, “Where Fairness Fails : Data, Algorithms, and the Limits of Antidiscrimination Discourse », Communication & Society, n° 22, 2019, p. 900

11. Safiya Umoja Noble, Algorithms of Oppression. How Search Engines Reinforce Racism (New York University Press, 2018).

12. Center for Intersectional Justice, Intersectional Discrimination in Europe : Relevance, Challenges and Ways Forward (2019), p. 20 ; un pas dans la bonne direction est fourni par le Parlement européen, Résolution du 6 juillet 2022 sur la discrimination intersectionnelle dans l’Union européenne (P9_TA(2022)0289)

13. Aisha P.L. Kadiri, “Data and Afrofuturism: An Emancipated Subject?”, Internet Policy Review, n° 10 (4), 2021, doi:10.14763/2021.4.1597

14. Os Keyes, “The Misgendering Machines: Trans/HCI Implications of Automatic Gender Recognition”, Proceedings of the ACM on Human-Computer Interaction, n° 2, 2018, p. 88 ; Foad Hamidi, Morgan Klaus Scheuerman et Stacy M.

Branham, “Gender Recognition or Gender Reductionism? The Social Implications of Automatic Gender Recognition Systems”, CHI ‘18: Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems, n° 1, 2018, p. 8.

15. Voir également Morgan Klaus Scheuerman, Madeleine Pape et Alex Hanna, “Auto-essentialization: Gender in Automated Facial Analysis as Extended Colonial Project”, Big Data & Society, n° 8 (2), 2021, doi:10.1177/20539517211053712.

16. Mar Hicks, “Sexism is a Feature, Not a Bug” in Thomas S. Mullaney et al. (dir.), Your Computer is on Fire (MIT Press, 2021) ; voir notamment leur chapitre « When Did the Fire Start? » issu du même ouvrage.

17. Ruha Benjamin, « Race After Technology. Abolitionist Tools for the New Jim Code », (Polity, 2019), p. 44.

18. P. Khalil Saucier et Tryon P. Woods, « Ex Aqua: The Mediterranean Basin, Africans on the Move and the Politics of Policing », Theoria, n° 61, 2014, p. 55-75.

19. Dean Spade, “Intersectional Resistance and Law Reform”, Signs, n° 38, 2013, p. 1031-1055.

20. bell hooks, ‘The Oppositional Gaze. Black Female Spectators’, Black Looks: Race and Representation (South End Press, 1992), p. 116.

21. Marika Cifor et al., Feminist Data Manifest-No (2019), principe n° 21.

Article 21

1. Parmi les travaux importants en la matière, citons Safiya Umoja Noble, Algorithms of oppression : How search engines reinforce racism (New York University Press, 2018) ; Joy Buolamwini et Timnit Gebru, “Gender Shades : Intersectional Accuracy Disparities in Commercial Gender Classification”, Conference on Fairness, Accountability, and Transparency, Proceedings of Machine Learning Research, n° 81, 2018, p. 77-91 ; Ruha Benjamin, Race after technology : Abolitionist tools for the new Jim code (Oxford University Press, 2020).

2. C-617/10 Åklagaren c. Hans Åkerberg Fransson EU:C:2013:105, cons. 26.

3. L’étendue de la protection est inégale selon les domaines protégés : le domaine du travail, par exemple, est intégralement couvert, alors que l’accès aux biens et aux services ne l’est qu’en matière d’égalité des genres et de race.

4. C-414/16 Vera Egenberger c. Evangelisches Werk für Diakonie und Entwicklung e.V. EU:C:2018:257, cons. 81.

5. Ibid, cons. 76-79.

6. Cf. par exemple C-406/15 Petya Milkova c. Izpalnitelen direktor na Agentsiata za privatizatsia i sledprivatizatsionen kontrol EU:C:2017:198 et C-528/13 Geoffrey Léger c. Ministre des Affaires sociales, de la Santé et des Droits des femmes and Établissement français du sang EU:C:2015:288.

7. Voir Claire Kilpatrick, “Article 21: Non-Discrimination” in S. Peers, T. Hervey, J. Kenner et A. Ward, The EU Charter of Fundamental Rights. A Commentary (Hart Publishing, 2014) ; Emmanuelle Bribosia et al., « Article 21: Non-Discrimination » in F. Picod, S. van Drooghenbroeck et C. Rizcallah, Charte des droits fondamentaux de l’Union européenne: Commentaire article par article (Bruylant, 2017).

8. Règlement relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (Règlement général sur la protection des données) [2016] JO 2 119/1.

9. Voir J. Buolamwini and T. Gebru, “Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification”, Proceedings of Machine Learning Research, n° 81, 2018, p. 77-91 ; ainsi qu’H. F. Menezes, A. S. C. Ferreira, E. T. Pereira et H. M. Gomes, “Bias and Fairness in Face Detection”, 34th SIBGRAPI Conference on Graphics, Patterns and Images (SIBGRAPI), 2021, p. 247-254.

10. Le droit européen ne fixe que des exigences minimales pour la protection contre la discrimination et le droit national peut accorder une protection plus étendue tant qu’il reste conforme aux traités de l’UE. Toutefois, les considérations relatives au droit national sortent du cadre de cet essai.

11. Article 3 (1) (g) de la Directive 2000/43/EC.

12. C-414/16 Egenberger EU:C:2018:257.

13. Voir College voor de Rechten van de Mens, jugement 2022-146 (7 décembre 2022), disponible à l’adresse https://oordelen.mensenrechten.nl/oordeel/2022-146

14. Pour ce faire, il s’est appuyé sur la constatation de la CJUE selon laquelle un requérant peut « étayer une apparence de discrimination en se fondant sur des données statistiques générales […] dans le cas où il ne saurait être attendu de l’intéressé qu’il produise des données plus précises relatives au groupe de travailleurs pertinent, celles-ci étant difficilement accessibles, voire indisponibles ». Voir C-274/18 Minoo Schuch-Ghannadan c. Medizinische Universität Wien EU:C:2019:828, cons. 56.

15. L’Institut s’est référé à la décision de la Cour européenne des droits de l’homme dans l’affaire Basu c. Allemagne, requête n° 215/19 (Cour européenne des droits de l’homme, 18 octobre 2022).

16. Voir Janneke Gerards et Frederik Borgesius, « Protected Grounds and the System of Non-discrimination Law in the Context of Algorithmic Decision-making and Artificial Intelligence », Colorado Technology Law Journal, n° 20 (1), 2022.

17. Cf. C-354/13 Fag og Arbejde (FOA) c. Kommunernes Landsforening (KL) EU:C:2014:2463, cons. 36 et 39.

18. Voir Raphaële Xenidis, Beyond the “Master’s Tools” : Putting Intersectionality to Work in European Non-Discrimination Law (2020) Institut universitaire européen.

19. Joy Buolamwini et Timnit Gebru, “Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification”, Conference on Fairness, Accountability, and Transparency, Proceedings of Machine Learning Research, n° 81, 2018, p. 1-15.

20. C-443/15 David L. Parris c. Trinity College Dublin and Others EU:C:2016:897.

21. La discrimination directe et indirecte entraîne l’application de régimes de justification différents. Comme mentionné ci-dessus, la discrimination indirecte peut être justifiée en satisfaisant aux trois critères du test de proportionnalité. En revanche, les dérogations à la discrimination directe sont limitées à quelques exceptions explicitement prévues dans les directives européennes.

22. Voir Raphaële Xenidis, “Algorithmic Neutrality vs Neutralising Discriminatory Algorithms : For a Paradigm Shift in EU Anti-Discrimination Law”, Lavoro e Diritto, n° 4, 2022, p. 765-771 et Raphaële Xenidis, “When computers say no : Towards a legal response to algorithmic discrimination in Europe” in Bartosz Brożek, Olia Kanevskaia & Przemysław Pałka (dir.), Research Handbook on Law and Technology (Edward Elgar, à paraître).

23. Voir Raphaële Xenidis, “The Polysemy of Anti-discrimination Law: The Interpretation Architecture of the Framework Employment Directive at the Court of Justice”, Common Market Law Review, n° 58 (6), 2021, p. 1649-1696.

24. Un contre-argument potentiel pour la partie défenderesse pourrait être que le système vise à garantir l’équité et le mérite dans les examens, qui sont des dimensions clés du

droit fondamental à l’éducation protégé par l’article 14 de la Charte.

25. Des difficultés se posent également en ce qui concerne l’évaluation du choix par les fournisseurs de systèmes de mesures et d’interventions adéquates en matière d’équité.

1. Bits of freedom, We want more than “symbolic” gestures in response to discriminatory algorithms, 10 February 2021, https://edri.org/our-work/we-want-more-than-symbolic-gestures-in-response-to-discriminatory-algorithms/

2. BNNVARA, Veel meer kinderen van toeslagenschandaal-ouders uit huis geplaatst dan tot nu toe bekend was, 30 November 2022, https://www.bnnvara.nl/joop/artikelen/veel-meer-kinderen-van-toeslagenschandaal-oudersuit-huis-geplaatst-dan-tot-nu-toe-bekend-was

3. Belastingdienst/Toeslagen, De verwerking van de nationaliteit van aanvragers van kinderopvangtoeslag, Onderzoeksrapport | z2018-22445,

4. https://autoriteitpersoonsgegevens.nl/uploads/imported/ onderzoek_belastingdienst_kinderopvangtoeslag.pdf

5. Amnesty International, Toeslagenschandaal is mensenrechtenschending, zegt Amnesty International, 25 October 2021, https://www.amnesty.nl/actueel/toeslagenaffaire-is-mensenrechtenschending-zegt-amnesty-international

6. Bits of freedom, De Belastingdienst laat internationaal goed zien hoe het dus niet moet, 28 October 2021, https:// www.bitsoffreedom.nl/2021/10/28/de-belastindienst-laatinternationaal-goed-zien-hoe-het-dus-niet-moet/

7. Controlealtdelete, Etnisch en religieus geladen risicoprofielen bij Belastingdienst, https://controlealtdelete. nl/articles/etnisch-en-religieus-geladen-risicoprofielen-bij-belastingdienst

8. K.W. Crenshaw (2017), On Intersectionality: Essential Writings, The New York Press, https://scholarship.law.columbia. edu/books/255/

9. Rechtbank Den Haag, ECLI:NL:RBDHA:2020:865,

10. https://uitspraken.rechtspraak.nl/#!/details?id=ECLI:NL:RBDHA:2020:1878

11. NOS, Ouders zwartgelakte dossiers: ‘Ik weet nog steeds niet wat ik fout heb gedaan’, 11 December 2019, https:// nos.nl/artikel/2314288-ouders-zwartgelakte-dossiers-ikweet-nog-steeds-niet-wat-ik-fout-heb-gedaan

12. deRechtspraak, Reflectie bestuursrechters rechtbanken op toeslagenaffaire gepubliceerd, Toeslagenaffaire: ‘Belang rechtsbescherming individu moet zwaarder wegen dan vaste lijn jurisprudentie’, 8 October 2021, https://www. rechtspraak.nl/Organisatie-en-contact/Organisatie/ Raad-voor-de-rechtspraak/Nieuws/Paginas/Toeslagenaffaire-Belang-rechtsbescherming-individu-moet-zwaarder-wegen-dan-vaste-lijn-jurisprudentie.aspx

Article 8

1. Affaires jointes C 203/15 et C 698/15 Tele2 Sverige AB c. Post- och telestyrelsen, cons. 129.

2. Affaire C 131/12 Google Spain SL c. AEPD.

3. Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données) (Texte présentant de l’intérêt pour l’EEE).

4. Directive (UE) 2016/680 du Parlement européen et du Conseil du 27 avril 2016 relative à la protection des personnes physiques à l’égard du traitement des données à

Article 7

caractère personnel par les autorités compétentes à des fins de prévention et de détection des infractions pénales, d’enquêtes et de poursuites en la matière ou d’exécution de sanctions pénales, et à la libre circulation de ces données, et abrogeant la décision-cadre 2008/977/JAI du Conseil.

5. Voir, par exemple, lien supra (Règlement 2016/679), arts. 4 (1) et 4 (2).

6. Affaire C-73/07 Tietosuojavaltuutettu c. Satakunnan Markkinapörssi Oy, cons. 36-37.

7. Affaire C 434/16 Nowak c. DPC, cons. 34.

8. Affaire C-582/14 Breyer c. République fédérale d’Allemagne, cons. 44.

9. Voir affaire C 291/12 Schwarz c. Stadt Bochum, cons. 28.

10. Supra note n°1.

11. Directive 2002/58/CE du Parlement européen et du Conseil du 12 juillet 2002 concernant le traitement des données à caractère personnel et la protection de la vie privée dans le secteur des communications électroniques (directive vie privée et communications électroniques), OJ L 201, art. 1 (3).

12. Supra note n°1, cons. 67-81.

13. Affaire C 623/17 Privacy International c. SSFCA.

14. Ibid, cons. 40-41.

15. Voir, entre autres, les affaires jointes C 92/09 et C 93/09, Schecke c. Land Hessen, Rec. 2010, p. I-11063.

16. Voir, par exemple, les affaires jointes C 293/12 et C 594/12 Digital Rights Ireland c. Minister for Communications, Marine and Natural Resources, cons. 36.

17. Christopher Docksey, “Four fundamental rights: finding the balance”, International Data Privacy Law, Vol. 6, 2016, p. 195.

18. Supra note n° 15, cons. 52.

19. Voir FRA/ECtHR/EDPS, Manuel de droit européen en matière de protection des données, Publication de l’Agence des droits fondamentaux de l’Union européenne, 2018, p. 20.

20. R (Bridges) v CCSWP [2019] EWHC 2341 (Admin).

21. Herke Kranenborg, “Article 8” in Steve Peers, Tamara Hervey, Jeff Kenner et Angela Ward (dir.), The EU Charter of Fundamental Rights: A Commentary, Hart, 2021, p. 242.

22. Supra note n° 16, cons. 39-40.

23. Ibid, cons. 40.

24. Maja Brkan, “The Essence of the Fundamental Rights to Privacy and Data Protection: Finding the Way Through the Maze of the CJEU’s Constitutional Reasoning”, German Law Journal, vol. 20, 2019, p. 864 et s., p. 878.

25. Affaire C 73/16 Puškár c. Finančné riaditeľstvo Slovenskej republiky, cons. 64.

26. Affaire C 205/21 V.S., cons. 125-128.

27. Affaires jointes C 511/18, C 512/18 et C 520/18 La Quadrature du Net c. Premier ministre, cons. 136-137.

28. Supra note n° 2, cons. 81.

29. Affaires jointes C 37/20 et C 601/20 WM c. Luxembourg Business Registers, cons. 83-86.

Article 41

1. Les auteurs sont introduits par ordre alphabétique, leur contribution à cet essai est égale.

2. https://eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=OJ:JOC_1988_180_R_0007_01&from=ES

3. https://curia.europa.eu/juris/document/document. jsf;jsessionid=1A4F9052F6441373B59362B8770E246D?text=&docid=130241&pageIndex=0&doclang=ES&mode=lst&dir=&occ=first&part=1&cid=1552373

4. https://curia.europa.eu/juris/document/document.jsf?text=&docid=234205&pageIndex=0&doclang=ES&mode=ls-

t&dir=&occ=first&part=1&cid=1553564

5. Ibid

6. https://curia.europa.eu/juris/showPdf.jsf;jsessionid=7DA478E8C73B02CCE9126CEC38D3B3C8?text=&docid=97440&pageIndex=0&doclang=ES&mode=lst&dir=&occ=first&part=1&cid=124762

7. https://curia.europa.eu/juris/document/document.jsf?text=&docid=110209&pageIndex=0&doclang=ES&mode=lst&dir=&occ=first&part=1&cid=129508

8. https://verfassungsblog.de/frontex-and-algorithmic-discretion-part-i/

9. https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=celex:32021R1152

10. https://raley.english.ucsb.edu/wp-content/Engl800/Pasquale-blackbox.pdf

11. https://www.europarl.europa.eu/RegData/etudes/ IDAN/2021/690706/EPRS_IDA(2021)690706_EN.pdf

12. https://scholarlypublications.universiteitleiden.nl/handle/1887/3439725

13. https://arxiv.org/pdf/1606.08813.pdf

14. S. Wachter, B. Mittelstadt, L. Floridi, Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation, International Data Privacy Law, 7(2):76–99, https://doi.org/10.1093/idpl/ipx005

15. https://curia.europa.eu/juris/showPdf.jsf?text=&docid=45418&pageIndex=0&doclang=ES&mode=lst&dir=&occ=first&part=1&cid=2109541

16. https://curia.europa.eu/juris/showPdf.jsf?text=&docid=99241&pageIndex=0&doclang=ES&mode=lst&dir=&occ=first&part=1&cid=14505857

17. https://curia.europa.eu/juris/document/document.jsf?text=&docid=65303&pageIndex=0&doclang=ES&mode=lst&dir=&occ=first&part=1&cid=14505723

18. Busuioc, M., Curtin, D., & Almada, M. (2023). Reclaiming transparency: contesting the logics of secrecy within the AI Act. European Law Open, 2(1), 79–105. doi:10.1017/ elo.2022.47

Article 47

1. Chisnall, M., “Digital slavery, time for abolition?”, Policy Studies, 2020, 41 (5), p. 488-506.

2. Voir par exemple : Règlement 2016/679/UE du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données [2016].

3. Van Dalen, S. Gilder, A. Hooydonk, E. Ponsen, E. (2016) System Risk Indication An Assessment of the Dutch Anti-Fraud System in the Context of Data Protection and Profiling https://pilpnjcm.nl/wp-content/uploads/2016/06/memorandum_1_-_system_risk_indication_an_assessment_of_ the_dutch_anti-fraud_system_in_the_context_of_data_ protection_and_profiling-1.pdf

4. Rachovitsa, A., & Johann, N., “The human rights implications of the use of AI in the digital welfare state: Lessons learned from the Dutch SyRI case”, Human Rights Law Review, 2022, 22 (2), ngac010.

5. Ibid.

6. Loi SUWI, Art. 65 (1).

7. Mémoire du rapporteur spécial des Nations unies sur l’extrême pauvreté et les droits humains en tant qu’amicus curiae dans l’affaire NJCM c.s./De Staat der Nederlanden (SyRI) devant le tribunal de district de La Haye (numéro d’affaire C/09/550982/ HA ZA 18/388).

8. Ibid.

9. Ibid.

10. Lenaerts, K., “Exploring the limits of the EU charter of fundamental rights”, European Constitutional Law Review, 2012, 8 (3), p. 375-403.

11. Ibid.

12. Klamert, M., “The implementation and application of the Charter of Fundamental Rights of the EU in Austria”, Acta Universitatis Carolinae Iuridica, 2018, 64 (4), p. 89-99.

13. Pech, Laurent, et Sébastien Platon, “Judicial independence under threat: the Court of Justice to the rescue in the ASJP case”, Common Market L. Rev., 2018, 55, p. 1827.

14. Mulders, S., “The relationship between the principle of effectiveness under Art. 47 CFR and the concept of damages under Art. 82 GDPR”, International Data Privacy Law, 2023, Vol. 00, No. 0.

15. Dans l’affaire Digital Rights Ireland Ltd c. Minister for Communications, Marine and Natural Resources, la Cour a déclaré la directive européenne imposant des fournisseurs d’accès à Internet (FAI) invalide en vertu des articles 7 et 8 de la Charte. Dans l’affaire Tele2/Watson, la CJUE a décidé que la législation nationale permettant la conservation indiscriminée de données provenant d’appareils électroniques à des fins de lutte contre la criminalité violait les droits consacrés par les articles 7 et 8 de la Charte. Par ailleurs, l’affaire Google c. Espagne en 2014 et les affaires Schrems (2015 et 2020) ont porté sur des questions liées au droit à la suppression des données sur les plateformes et aux règles concernant le partage des données à caractère personnel avec des pays tiers. Voir Cameron, I., “Balancing data protection and law enforcement needs: Tele2 Sverige and Watson”, Common Market L. Rev., 2017, n° 54, p. 1467 et Voss, W. G., “European union data privacy law reform: General data protection regulation, privacy shield, and the right to delisting”, The Business Lawyer, 2016, 72 (1), p. 221-234.

9. ‘The Algorithm Addiction’ (Rapports Lighthouse), https:// www.lighthousereports.nl/investigation/the-algorithm-addiction.

10. Voir Choroszewicz, note n° 5 ; Human Rights Watch, “How the EU’s Flawed Artificial Intelligence Regulation Endangers the Social Safety Net: Questions and Answers”, https://www. hrw.org/news/2021/11/10/how-eus-flawed-artificial-intelligence-regulation-endangers-social-safety-net.

11. Mike Ananny et Kate Crawford, “Seeing without Knowing: Limitations of the Transparency Ideal and Its Application to Algorithmic Accountability”, New Media & Society, 2018, Vol. 20, p. 973.

12. Sandra Wachter, Brent Mittelstadt et Chris Russell, “Why Fairness Cannot Be Automated: Bridging the Gap between EU Non-Discrimination Law and AI”, Computer Law & Security Review, Vol. 41, 2021, 105567.

13. “Austria’s Employment Agency Rolls out Discriminatory Algorithm, Sees No Problem” (AlgorithmWatch), https:// algorithmwatch.org/en/austrias-employment-agency-ams-rolls-out-discriminatory-algorithm/ (consulté le 27 février 2023).

14. Ada Lovelace Institute, AI Now Institute and Open Government Partnership (2021), “Algorithmic accountability for the public sector”, https://www.opengovpartnership.org/ wp-content/uploads/2021/08/algorithmic-accountability-public-sector.pdf

15. Agence des droits fondamentaux de l’UE, Bien préparer l’avenir. L’intelligence artificielle et les droits fondamentaux, (Office des publications de l’Union européenne 2020), https://fra.europa.eu/en/publication/2020/artificial-intelligence-and-fundamental-rights

16. Frans Pennings, “Does the EU Charter of Fundamental Rights Have Added Value for Social Security?”, European Journal of Social Security, Vol. 24, 2022, p. 117.

Article 34

1. NUAG, « Rapport du Rapporteur spécial sur les droits de l’homme et l’extrême pauvreté », A/74/493, 11 octobre 2019.

2. Virginia Eubanks, Automating Inequality: How High Tech Tools Surveil, Profile and Punish the Poor, St. Martin’s Press, Inc., 2018.

3. Johns, F., “From Planning to Prototypes: New Ways of Seeing Like a State”, The Modern Law Review, 2019, Vol. 82, p. 833863. https://doi.org/10.1111/1468-2230.12442

4. Scott JC, Seeing Like a State: How Certain Schemes to Improve the Human Condition Have Failed, Yale University Press, 1998.

5. Algorithm Watch and Bertelsmann Stiftung, “Automating society report 2020”, 2020 ; Marta Choroszewicz et Beata Mäihäniemi, « Developing a Digital Welfare State: Data Protection and the Use of Automated Decision-Making in the Public Sector across Six EU Countries », Global Perspectives, 2020, n° 1 (1), 12910.

6. Agneta Ranerup et Helle Zinner Henriksen, “Digital Discretion: Unpacking Human and Technological Agency in Automated Decision Making in Sweden’s Social Services”, Social Science Computer Review, 2022, Vol. 40 (2), p. 445-461.

7. Voir Algorithm Watch, note n° 5.

8. Naomi Appelman, Ronan Ó Fathaigh et Joris van Hoboken, “Social Welfare, Risk Profiling and Fundamental Rights: The Case of SyRI in the Netherlands”, Journal of Intellectual Property, Information Technology & E-Commerce Law, Vol. 12 (4), 2021, p. 257.

17. Jaan Paju, « The Charter and Social Security Rights: Time to Stand and Deliver? » European Journal of Social Security, Vol. 24, 2022, p. 21. Ane Aranguiz, “Bringing the EU up to Speed in the Protection of Living Standards through Fundamental Social Rights: Drawing Positive Lessons from the Experience of the Council of Europe”, Maastricht Journal of European and Comparative Law, Vol. 28, 2021, p. 601.

18. Observation générale n° 19: Le droit à la sécurité sociale, adoptée le 23 novembre 2007, doc. E/C.12/GC/19.

Article 28

1. https://www.ilo.org/dyn/natlex/docs/ELECTRONIC/98373/117044/F1671923749/IRL98373.pdf

2. https://www.tuc.org.uk/research-analysis/reports/section-tucs-first-victories

3. En effet, l’article 11 (2) de la Convention européenne des droits de l’homme est très conditionnel à cet égard : « L’exercice de ces droits ne peut faire l’objet d’autres restrictions que celles qui, prévues par la loi, constituent des mesures nécessaires, dans une société démocratique, à la sécurité nationale à la sûreté publique à la défense de l’ordre et à la prévention du crime, à la protection de la santé ou de la morale, ou à la protection des droits et libertés d’autrui. Le présent article n’interdit pas que des restrictions légitimes soient imposées à l’exercice de ces droits par les membres des forces armées, de la police ou de l’administration de l’État. »

4. https://www.legislation.gov.uk/ukpga/2022/32/contents/ enacted

5. https://www.theguardian.com/business/2018/nov/22/ gmb-union-drops-support-for-dpd-courier-walkout-after-legal-threat

6. https://www.elpuntavui.cat/societat/article/5-societat/2254689-l-acco-planteja-una-sancio-de-mes-de-122000-euros-a-elite-taxi-per-boicotejar-uber.html

7. https://www.thetimes.co.uk/article/uber-gives-police-private-data-on-drivers-and-passengers-dm7l3gsxv

8. https://www.wired.co.uk/article/dominic-cummings-coronavirus-big-tech

9. https://files.mutualcdn.com/ituc/files/2022-ITUC-RightsIndex-Exec-Summ-ES.pdf

10. https://www.gmb.org.uk/news/uber-and-gmb-strike-historic-union-deal-70000-uk-drivers

11. https://www.gmb.org.uk/news/gmb-and-deliveroo-sign-historic-recognition-deal

12. Dans sa soumission à la Commission de l’emploi et des affaires sociales du Parlement européen, le gouvernement suédois a fait savoir que : « Le Riksdag est fermement opposé à des directives plus contraignantes qui détruisent les modèles de marché du travail qui fonctionnent. Ces dernières années, le Riksdag a vu un certain nombre d’initiatives de la Commission européenne qui menacent directement le modèle suédois du marché du travail, dans lequel les partenaires sociaux traitent les questions par le biais de conventions collectives. Le Riksdag le voit très clairement dans la proposition de directive actuelle, en particulier à l’article 4, où la présomption d’une relation de travail invalide le concept suédois d’employé. L’ensemble de la proposition repose sur cette présomption de relation de travail et est, en substance, mal conçue. En outre, la directive risque d’avoir des répercussions tant sur le système fiscal que sur le système d’assurance sociale, ce qui est inacceptable. Si la proposition de directive est adoptée, elle aura des conséquences considérables pour les entreprises de plateforme existantes et pour l’ensemble de l’économie à la demande. La proposition porte atteinte à l’autonomie des partenaires sociaux et constitue une menace pour le modèle suédois du marché du travail. Le Riksdag prend note des vives inquiétudes des organes de saisine concernant les conséquences de la proposition pour le modèle suédois du marché du travail, en particulier en ce qui concerne l’article 4 et son impact sur le concept suédois d’emploi. »

13. https://www.convert.com/eu-gdpr/recital-68-gdpr/

14. https://5b88ae42-7f11-4060-85ff-4724bbfed648.usrfiles. com/ugd/5b88ae_de414334d89844bea61deaaebedfbbfe. pdf

Article 37

1. Patrick Williams et Eric Kind, Data-driven Policing: The hardwiring of discriminatory policing practices across Europe. Project Report. European Network Against Racism (ENAR), 2019 ; EDRi, « Decolonising digital rights », 2023 https://edri.org/what-we-do/decolonising-digital-rights/

2. Metcalfe P., & Dencik L., “The politics of big borders: Data (in) justice and the governance of refugees”, First Monday, 2019 ; Andreea Belu, “Surveillance on the seas: Europe’s new Migration Pact”, EDRi, 2020, https://edri.org/news/ surveillance-on-the-seas-europes-new-migration-pact/

3. Union européenne, « Charte des droits fondamentaux de l’Union européenne ». Journal officiel de l’Union européenne C326/391 https://eur-lex.europa.eu/eli/treaty/char_2012/ oj?locale=fr

4. Michelle Thorne, « Funders Convening on Climate Justice and Digital Rights », 2022, https://michellethorne. cc/2022/04/funders-convening-on-climate-justice-anddigital-rights/

5. Fieke Jansen, “Framing the climate crisis as a digital rights issue”, Green Web Foundation, 2022 https://www. thegreenwebfoundation.org/news/framing-the-climatecrisis-as-a-digital-rights-issue/

6. Michael Brennan, “Intersections of Digital Rights and Environmental and Climate Justice”, 2022 https://www. fordfoundation.org/work/learning/learning-reflections/ intersections-of-digital-rights-and-environmental-andclimate-justice/

7. Becky Kazansky, Shayna Finnegan, & Maja Romano, “Solidarity not solutionism: Wayfinding just paths for digital infrastructure that serves the planet”, 2023, https://www. apc.org/en/node/38497/

8. Shayna Robinson, Remy Hellstern, & Mariana Dia, “Sea Change: Prioritizing the Environment in Internet Architecture”, For IAB workshop on Environmental Impact of Internet Applications and Systems, 2022. https://github. com/intarchboard/e-impact-workshop-public/blob/ main/papers/Robinson_Sea-Change-Prioritizing-theEnvironment-in-Internet-Architecture.pdf

9. Ibid, Robinson, et al, « Sea Change ».

10. Leslie Hook & Dave Lee, “How tech went big on green energy”, Financial Times, 2021, https://www.ft.com/ content/0c69d4a4-2626-418d-813c-7337b8d5110d

11. Sebastian Moss, “Los Lunas locals question Facebook’s data center expansion, worry about water use”, Data Center Dynmics, 2021 https://www.datacenterdynamics. com/en/news/los-lunas-locals-question-facebooks-datacenter-expansion-worry-about-water-use/

12. Merijn Renger et Carola Houtekamer, “Datacentra Zeewolde vragen twee keer zoveel stroom als Amsterdam”, NRC, 2020 https://www.nrc.nl/nieuws/2020/06/21/zeewolde-speeltstraks-champions-league-met-stroomverbruik-a4003548

13. Merijn Renger & Carola Houtekamer, “Gebroken beloftes: hoe de Wieringermeerpolder dichtslibde met windturbines en datacentra”, NRC, 2020 https://www. nrc.nl/nieuws/2020/06/05/gebroken-beloftes-hoe-dewieringermeerpolder-dichtslibde-met-windturbines-endatacentra-a4001882

14. Ibid, Renger et al., “Gebroken beloftes”.

15. Ibid, Moss, “Los Lunas locals question”.

16. Association for Progressive Communication, “Extractivism, mining, and technology in the Global South: Towards a common agenda for action”, in At the interstice of digital rights and environmental justice: Four issue briefs to inform funding, 2022.

17. Niels ten Oever, “Wired Norms: Inscription, resistance, and subversion in the governance of the Internet infrastructure”, PhD thesis University of Amsterdam, 2020, https://nielstenoever.net/wp-content/uploads/2020/09/ WiredNorms-NielstenOever.pdf

18. Ibid, Association for Progressive Communication, “Extractivism, mining”.

19. Thierry Breton, “Critical Raw Materials Act: securing the new gas & oil at the heart of our economy I Blog of Commissioner Thierry Breton”, European Commission, 2022, https://ec.europa.eu/commission/presscorner/detail/en/ STATEMENT_22_5523

20. Internal Market, Industry, Entrepreneurship and SMEs, “Critical raw materials. European Commission”, 2023, https://single-market-economy.ec.europa.eu/sectors/ raw-materials/areas-specific-interest/critical-rawmaterials_en

21. Commission européenne, « Livre blanc sur l’intelligence artificielle : une approche européenne axée sur l’excellence et la confiance », 2020, 19.2.2020 COM(2020) 65 final.

22. Union européenne, « Charte des droits fondamentaux ».

23. Max Liboiron, Pollution is colonialism, Duke University Press, 2021.

24. Shanon Dosemagen, Emelia Williams, Katie Hoeberling & Evelin Heidel, “Environmental justice, climate justice, and the space of digital rights”, Open Environmental Data Project and Open Climate, 2022.

25. Ibid, Association for Progressive Communication, « Extractivism, mining ».

26. Fieke Jansen, “Presenting new research climate justice x digital rights”, Green Web Foundation, 2022, https:// www.thegreenwebfoundation.org/news/presenting-newresearch-climate-justice-x-digital-rights/

Article 38

1. Juriste senior, BEUC – Bureau Européen des Unions de Consommateurs (opinions personnelles).

2. L’article 169 du TFUE est libellé comme suit: « Afin de promouvoir les intérêts des consommateurs et d’assurer un niveau élevé de protection des consommateurs, l’Union contribue à la protection de la santé, de la sécurité et des intérêts économiques des consommateurs ainsi qu’à la promotion de leur droit à l’information, à l’éducation et à s’organiser afin de préserver leurs intérêts […] »

3. Communication de la Commission sur la Charte des droits fondamentaux de l’Union européenne (Bruxelles, 13 septembre 2000) (voir pt 22).

4. CHARTE 4422/00, CONVENT 45 du 28 juillet 2000.

5. Par exemple, l’amendement de Lord Goldsmith QC proposant de supprimer l’article car « il est si vague qu’il n’apporte aucune restriction raisonnable aux institutions ni aucune aide aux individus pour les informer de leurs droits (…) ».

6. Par exemple, l’amendement de Ieke van den Burg proposant de reformuler l’article comme suit: « toute personne a le droit d’être protégée en tant que consommateur contre les risques pour la santé et la sécurité et a le droit de défendre ses intérêts individuellement et collectivement ».

7. I. Benöhr, EU consumer law and human rights, Oxford Studies in European Law, 2014, 272 p.

8. COM(2018) 185 final 2018/0089 (COD), 11 avril 2018.

9. COM(2018) 185 final 2018/0090 (COD), 11 avril 2018

10. BEUC, Regulating AI to protect the consumer, BEUC-X-2021-088, 7 October 2021.

11. I. Benöhr, EU consumer law and human rights, Oxford Studies in European Law, 2014, 272 p.

12. Agence des droits fondamentaux de l’Union européenne, La Charte dix ans après : comment libérer pleinement son potentiel, 2020, p.14 (https://fra.europa.eu/sites/default/ files/fra_uploads/fra-2020-fundamental-rights-report2020-focus_fr.pdf), nous soulignons.

13. CJUE, affaire C-12/11 Mc Donagh c/ Ryanair, 31 janvier 2013, ECLI:EU:C:2013:43.

14. CJUE, affaire C-12/11 Mc Donagh c/ Ryanair, 31 janvier 2013, cons. 63.

15. CJUE, Affaire C-28/20 Airhelp, 23 mars 2021, ECLI:EU:C:2021:226

16. République tchèque / Cour constitutionnelle / II. ÚS 78/19 ( http://fra.europa.eu/en/caselaw-reference/czechiaconstitutional-court-ii-us-7819).

17. Slovaquie / Cour régionale Prešov / 10Co/51/2017 (http:// fra.europa.eu/en/caselaw-reference/slovakia-regionalcourt-presov-10co512017#deeplink2).

18. I. Benöhr, EU consumer law and human rights, Oxford Studies in European Law, 2014, 272 p.

Crédits

Éditeur

Alexandra Giannopoulou

avec la contribution de Nikita Kekana et César Manso-Sayao

Auteurs

Anna Mazgal, Wikimedia Europe

Alexandre Biard, BEUC - The European Consumer Organisation

Divij Joshi, University College London

Fieke Jansen, Critical Infrastructure Lab, University of Amsterdam/Green Screen coalition Climate Justice and Digital Rights

Giulia Gentile, LSE Law School

Ioannis Kouvakas, Privacy International / Vrije Universiteit Brussels (VUB)

James Farrar, Worker Info Exchange

Jens Theilen, Helmut-Schmidt-University Hamburg

Melanie Fink, Leiden Law School

Nadia Benaissa, Bits of freedom

Nawal Mustafa, Public Interest Litigation Project (PILP)

Romain Lanneau, Statewatch

Raphaële Xenidis, SciencesPo Law School

Direction artistique

DFF & Justina Leston

Identité visuelle

Nicole Snaiderman

Illustration de couverture recto et verso

Nicole Snaiderman

Illustrations d’essais

Yorgos Konstantinou

Design graphique

Justina Leston

Notice légale

La série d’essais “Les droits numériques sont des droits garantis par la Charte” est publiée sous une licence CC BY-SA 4.0, permettant une utilisation libre avec mention des auteurs. Vous pouvez télécharger le PDF et suivre les lignes directrices suivantes : donner le crédit approprié, fournir un lien vers la licence, indiquer toute modification apportée et partager vos contributions sous la même licence. Évitez d’impliquer l’approbation du donneur de licence et abstenez-vous d’ajouter des restrictions juridiques ou technologiques.

Pour en savoir plus: https://creativecommons.org/licenses/by-sa/4.0/deed.fr

Communications

Barbara Okeyo

Ekaterina Balueva

Traduction

Marie-Céline Pallas

Edition de texte

Sincère de Talla

Financé par l’Union européenne. Les points de vue et opinions exprimés n’engagent que leur(s) auteur(s) et ne reflètent pas nécessairement ceux de l’Union européenne ou de CERV. Ni l’Union européenne ni l’autorité responsable ne peuvent en être tenues pour responsables.

Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.
Digital Rights are Charter Rights (French translation) by digitalfreedomfund - Issuu