Forum sur l'IA et les droits de la personne: Rapport de conférence

Page 1

1


RAPPORT DE CONFERENCE Introduction L’Intelligence artificielle (IA) - la capacité qu’ont les machines d’effectuer, grâce à des données, des tâches telles que l’analyse, l’apprentissage, le raisonnement et la prévision – transforme le monde qui nous entoure à une vitesse impressionnante. De plus en plus de décideurs politiques, ingénieurs et chercheur·e·s réfléchissent activement aux avantages et désavantages cette technologie peut avoir. Aujourd’hui, Montréal est un pôle mondial en IA, particulièrement en ce qui a trait aux questions d’éthique et de droits de la personne. Des personnalités telles que Yoshua Bengio font du Québec un lieu attirant pour des chercheur·e·s, des compagnies et des praticiens à travers le monde. Lors de sa rencontre avec des dirigeants d'entreprises technologiques, des experts, et des professeurs actifs dans de les domaines des nouvelles technologies à Montréal, la HautCommissaire des Nations Unies aux droits de l'homme, Michelle Bachelet, a déclaré que « notre futur – et le futur des droits de la personne – dépendra de la capacité de la communauté technologique à placer les droits de l’homme au cœur même de leur travail. » Inspirer par ces propos, l’Institut Montréalais d’études sur le génocide et les droits de la personne (MIGS) a organisé un premier « Forum sur l’IA et les droits de la personne » en 2019. Deux ans plus tard, avec le soutien du gouvernement du Québec, de l’Ambassade des Pays-Bas à Ottawa, d’Affaires Mondiales Canada et de la Commission Canadienne pour l’UNESCO, cet évènement virtuel a réuni des représentants d’organisations régionales et internationales, des chercheur·e·s, des experts et des membres de la société civile qui pensent aux impacts de l’IA sur certains droits fondamentaux et sur la démocratie. Plus de deux décennies après le début de la 4ème révolution industrielle, nous voyons déjà à quel point les nouvelles technologies influencent notre vie quotidienne. Alors que certains régimes autoritaires utilisent la technologie pour éradiquer certains droits fondamentaux, il est urgent de comprendre les bénéfices et risques de l’IA, et de s’entendre sur des cadres règlementaires et normes internationales. Lors du Forum sur l’IA et les droits de la personne, des représentants des Nations Unies, du Conseil de l’Europe, de l’UNESCO, d’Amnesty International, et d’universités telles que Stanford, Harvard ou encore Toronto, ont donc échanger leurs points de vue sur plusieurs thèmes. Cette conférence tombait à point car l’Union Européenne venait juste de dévoiler le premier cadre juridique sur l’IA au sein de l'Union, ce qui a permis de mettre en lumière les efforts que gouvernements, organisations multilatérales, ONG et chercheur·e·s sont en train de faire pour répondre aux impacts de l’IA.

Mardi 20 Avril 2


ALLOCUTION D’OUVERTURE En guise d’introduction, le Ministre des Affaires étrangères du Canada, Marc Garneau, a souligné l’importance des recherches sur l’IA au Québec et « l’engagement du Canada concernant un approche fondée sur les droits de la personne à l’égard de l’intelligence artificielle et de l’inclusion numérique. » Tout en appréciant les bienfaits de nombreuses nouvelles technologies, M. Garneau a mis en garde contre abus de ces outils par certains acteurs étatiques et non-étatiques. Afin de répondre à ces menaces, les démocraties libérales ont un rôle à jouer dans l’adoption d’une vision démocratiques pour le nouvel âge numérique, a -t-il souligné. M. Garneau a souligné la création, avec la France, du Partenariat mondial sur l’Intelligence artificiel, ainsi que la collaboration entre Ottawa et le Québec pour l’établissement d’un Centre d’expertise international de Montréal. L’Ambassadrice des Pays-Bas au Canada, Mme Ines Coppoolse, a mis de l’avant la nécessité de mettre les droits de la personne et les valeurs éthiques et morales au centre du monde numérique. Les Pays-Bas vont donc investir 250 millions d’euros dans l’Intelligence artificielle afin de répondre à ses enjeux, en particulier en ce qui a trait à la vie privée et aux discriminations. Enfin, Vilas Dhar, président de la Fondation Patrick McGovern, pense que nous devons cesser de penser que les citoyens sont impuissants face à la progression rapide des nouvelles technologies et est d’avis que nous pouvons penser les technologies autrement afin qu’elles soient bénéfiques aux droits de tous. La grande question de cette conférence : comment trouver un juste équilibre entre risques et possibilités de l’IA?

PANEL 1 La gouvernance de l’internet et de l’IA : garantir une place pour les droits de la personne • • • •

Eileen Donahoe, Directrice exécutive, Global Digital Policy Incubator (GDPI), Université de Stanford Carly Kind, Directrice exécutive, Ada Lovelace Institute Philip Dawson, Membre associé en Technologie et droits de la personne, Carr Center, Université Harvard Animateur : Vilas S. Dhar, Président, Patrick J. McGovern Foundation

Un des débats fondamentaux de ces dernières années est celui de la gouvernance de l’internet et de l’IA. Pendant des années, gouvernements et entreprises privées avaient adopté une approche de laissez-faire face au développement et à l’utilisation de ces technologies. Or, les entreprises technologiques manquent de transparence et jouissent de pouvoirs immenses sur les données des individus. Depuis 2018, nos relations avec les nouvelles technologies ont changé. Aujourd’hui, décideurs politiques et citoyens réalisent que les méthodes de collecte des données utilisées dans le développement et les applications de l’IA ont des conséquences sur notre vie privée, notre accès à l’information et sur le bien-être de nos sociétés. Avec l’arrivée d’internet, nous aurions pu nous 3


attendre à un monde plus interconnecté et informé mais l’arrivé de l’IA dans le monde numérique change la donne. En effet, les algorithmes et les données qui les alimentent créent de bulles d’information, promeuvent des discours incendiaires et la désinformation, et renforcent les préjugés existants notamment en matière de race, de sexe et de classe. Selon Philip Dawson, nous devons donc nous attaquer à deux choses : le manque de transparence quant aux fonctionnements des systèmes et méthodes de collecte des données, et au laissez-faire a enlevé tout pouvoir aux individus/utilisateurs. Les membres de ce panel pensent qu’il est urgent de mettre les droits de la personne au centre de l’IA et du monde numérique. Il nous faut penser ensemble aux manières dont les standards liés aux droits de la personne peuvent être appliqué au monde de l’IA au lieu de nécessairement réinventer la roue. Selon Eileen Donahoe, nous pouvons utiliser le cadre international des droits de la personne qui fait déjà mention de questions telles que la vie privée, le droit au travail, la liberté d’expression ou encore la liberté à l’information. Une solution additionnelle est celle l’instauration de processus d’évaluation des impacts sur les droits de la personne à tous les stades de développement et d’application de l’IA. Bien que ces évaluations soient de plus en plus fréquentes, elles pourraient devenir obligatoires. Qui doit établir ces normes? Selon Carly Kind, la nature novatrice et transformationnelle de l’IA requiert une approche collaboratrice, inclusive et multipartite. Il n’est pas acceptable que la quatrième révolution industrielle ne soit bénéfique qu’aux plus puissants. Comme Carly Kind, Donahoe pense que la société civile a un rôle à jouer, en particulier en termes de respect de la vie privée et de l’utilisation des données par les grandes entreprises du numérique. Ces données sont un reflet de notre identité et nous avons donc le droit et le devoir de les protéger. Pour conclure, les trois intervenants pensent que les nouvelles générations sont plus conscientes des questions d’éthique, d’équité et des droits de la personne qui entourent l’IA et le monde numérique en général. De plus en plus de gouvernements et d’organisations multipartites consacrent des ressources aux questions de standardisations et souhaitent mettre moins de pouvoir économique et politique entre les mains de la Silicon Valley.

PANEL 2 AI, liberté d’expression et liberté des médias • • • • •

Irene Khan, Rapporteuse spéciale des Nations Unies sur la promotion et la protection du droit à la liberté d'opinion et d'expression Teresa Ribeiro, représentante de l'OSCE pour la liberté des médias Vivek Krishnamurthy, Université d’Ottawa Mark Latonero, Membre associé, Université Harvard Animateur : Shawn McCarthy, Président, Comité canadien pour la liberté de la presse

Bien que l’IA puisse améliorer notre consommation de contenus médiatiques, ce panel s’est principalement attardé aux effets néfastes de l’IA sur la liberté d’expression et des médias. 4


En résumé, les données sont au cœur du modèle d’affaire des intermédiaires de l’Internet, en particulier les fournisseurs de moteurs de recherche et de plateformes de médias sociaux. Ces données, un fois collectées et analysées par l’intelligence artificielle, sont commercialisées et monnayées. Grâce à la collecte de données, l’IA présume des centres d’intérêts des utilisateurs et présente des contenus hyper-ciblés, tels que des publicités, des produits à acheter, des contenus médiatiques ou des opinions d’autres utilisateurs. Ces processus automatisés donnent beaucoup de pouvoir à l’IA qui décide dès lors des médias et idées auxquels les utilisateurs ont accès. Or, ces contenus hyper-ciblés sont contraire à un accès à une information et à des points de vue diversifiés – des éléments essentiels au bon fonctionnement de la démocratie. Afin d’établir des normes qui protègerons notre démocratie, l’OSCE a mis sur pied le projet #SAIFE qui vise à développer des politiques publiques pour les membres de l’OSCE. En ce qui concerne la liberté d’expression, l’IA est de plus en plus utilisée pour déceler et supprimer les contenus considérés indésirables. Ceci est problématique à plusieurs égards. Premièrement, cette forme d’autorégulation automatisée manque de transparence et repose sur des règles propres à chaque plateforme. Deuxièmement, l’IA commet des erreurs qui peut mener à la suppression du contenu légitime voir important. Troisièmement, les biais cognitifs des développeurs de ces systèmes perpétuent les inégalités et préjudices existants. Selon les intervenants, il est inacceptable que les compagnies de réseaux sociaux aient le droit de décider ce qui constituent ou non une entrave à la liberté d’expression. Ce droit est une prérogative des États. Plusieurs questions se posent donc: comment mitiger les effets néfastes de l’IA en termes de liberté d’expression et des médias ? Quels cadres utiliser afin de d’y parvenir? Et enfin, quels rôles pour les gouvernements, les compagnies et la société civile? Selon Irene Khan, grâce au droit international, nous pouvons faire en sorte que les compagnies en technologie traitent les individus non comme de simples utilisateurs mais comme des détenteurs de droits. Pour ce faire, Khan and Latonero pensent que ces entreprises doivent sortir du cadre purement technologique, économique et commercial dans lequel elles se trouvent et adopter une approche basée sur les droits de la personne. Les panelistes s’entendent sur le besoin de mettre en place des processus de diligence raisonnable et des évaluations d’impact sur les droits de la personne. Vu que les compagnies d’autres secteurs doivent adhérer aux Principes directeur relatifs aux entreprises et aux droits de l’homme des Nations Unies, il est anormal que les entreprises technologiques agissent actuellement hors de ce cadre. Mark Latonero ajoute néanmoins deux points importants : les processus d’évaluations doivent 1) être fait en amont, c’est-à-dire avant le développement des produits 2) inclure des ingénieurs, spécialistes techniques et commerciaux, des spécialistes en sciences sociales, et des membres de la société civile. En effet, les patrons d’entreprises technologiques sont bien souvent inconscients des effets néfastes des produits qu’ils imaginent.

5


Vu le pouvoir economique et politique que certaines grandes compagnies technologiques ont aujourd’hui, les solutions aux problèmes actuels passent par la collaboration entre gouvernements, agences multilatérales, secteur privé et société civile.

Mercredi 21 avril PANEL 3 La désinformation et l’IA : Amis ou ennemis ? • • • •

Joan Donovan, Directrice de recherche, Shorenstein Center on Media, Politics and Public Policy Camille François, Graphika Taylor Owen, Professeur Associé, École de politiques publiques Max Bell, Université McGill Animateur : Fenwick McKelvey, Professeur, Université Concordia

A travers ce panel, les intervenants ont discuté de la relation entre l’intelligence artificielle et la dés- et mésinformation, un enjeu qui a pris encore plus d’importance pendant la pandémie de la COVID-19. L’IA est aujourd’hui déployée sans règles et sans limites, au détriment de notre démocratie. De plus, l’opacité du domaine contribue au sentiment d’impuissance des États et des utilisateurs face à ces outils. De prime abord, il est important de ne pas séparer la technologie des enjeux sociaux et politiques. Les environnements économiques et politiques dans lesquelles des technologies sont développées, influencent leur création et leurs impacts. Or ceux pensent et créent ces produits ne pensent pas nécessairement à leur intérêt public. Quelles sont les valeurs des créateurs? Placent-ils les intérêts économiques avant les intérêts publics ? Les « deepfakes » (vidéos truquées) sont un exemple de ce problème. Ces vidéos ont été créées à des fins de divertissement mais elles sont désormais déployées à des fins néfastes. Des recherches démontrent aujourd’hui que la plupart des vidéos truquées sont utilisés dans le domaine de la cyber pornographie et contre des individus qui n’ont aucun pouvoir contre les grandes compagnies en technologie et peu de possibilités de redresser ces torts. Un second exemple cité par Camille François est la création de faux comptes de réseaux sociaux générés par l’IA grâce à aux milliers de photos trouvées sur internet. Des instigateurs de campagnes d’influence se cachent généralement derrière ces processus, en particulier lors d’élections. Encore une fois, les premières victimes sont des groupes déjà marginalisés ou minoritaires qui n’ont pas recours même quand leurs informations et images sont utilisées a des fins néfastes. Les entreprises technologiques prétendent que l’IA peut être déployée pour détecter et contrer la désinformation. Mais ces espoirs sont largement surestimés. Camille François et Taylor Owen pensent que nous faut absolument documenter les diverses conséquences néfastes de l’IA afin d’y pallier- sans quoi cette technologie continuera d’être déployée à droite à gauche sans connaissance

6


des impacts réels. Nous devons cesser de croire que l’IA est la solution à la dé- et mésinformation et aux méfaits. Après des années de laissez-faire, plusieurs gouvernements souhaitent mettre un frein aux entreprises technologiques qui mettent le profit avant les impacts socio-politiques. C’est une urgence, selon les intervenants, car la technologie est plus rapide que l’instauration de mécanisme de surveillance ou gouvernance. De plus, les systèmes d’autorégulations mis en place par les compagnies n’ont que très peu d’impacts. Selon Joan Donovan, nous devons décider où tracer la ligne. Les systèmes qui régissent l’IA ne sont pas nouveaux: les modèles économiques, la monétisation des utilisateurs, la reproduction des inégalités existantes, et l’accumulation massive de données pour le profit sont des enjeux que nous avons vus ailleurs. Nous pouvons établir des règles afin de mettre la sécurité de la communauté au centre du domaine de l’innovation, que ce soit en modernisant les lois sur la vie privée, les lois sur la publicité, ou encore les politiques de concurrence. Les intervenants préconisent la participation de la société tout entière à la recherche de solutions. Camille François pense que la conversation a déjà beaucoup évolué : au lieu de simplement voir l’IA comme une solution à de nombreux maux, nous sommes désormais conscients des méfaits. Selon Donovan, le militantisme de la société civile et des consommateurs peut pousser les compagnies à revoir leurs approches et à développer des produits utiles à nos sociétés

PANEL 4 De la surveillance à l’autoritarisme numérique: quand les murs entre technologie et droits de la personne s’écroulent. • • • •

Marietje Schaake, Membre associée au Cyber Policy Center and International Policy, Stanford Cyber Policy Center Kai Strittmatter, Correspondent étranger, Suedeutsche Zeitung et auteur Ron Deibert, Directeur, Citizen Lab, Munk School of Global Affairs & Public Policy, Université de Toronto Animatrice: Emily Rauhala, Journaliste Affaires étrangère, Washington Post, Washington Post

Le rôle des nouvelles technologies dans le déclin de la démocratie à travers le monde et la montée de l’autoritarisme digital sont un problème urgent. La surveillance fait aujourd’hui partie intégrante de notre quotidien, que ce soit à travers nos courriels, les réseaux sociaux, applications de navigation, et sites marchands. Beaucoup de pays, dont les démocraties libérales, font aussi de plus en plus à faire à l’IA au nom de la sécurité nationale. Dans les pays autocratiques, réseaux sociaux et caméras des surveillances sont utilisés pour épier, contrôler et museler des citoyens. Quand certaines technologies tombent dans les mains de régimes autoritaires, les conséquences peuvent être désastreuses. Dans les démocraties libérales, l’un des soucis centraux est le manque de respect de la vie privée et l’asymétrie de pouvoir entre utilisateurs et grandes entreprises technologiques. L’extraction de 7


données et leur utilisation à des fins multiples et parfois néfastes, fait en sorte que des compagnies telles que Facebook et Google, en connaissent bien plus aujourd’hui sur leurs utilisateurs que les États eux-mêmes. Nous faisons face aujourd’hui à un « capitalisme de surveillance » qui ne connait aucune limite, selon Marietje Schaake. Les gouvernements ont créé un environnement qui favorise un manque de règles et transparence, donnant ainsi aux entreprises de haute technologie un pouvoir inégalé. Elle se dit donc très inquiète du manque de leadership de la part des démocraties libérales en ce qui a trait aux outils de surveillance et l’extraction massive de données. Les panelistes se sont aussi penchés sur l’utilisation de l’IA par des gouvernements autocratiques, en particulier la Chine et certains pays du Moyen Orient. Certaines technologies ont même été créées à des fins dommageables, telles que la répression de journalistes, activistes et opposants politiques. Correspondant en Asie pour le journal Suedeutsche Zeitung, Strittmatter a vu l’expansion de ces technologies en Chine mais aussi dans toute l’Asie centrale à travers l’export de ces produits par les entreprises chinoises. Le régime du Président Xi Jinping utilise l’IA pour amplifier sa propagande ou encore pour surveiller ses citoyens en Chine et par-delà ses frontières. La reconnaissance faciale est déployée contre des minorités ethniques, particulièrement les Ouighours, afin de contrôler leurs mouvements. La province du Xinjiang et ses habitants sont aujourd’hui un banc d’essai pour de multiples technologies de l’IA. Ron Deibert a démontré comment l’Arabie Saoudite utilise la technologie, dont l’IA, pour surveiller ses citoyens à l’étranger, dont au Canada. Citant le cas d’Omar Abdulaziz, un résident canadien critique de régime saoudien, il a expliqué comment les autorités saoudiennes parviennent à entraver les droits de la personne de nombreux activistes par-delà les frontières. En ce qui concerne la Chine, les recherches du Citizen Lab ont démontré les différentes manières dont l’IA est utilisée sur les plateformes de réseaux sociaux chinoises à des fins de propagande et de censure. Le modèle d'entreprise qu’est le capitalisme de surveillance est particulièrement bénéfique aux régimes autoritaires vu qu’il y a une absence totale de respect des citoyens et droits de la personne. Afin de contrer la montée de l’autoritarisme numérique, il est urgent que les démocraties libérales telles que le Canada, les États-Unis, le Japon et l’Union Européenne travaillent ensemble à l’élaboration des normes internationales en ce qui concerne le commerce, la vente et l’abus de technologies l’IA. Les trois intervenants sont particulièrement soucieux de l’export des certains outils de l’IA à des gouvernements autoritaires. Les clients les plus important des compagnies chinoises sont aujourd’hui les pays d’Afrique, du Moyen-Orient et d’Amérique Latine, principalement grâce à la nouvelle route de la soie. De plus, certaines technologies développées par des compagnies occidentales sont vendues à des régimes autoritaires. Si des lois internationales sur le commerce des armes existes, des politiques similaires peuvent être élaborée pour des technologies qui utilisent l’intelligence artificielle, pensent les intervenants. Il faudra aussi que les démocraties libérales fassent le ménage chez elles en instaurant des règlements qui protègeront les droits fondamentaux de leurs citoyens, particulièrement en termes de vie privée. L’asymétrie de pouvoir entre consommateurs et entreprises technologiques est tellement grande que la solution passera par la règlementation des activités de ces compagnies. Selon Schaake, il faut d’abord exiger plus de transparence et mettre en place des garde-fous contre

8


les cyber-attaques qui deviennent de plus en plus fréquentes et compromettent les données des citoyens. Pour Deibert, il est incompréhensible que nous n’imposions pas de normes à des entreprises qui mettent en place des algorithmes qui influencent notre vie de tous les jours. Ces normes doivent s’attaquer au modèle d’affaire qu’est le capitalisme de surveillance.

Jeudi 22 avril PANEL 5 L’IA et les objectifs de développement durable • • • • •

Maria Axente, Chef pour la section Responsible AI et AI for Good, PwC RoyaumeUnis Valentine Goddard, fondatrice et directrice exécutive d’AI Impact Alliance Sherif Elsayed-Ali, CEO, Carbon Re Lieut. General Romeo Dallaire, Membre associé émérite au MIGS, fondateur de la Dallaire Institute for Children, Peace and Security Animatrice: Béatrice Vaugrante, Directrice, Movement Building, Amnesty International, Secrétariat International

Quand est-il de l’impact de l’IA sur les 17 Objectifs de Développement Durable (ODD) définis par l’UNESCO et adoptés par les Nations Unies. ? Est-ce que l’intelligence artificielle peut être au service de la réalisation des ODD d’ici 2030 ? Les intervenants de ce panel se sont attardés sur certains de effets bénéfiques et néfastes de l’IA sur les ODDS. Par exemple, les algorithmes d’apprentissage pourraient aider à la détection et préventions de certaines crises grâce à leur capacité à identifier des tendances et à faire des corrélations entre un grand nombre de données. Prédictions de désastres environnementaux et de crises alimentaires pourraient bénéficier de telles applications. En effet, selon Sherif Elsayed-Ali, l’IA pourraient nous aider à mieux comprendre les changements climatiques car elle est capable de donner du sens à différents incidents. Il en va de même pour la gouvernance : certaines prises de décision pourraient se baser sur des analyses rapides de grandes quantités de données et ainsi accélérer le travail des agents qui fournissent des services aux citoyens. Cela devient intéressant quand on prend en compte que les processus décisionnels par des humains peuvent être influencés par des biais cognitifs ou de la subjectivité. Bien que ces risques existent aussi chez l’IA, une combinaison des deux est intéressantes. En ce qui concerne les effets négatifs, les panelistes se sont attardés sur différents points, dont l’environnement, la réduction de la main-d’œuvre peu qualifiée, le manque de femmes dans l’industrie, l’utilisation de l’IA comme arme de guerre, ou encore les impacts sur nos données personnelles.

9


Un point essentiel soulevés par les intervenants est le besoin de diversité et de l‘inclusion lors du développement et de l’utilisation d’outils de l’IA. Vu que l’apprentissage machine peut répliquer les biais cognitifs présents chez les développeurs, il est essentiel de garantir une grande diversité au sein des concepteurs de ces produits. Or c’est un monde encore très masculin et très blanc – moins de dix pourcents de femmes font partie de ce domaine de recherche. Selon Valentine Goddard, de nombreux ODDs qui affectent directement ou indirectement les femmes ne seront pas atteints si elles ne participent pas à la conception et au déploiement de l’IA. Étant donné que beaucoup de femmes travaillent en développement durable, il faut absolument une plus grande participation de leur part si l’IA est utilisée dans ce domaine. Vu les risques de l’IA pour la protection des données, il est aussi essentiel que les acteurs du développement face en sorte que le traitement des données soit fait de manière responsable et respectueuse des droits de la personne. Étant donné que des utilisateurs occidentaux n’ont que très peu de recours lors de vols de données, les citoyens de pays en développement ou sous-développés seront d’autant plus impuissants. En tant qu’ancien militaire, le Lt-General Romeo Dallaire est particulièrement conscient des méfaits de l’IA dans le domaine militaire. Bien que l’IA puisse être utilisée par l’armée a des fins bénéfiques, en particulier en termes de prévention de conflits, nous observons surtout une « course à l’IA » dans le domaine de l’armement et du contre-terrorisme. Les États-Unis sont encore en tête mais la Chine évolue vite. Considérant les tensions actuelles entre les deux pays, ces développements sont inquiétants. L’utilisation de l’IA dans la guerre contre le terrorisme a déjà démontré les effets négatifs que cela peut avoir quand ces outils font des erreurs. Le fait que des décisions de vie ou de mort soit moins entre les mains d’êtres humains n’est pas acceptable, selon M. Dallaire. Il est d’autant plus inquiétant que l’application de l’IA dans le domaine militaire est extrêmement rapide et manque absolument de transparence. Nous ne savons pas ce qui se passe au sein de ce secteur privé. Selon M. Dallaire, il est essentiel d’éduquer les chefs d’états et autres preneurs de décisions à ces enjeux, et essentiel de demander accès aux documents classifiés des entreprises actives dans ce secteur technologique. Les intervenants sont d’accord sur un point essentiel : il est crucial d’atteindre les ODDs et nous pouvons utiliser l’IA pour en atteindre certains. Mais il est toujours essentiel de mettre l’humain au centre des prises de décisions et de pas mettre tous nos espoirs dans cette technologie.

PANEL 6 Les éthiques de l’IA – Comment garantir une gouvernance démocratique • • • •

Laurence Devillers, professeure en Intelligence Artificielle au LIMSI-CNRS Sasha Rubel, Spécialiste du Programme Innovation et Transformation Numérique Secteur de la communication et de l’information, UNESCO Jan Kleijssen, Directeur, Conseil de l’Europe Animateur: Philippe-André Rodriguez, Directeur adjoint du laboratoire d’inclusion numérique d’Affaires mondiales Canada

10


Les débats sur la gouvernance de l’Intelligence artificielle se font de plus en plus fréquents maintenant que nos gouvernants sont conscients de certains impacts néfastes de cette technologie. Comment garantir une utilisation éthique de l’IA? Et comment utiliser l’IA pour promouvoir la démocratie ? Pour l’UNESCO, il y a trois domaines essentiels sur lesquels il faut s’attarder pour garantir une gouvernance démocratique de l’IA. Premièrement, nous devons définir ce qu’est l’IA et ce qu’est la gouvernance démocratique. Pour y arriver, l’UNESCO met l’accent sur le besoin de littératie numérique, en particulièrement sur une meilleure connaissance de l’IA par les décideurs politiques. Il faut aussi renforcer l’éducation à la démocratie et à l’éthique parmi la population afin de nous poser les bonnes questions lors de l’utilisation de l’IA : qui cela va-t-il servir? Quel en est l’intérêt ? Deuxièmement, l’UNESCO souhaite créer des mécanismes plus inclusifs en termes de développement et déploiement de l’IA. Une approche multisectorielle garantirait que les citoyens deviennent des architectes de leur futur numérique, selon Sasha Rubel. Troisièmement, nous devons repenser notre manière de mettre en application les multiples principes et normes qui sont développées dans le domaine de l’IA. L’UNESCO est donc en train de mettre en place un code d'éthique et une série de recommandations grâce à la participation de 193 pays, experts et groupes de concertation. La collaboration multisectorielle n’est pas « une » solution pour l’élaboration de politiques sur l’éthique de l’IA, mais « la » solution. Comme Sasha Rubel, Laurence Devillers pense que la bonne gouvernance de l’IA passe par l’éducation, la collaboration, et l’anticipation des enjeux à venir. Premièrement, citoyens et élus politiques doivent être conscients de ce qu’est l’IA et de ses impacts sociaux et démocratiques. L’éthique du numérique doit être prise au sérieux, en particulier à une époque où les citoyens manquent d’idéaux. Deuxièmement, Devillers souligne l’importance d’une vision et d’une coopération globale dans le domaine de l’IA. En tant que membre du Partenariat international sur l’IA, une initiative multisectorielle qui vise à bâtir des ponts entre la théorie et la pratique, Devillers encourage la collaboration entre pays développés et pays en développement dans le but d’anticiper les futurs bénéfices et risques de l’IA. Nous devons penser ensemble à la coévolution entre machines et êtres humains et aux moyens d’adapter les machines aux êtres humains afin de rester à l’avant des nouvelles technologies. A l’ère numérique, nous devons repenser notre conception de l’humanisme et établir une relation avec l’IA basée à la fois sur la confiance et sur le doute. En tant que représentant du Conseil de l’Europe, Jan Kleijssen met l’emphase sur la nécessité d’agences multilatérales dans la prise de décision quant au développement et déploiement de l’IA, en particulière quand en ce qui a attrait à protection des données et à la cyber sécurité. Vu les impacts de l’IA sur les droits de la personne et la démocratie, Kleijssen pense que nous ne pouvons pas laisser les grandes entreprises réguler l’IA par elles-mêmes. Celles-ci doivent travailler avec les gouvernements démocratiques, des élus, des universitaires, le milieu des affaires, et des membres de la société civile. Le Conseil de l’Europe a mis sur pied un comité qui tente d’établir un cadre légal pour l’IA. Kleijssen veut faire en sorte que ce cadre soit contraignant car cela

11


signifierait qu’il devrait être signé par les gouvernements et ratifié par les parlements nationaux de membres du Conseil, obtenant ainsi l’aval d’un grand nombre de personne. Cela ne peut qu’être bénéfique pour la légitimité du cadre de loi. Enfin, en ce qui concerne l’élaboration de normes et principes, Kleijssen et Rubel ont souhaités souligner qu’il n’existe pas de compétitions entre différentes agences régionales et internationales. Au contraire, il y a coopération, dialogue et apprentissage. Le Conseil de l’Europe avec l’UNESCO, l’OCDE et autres organismes sont en train de développer un portail de coopération intitulé Globalpolicy.ai qui rassemble toutes les ressources des agences régionales et internationales, et met ainsi en commun les forces de chacune de ces agences. Les intervenants ont conclu la discussion en rappelant les points importants pour la gouvernance démocratique et éthique de l’IA : la collaboration, l’inclusion et la diversité; la littératie numérique et civique; la responsabilité des compagnies; et l’urgence d’agir en amont.

12