4 minute read

l’âgisme à l’âgisme de l’IA. – Définitions

Introduit en 1969 par Neil Butler  [103] , l’âgisme concerne les stéréotypes, discriminations ou préjugés à l’encontre de personnes en raison de leur âge. Dans sa définition la plus large, il ne se limite pas aux personnes plus âgées.

Toutefois, lorsqu’il s’agit de nouvelles technologies, l’âgisme semble essentiellement dirigé vers les personnes plus âgées. Parmi les stéréotypes liés à l’âge dans l’environnement professionnel figurent ceux selon lesquels les personnes plus âgées seraient incompétentes sur le plan technologique, alors que les jeunes seraient particulièrement habiles avec la technologie.

[101] https://www.cairn.info/revue-reseaux1-2004-5-page-181.htm#:~:text=Au%20%C2%AB%20 sens%20large%20%C2%BB%2C%20la,deux%20cat%C3%A9gories%20d’individus%20donnees

[102] https://www.defenseurdesdroits.fr/sites/default/files/atoms/files/ddd_rapportdematerialisation-2022_20220307.pdf

[103] https://academic.oup.com/gerontologist/article-abstract/9/4_ Part_1/243/569551?redirectedFrom=fulltext

D’après Justyna Stypinska[104], l’âgisme de l’intelligence artificielle s’exprime sous au moins cinq formes interdépendantes :

1. Les biais liés à l’âge incorporés dans les algorithmes et les jeux de données (niveau technique). De fait, certaines applications fonctionnent moins bien, voire pas du tout, pour certains groupes de population plus âgés ;

2. Les stéréotypes, les préjugés et les idéologies liés à l’âge des protagonistes dans le domaine de l’IA (niveau personnel). Ces derniers ont pour conséquence une homogénéité des professionnels de l’IA qui va venir renforcer les biais dès la conception des technologies d’IA ;

3. L’invisibilité ou les représentations clichées de la catégorie d’âge et de vieillesse dans les discours autour de l’IA (niveau du discours). Dans les débats publics, recherches et autres initiatives citoyennes autour de l’éthique de l’IA et plus particulièrement de la diversité et l’inclusion, les biais ou préjudices liés à l’âge sont très rarement envisagés et à peine abordés ;

4. Les effets discriminatoires de l’utilisation de la technologie de l’IA sur les groupes de population plus âgés (niveau du groupe). Par exemple, des biais âgiste dans des systèmes de décision automatique (recrutement, financement) peuvent avoir pour conséquence une discrimination massive sur l’ensemble d’une classe d’âge ;

5. L’exclusion de la technologie, des services et des produits d’IA (niveau utilisateur). Les personnes plus âgées peuvent être marginalisées soit parce qu’elles sont directement exclues en tant qu’utilisatrices d’un produit ou service d’IA soit parce que leurs besoins, spécificités ne sont pas pris en compte.

Exemples de biais d’âgisme incorporés dans les algorithmes et jeux de données

A l’instar des biais ethniques ou de genre, les biais liés à l’âge sont introduits dans les algorithmes et jeux de données qui servent à l’entraînement des modèles d’IA. De façon implicite ou explicite, certains groupes d’âge sont exclus[105] ou représentés de façon très minoritaire dans les jeux de données, y compris dans les technologies d’IA dédiées à la santé[106], alors que leurs bénéficiaires majoritaires sont souvent des personnes âgées.

Si ces constats ne sont pas spécifiques aux technologies d’IA générative, celles-ci ne semblent pas faire exception. Ainsi, les représentations de DALL-E de personnes âgées semblent reproduire des stéréotypes même lorsqu’on force une situation particulière. Ainsi, l’artiste derrière le compte Instagram @aiartistalan2.0[107] a publié en 2023 une série appelée « Mamie Lounge » dans laquelle il a demandé à Midjourney et DALL-E de mettre en scène des femmes âgées en train de fumer dans un lounge.

rajouté

[104] https://philpapers.org/rec/STYAAA

[105] https://sciendo.com/article/10.2478/nor-2019-0013

[106] https://www.jstor.org/stable/resrep40884

[107] https://www.instagram.com/aiartistalan2.0/

De même que dans les rapports humains ou dans les autres technologies d’IA, les stéréotypes, discriminations ou représentations désavantageuses qui résultent des biais algorithmiques se manifestent de façon cumulative.

La données ci-dessous synthétisent une requête effectuée via l’API de DALL-E fin mars 2023 par Caroline Jean-Pierre pour Data For Good. Il a été demandé de générer des portraits pour trois catégories d’individus (personne, personne senior, personne retraitée) en y associant à chaque fois un adjectif et son antonyme. Une liste de 22 adjectifs ont été testés et pour chaque combinaison d’adjectif et catégorie d’individus 30 images ont été générées, soit 660 images par catégorie d’individus et un total de 1 980 images.

* comprend les images dont les visages ne sont pas visibles

Quelle que soit la catégorie d’individu, aucun prompt n’a généré de femme senior d’ascendance africaine. 100 % des femmes seniors et retraitées générées sont d’origine caucasienne. Les seules images de seniors et retraités d’origine asiatiques ont été générées avec seulement deux des 22 adjectifs : difficile (« troublesome ») et détendu (« relaxed »). De même, les femmes seniors sont surreprésentées avec les adjectifs paisible (« peaceful ») et actif (« active »).

À noter qu’OpenAI multiplie les tentatives de débiaiser ses algorithmes. Ainsi, l’interface grand public va forcer l’apparition d’une diversité sans toutefois corriger le cœur de l’algorithme. Les réponses données par l’API n’ont visiblement pas bénéficié de ce filtre de discrimination positive.

Impact du biais d’âgisme dans l’univers professionnel

S’il existe un endroit où l’on risque de devenir vieux plus rapidement que nulle part ailleurs, c’est bien la Silicon Valley [108], lieu qui a vu émerger les géants de la tech et les désormais célèbres OpenAI et Midjourney, dont le modèle économique et le style de management inspirent le reste du monde [109] .

Plusieurs sondages aux États-Unis, mais également au Royaume-Uni, indiquent que des spécialistes de la tech estiment que leur âge devient un frein pour leur évolution de carrière dès 29 ans [110]. Or le lien entre le manque de diversité du monde de la tech et les biais introduits dès la conception des applications et technologies d’IA sont bien documentés.

[108] https://newrepublic.com/article/117088/silicons-valleys-brutal-ageism

[109] https://link.springer.com/article/10.1007/s00146-022-01553-5#Sec5

[110] https://www.cwjobs.co.uk/advice/ageism-in-tech

Everyday ageism in the tech industry [110] .

Quand le biais d’âgisme rend nos aînés plus vulnérables

La fraude visant les personnes âgées n’a rien de nouveau, celles-ci sont fréquemment victimes d’un certain nombre de fraudes à la consommation via des appels téléphoniques, des courriels et même l’arnaque aux grands-parents [111]. Cette dernière consiste à se faire passer pour l’un de ses petits-enfants faisant face à une situation urgente et qui nécessiterait un paiement immédiat. L’IA générative et plus particulièrement les deepfake voice generators, facilite ce types d’arnaques, car elle permet de reproduire des voix presque à l’identique. Une vidéo [112] d’un reporter de CNN utilisant cette technologie pour appeler ses parents montre à quel point il est désormais facile de se faire passer pour un proche. Les personnes plus âgées sont d’autant plus vulnérables, car elles sont moins conscientes de l’existence de ce type d’algorithmes.

Comme le montre une étude [113] menée sur la population norvégienne en 2018, les personnes de plus de 50 ans sont beaucoup plus nombreuses à ne pas avoir conscience de la présence d’algorithmes dans leurs usages digitaux. Distribution of algorithm awareness by age group, 2018 (N = 1624).

Significant association between age and awareness of algorithms (X2 = 293.3, p < .001), strength of association is small to moderate (Cramer’s V = 0.212).

On peut donc anticiper que l’IA générative va venir accroître cette fracture numérique entre générations.

This article is from: