
6 minute read
Devenir techno-lucide à l’ère de l’IA générative
“Ne nous laissons pas voler les mots par les fous. C’est à peu près aussi déraisonnable que d’user du terme d’intelligence artificielle, très à la mode, pour référer à des algorithmes qui n’ont rien d’intelligent. Indépendamment des externalités négatives considérables du numérique. La seule question intéressante serait : tout cela nous rend-il plus heureux et plus alertes ? […] La seule question signifiante est celle des finalités. Où voulons nous aller ?”
Extrait du discours d’Aurélien Barrau à la conférence Beyond Growth de l’UE, 2023
À l’aube d’une ère où l’Intelligence Artificielle (IA) générative, incarnée par ChatGPT, promet d’être omniprésente, son impact sur notre société provoque des visions du monde radicalement opposées. La Sillicon Valley nous promet l’arrivée d’une nouvelle ère techno-industrielle, un âge d’or où l’innovation pour l’innovation est une fin en soi. D’autres nous mettent en garde contre un avenir dystopique à la Terminator, où l’IA prendrait le contrôle du monde. Entre ces deux pôles, une majorité silencieuse vit l’immersion insidieuse de ces technologies dans son quotidien, sans questionner ses implications ni même constater son omniprésence.
Et c’est de ce questionnement vis à vis de nos propres usages qu’est né ce projet de livre blanc.
Il y a quelques mois, nous avions le projet de réaliser des images de communication sur Midjourney (une IA de génération d’images) pour un événement pour démultiplier le travail de notre graphiste. Un bénévole alerte questionna la démarche en soulevant à juste titre la question des droits d’auteurs. Au même moment, nous prenions conscience de l’accélération qu’avait apportée dans les derniers mois l’IA générative à nos projets d’intérêt général -qu’il s’agisse de la lutte contre la pêche illégale, de la sensibilisation à l’érosion de la biodiversité ou du sexisme dans le cinéma - dont les ressources sont limitées par la nature exclusivement bénévole du travail fourni. La question de l’impact de cette technologie sur notre société commença à nous obséder, et nous avons décidé de mener des recherches approfondies pour initier cette discussion dans le débat public.
Depuis sa création en 2014, Data For Good cherche, par ses projets et actions concrètes, à mettre le numérique au service de l’intérêt général, et à utiliser l’open source comme une arme pour aider des associations à décupler leur impact. En 2018, nous avons rédigé le serment d’Hippocrate du Data Scientist, une charte signée par des milliers de professionnels de l’IA pour tenter d’insuffler une éthique dans sa pratique. Mais aujourd’hui nous assistons, impuissants, aux impacts négatifs potentiellement gigantesques de l’IA générative : propagation de la désinformation, manipulation d’élections, course à l’attention, violation de la vie privée.
Nous devons aller plus loin.
Le défi est colossal. Les impacts de l’IA générative sont multiformes et touchent tous les pans de notre société : impacts directs sur l’environnement, l’éducation, la productivité, l’emploi et la créativité, la cybersécurité et la protection des données, les biais et les inégalités, la génération de faux, le droit d’auteur, ou encore la défense de la démocratie. Impacts indirects plus imperceptibles et difficiles à mesurer, comme les effets rebonds des inombrables nouveaux usages qu’elle crée.
Les questions qu’elle soulève sont philosophiques, politiques, physiques, poétiques.
Il faut se battre sur tous les fronts.
La technologie n’est jamais neutre. Elle est construite, avec une intention, dans un cadre de pensée. Elle sert un récit dominant. Sous couvert de nous rendre plus autonomes, de nous faire gagner du temps, elle nous enferme dans un système technique dont nous perdons la maitrise à mesure qu’elle se complexifie et nous endort dans un confort abrutissant.
La question que nous souhaitons soulever dans ce livre blanc est la suivante : quels sont les impacts de l’IA générative sur nos vies, et à quelles conditions peut-elle nous être utile ?
A l’heure où les technologies d’intelligence artificielles génératives se développent à grande vitesse et de manière non régulée, poussées par les intérêts économiques et la fascination pour la technologie de ceux qui les développent, Data For Good propose un guide de compréhension et des recommandations d’usage de ces technologies afin de fournir un cadre à leur bon développement futur, en se fixant pour principe directeur le bien-être et la préservation du vivant. Il s’agit de définir les conditions de son utilité. De penser le pourquoi avant le comment ; en somme, d’être techno-lucides : lucides sur la place que nous souhaitons donner à la technologie. Interroger, questionner, comprendre ce que nous utilisons. Supprimer les usages superflus et prioriser collectivement ceux qui mettent des ressources limitées au service de besoins raisonnés.
Ce rapport est l’aboutissement d’un travail de plusieurs dizaines de bénévoles issus de la société civile mené entre janvier et juin 2023. Il n’a pas vocation à être exhaustif, mais souhaite donner des clés de lecture des changements à l’oeuvre et jeter les bases d’une interrogation collective salvatrice sur notre rapport à la technologie et ses impacts sur notre société.
«Les meilleurs esprits de notre génération passent leur temps à faire cliquer des gens sur des publicités», déplorait un des premiers employés de Facebook. Et si on mettait ces cerveaux au service de l’intérêt général ?
C’est la mission que Data For Good s’est donnée : redonner un sens à la technologie, initier une ère de techno-lucidité.