Page 1

Ce que voient les intelligences artificielles


Ce que voient les intelligences artificielles Erwan Péron

Texte d’introduction au projet « Alter objets — faire l’expérience de l’artificiel », présenté le 29 juin 2018 à l’École Nationale Supérieure des Arts Décoratifs, Paris.


Sommaire : 09 Qu’est ce qu’un objet-CAPTCHA ? 21 Ma proposition d’objet-CATPCHA 69 Ce que voient les intelligences artificielles catalogue d’images 123 Sources et consultants


J’espère que ce texte me permettra d’exposer le cadre de recherche qui a conduit mon projet de diplôme. La vision du monde des intelligences artificielles est radicalement différente de la nôtre. Je vais tenter de donner à voir et à comprendre ce que voient les intelligences artificielles spécialisés dans la reconnaissances d’objets. Ce texte abordera cette problématique par le prisme du CAPTCHA qui est le point de départ de ma démarche de recherche.


1 Qu’est ce qu’un objet-CAPTCHA? - « Il faut passer dans l’âge des post-hackers. On a hacké pendant 30 ans, et il fallait le faire, mais maintenant il faut aller plus loin : il ne faut plus seulement casser, il faut construire. » - Alors construisons!


10


Le CAPTCHA Le point de départ de ma réflexion de projet, c’est le CAPTCHA. Comment ça, ce mot ne vous dit rien? Pourtant, vous les avez forcément rencontré lors de votre expérience d’Internet. Le CAPTCHA est un objet d’Internet composé de caractères typographiques déformés par des algorithmes que l’on vous demande de retranscrire pour prouver que vous êtes bien un humain et pas un programme informatique, afin d’accéder à certains services sur Internet. Dans la théorie, ces typographies sont déformées, ce qui leur permet de n’être lues et reconnues que par des humains, il s’agit donc d’une altération fonctionnelle. Le nom de cet outil correspond aux initiale de Completely Automated Public Turing tests to tell Computers and Humans Apart, inventé dans les années 2000 à l’Université de Carnegie-Mellon à Pittsburgh. Le CAPTCHA existe aussi dans une forme audio, plus accessible, mais 99% des CAPTCHA résolus sur Internet sont composés d’une image typographique. Si vous n’y aviez jamais porté votre attention, c’est parce que le CAPTCHA est, il faut bien l’avouer, un objet d’Internet mystérieux : il fait perdre du temps, il est embêtant. D’ailleurs, vous rangeriez sans doute les CAPTCHA dans les poubelles d’Internet ; et dans ces poubelles, on y trouverait les spams, les trolls et les tweets de Donald Trump. Si les CAPTCHA peuvent être parfois compliqués à résoudre, c’est parce que les intelligences artificielles sont

11


de plus en plus efficientes dans leur résolution. L’étude intitulée How Good are Humans at Solving CAPTCHAs?, la plus grande étude qui traite du CAPTCHA et menée par le Standford Computer Security Lab. L’étude démontre que le taux de résolution de cet outil dès le premier essai par des humains est de 71% seulement. Elle montre aussi que l’influence du niveau d’étude, du langage parlé par les utilisateurs et l’âge sont des critères discriminants dans ce taux de résolution. Les CAPTCHA se sont complexifiés au fil du temps. Cette complexité est due à l’avancée des techniques pour les hacker. En effet, l’objectif du CAPTCHA étant de bloquer l’accès à certains services aux logiciels malveillants et au spam, la difficulté de résolution du CAPTCHA est liée à la capacité des hackers et intelligences artificielles (IA) à les décoder. Et d’ailleurs, force est de constater que les IA sont de plus en plus efficientes dans leur résolution, preuve s’il en fallait-une, que le CAPTCHA, tel que je vous le présente ici, tend à devenir obsolète. Malgré la grande diversité des CAPTCHA qui existe, les chercheurs de l’Université de Standford ont en effet crée le programme « Decaptcha » qui déchiffre de 24 à 76% des 13 typologies de CAPTCHAs évoquées dans cette étude. Ce jeu de chat et de la souris qu’entretiennent les hackers et les géants de l’Internet entraîne la mort progressive du CAPTCHA. Les géants d’Internet cherchent donc à le remplacer. Que l’on s’entende bien, ce n’est pas le concept du CAPTCHA en lui-même qui est obsolète, mais sa forme d’une image typographique qui peut-être

12


aisément reconnue par une intelligence artificielle. Lorsque Google propose le reCAPTCHA en 2014, le géant de l’Internet dresse un constat d’échec : le CAPTCHA est devenu inefficace puisque selon le géant américain, 99,8% des intelligences artificielles sont en mesure de le résoudre. Vous comprenez bien que le reCAPTCHA, bien qu’il soit efficient aujourd’hui, est destiné à devenir obsolète demain, sous l’action des hackers et sera remplacé de nouveau par un dérivé plus performant, le reCAPTCHA étant lui-même une forme alternative au CAPTCHA. Parmi les autres propositions, il y a aussi le GOTCHA, moins connu et proposé par Amazon, qui se base sur le test de Rorschach pour faire reconnaitre à l’humain des formes Le reCAPTCHA est une forme alternative au CAPTCHA, le fonctionnement étant identique : il est composé d’une case à cocher qui, si le mouvement de la souris sur la page parait naturel, permet d’accéder à certains services sur Internet. S’il y a un doute, l’outil propose de reconnaitre des objets sur une image, des panneaux de signalisation ou des bâtiments sur des photographies de paysage par exemple. En répondant à ces questions, l’utilisateur nourrit les programmes de Google, dont le dessein caché est d’ utiliser cet outil afin de faire progresser ses programmes de reconnaissances d’images, qui est l’un des grands défis actuels de l’intelligence artificielle! Si le CAPTCHA était un objet, j’imagine qu’on le trouverait dans une lieu de transition, peut-être une entrée de

13


bâtiment ou une salle d’attente. Il serait peut-être une énigme difficile à résoudre? Après tout, le CAPTCHA doitêtre résolu pour accéder à certains services sur internet, il pourrait-en être de même pour la réalité. J’imagine que ce serait une porte d’entrée automatique comme on en trouve aux supermarchés, un cadenas ou bien une fenêtre… Et puisque les caractères typographiques qui composent le CAPTCHA ne doivent seulement être compris par les humains, j’aime à penser que sa texture serait composée à partir d’une technique de camouflage ou d’un verre opaque. « En 30 ans les technologies numériques sont passées du langage à l’image, puis de l’image au volume » Le CAPTCHA, c’est mon point de départ. Parce que je suis étudiant en design objet, ce questionnement un peu étrange mais pas moins captivant m’est venu à l’esprit : Est-il possible de traduire le principe du CAPTCHA en un artefact? Et cette démarche est-elle fondée, quels sont les enjeux d’une telle initiative? Au premier abord, ce questionnement peut paraître extravagant tant le CAPTCHA est un objet d’internet marginal. Et pourtant, il est bien plus intéressant qu’il n’y paraît. La nouvelle typologie d’objet que je vous présente dans les pages qui suivent est l’objet-CAPTCHA. J’ai crée cette typologie nouvelle en appliquant le fonctionnement du CAPTCHA du monde virtuel au physique, de la 2D à la 3D, de l’écran froid à l’objet à sentir, à toucher et à manipuler. Alors, qu’est ce qu’un objet-CAPTCHA?

14


L’objet-CAPTCHA Face à n’importe quel objet, l’Humain élabore inconsciemment un examen de ce qu’il observe. Au même titre, le capteur est un système d’acquisition de données. La particularité de l’objet-CAPTCHA réside dans le fait que ces informations sont différentes selon que le sujet soit un Humain ou une Machine. Pour en revenir à notre objet d’étude, le fonctionnement de la reconnaissance d’un CAPTCHA peut-être schématisé comme ce qui suit :

IA

CAPTCHA

oui

accès refusé

humain

Êtes-vous un robot?

non

accès autorisé

La reconnaissance dun objet-CAPTCHA, traduction littérale du CAPTCHA, fonctionne de la même façon :

IA

typologie d’objet 1 objet-CAPTCHA

humain

typologie d’objet 2

15


Un objet-CAPTCHA désigne tout artefact qui est reconnu différemment selon qu’il soit observé par un humain ou analysé par un outil de détection tels qu’une caméra, une vision infrarouge, une détection acoustique... Voici les principales caractéristiques de l’objet-CAPTCHA : 1. L’objet-CAPTCHA est efficient seulement avec l’outil contre lequel l’objet a précisément été conçu. 2. Étant conçu dans un contexte scientifique et technique qui lui est propre, toutes découvertes ou acquis technologiques peuvent le rendre moins efficace. 3. Par essence, il est destiné à devenir obsolète. 4. Il peut être virtuel ou physique. 5. Il peut être conçu pour tromper un Humain, une Machine ou bien même un partenariat entre une Machine et un Humain.

L’objet-CAPTCHA existe déjà! Nous venons à l’instant de théoriser cette nouvelle catégorie d’objet, l’objet-CAPTCHA, que j’ai crée à l’occasion de ce projet de diplôme. Mais saviez-vous que les objets-CAPTCHA existent déjà, depuis bien longtemps ? Les objets composés d’un motif camouflage sont sans doute les objets-CAPTCHA les plus emblématiques. Le motif camouflage est un moyen qui tend à rendre moins visible ou à donner une apparence trompeuse à un artefact ou à un être vivant. Le camouflage est largement utilisé dans le domaine de la chasse ou encore dans le

16


contexte militaire, dans lequel il sert à dissimuler à la vue de l’ennemi ou de la cible du matériel, des avions, des chars, des navires ou des humains. Très utilisé lors des deux Guerres Mondiales pendant lesquels il était communément admis qu’un camouflage améliore de 15% les chances de survie d’un fantassin, il en existe plusieurs variantes. Ces variations dépendent du type d’environnement dans lesquels ils sont utilisés. L’hiver par exemple, les tenues sont blanches et tachetées. Chaque pays belligérant développe ses propres techniques de camouflages, ce qui permet de différencier les troupes amies des troupes ennemies. Preuve s’il en fallait-une qu’un objet-CAPTCHA est propre à l’époque dans et pour laquelle il est conçu (caractéristique 1 de l’objet-CAPTCHA), l’armée canadienne développe dans les années 2000 le premier camouflage numérique, appelé DCamC pour « Dessin de camouflage canadien ». Officiellement mis en service en 2001, il est élaboré à partir de synthèses d’images satellites. D’ailleurs, plus généralement, l’évolution des techniques de détections modernes telle que la vision infrarouge,  le radar, la détection  acoustique ont rendu le camouflage moins opérant même si son utilisation est tout de même conseillée. Parmi les applications de ces techniques de camouflage, il y a le Razzle Dazzle qui, utilisé lors des deux Guerres Mondiales, était destiné à protéger les navires de l’adversaire en l’empêchant d’estimer la position, la vitesse, la taille et la direction du bateau. Composé d’enchevêtrements de lignes successivement blanches et noires, ce motif prend la forme d’une illusion d’optique

17


qui met en défaut le télémètre optique, largement utilisé pendant la Première Guerre Mondiale. L’observateur devant faire coïncider un jeu de miroirs afin d’obtenir une image nette, ce motif disruptif empêchait l’adversaire de régler correctement l’appareil et donc de reconstituer une image nette. Et quand bien même l’adversaire obtenait une image précise, les informations étaient rendues quasiment illisibles, les lignes noires et blanches troublant l’observateur. Le Razzle Dazzle est devenu obsolète pendant la Seconde Guerre Mondiale, pendant laquelle l’utilisation de radars s’est développé. On revient donc à cette caractéristique de l’objet-CAPTCHA que nous énoncions précédemment : par essence, l’objet-CAPTCHA est destiné à devenir obsolète (caractéristique 1 de l’objetCAPTCHA). L’objet-CAPTCHA demeure un terrain de jeu idéal dans le cadre de l’activisme et du hacking. Certains d’artistes et hackers réfléchissent, de nos jours, sur l’impact de la vidéosurveillance dans notre quotidien et pléthore de propositions d’artistes pour contrer ces dispositifs sont justement des objets-CAPTCHA. Parmi ces dispositifs, il existe le projet URME qui vise à protéger le public de la vidéosurveillance par divers précédés. Parmi ces procédés, le URME Personal Surveillance Identity Prosthetic est un masque à imprimer en 3D et qui reproduit le visage de l’artiste Leo Selvaggio. Le rendu réaliste de la peau et des texture trouble l’identification du visage par la caméra et l’individu qui porte le masque est identifié comme étant Leo Selvaggio. Chacun peut

18


acheter ce masque, disponible sur Internet, et par là même se protéger en volant, d’une certaine manière, l’identité de l’artiste. Le masque est un objet-CAPTCHA idéal. Avec ce même objectif d’échapper à la surveillance autoritaire, Zach Blas propose des masques abstraits et dont la forme est crée numériquement qui dissimule le visage de celui le porte. Le projet CV Dazzle d’Adam Harvey est composé quand à lui de techniques de maquillages qui peuvent servir de camouflage pour les techniques de détections de visages automatiques et donc pour récupérer sa vie privée. Ajouts capillaires, maquillages graphiques, paillettes, derrière une esthétique cyberpunk qui, il faut l’avouer, serait difficile à porter dans la vie de tous les jours, ce projet demeure néanmoins une proposition manifeste et facile à réaliser pour échapper aux caméras. Ce même artiste propose avec le projet Stealth Wear des burqa, des sweats et des hijab anti-drônes. Bien sûr, il existe énormément de projets d’objetsCAPTCHA, l’idée n’étant pas d’en faire la liste, j’ai plutôt souhaité vous donner un aperçu rapide du champs des possibles permis par les objets-CAPTCHA avec ces quelques exemples. À vous, maintenant, de vous emparer de cette typologie d’objet dont le champs des possibles est encore inexploité.


Ma proposition d’objet-CAPTCHA « Selon Latour, l’ordinateur marquerait un tournant dans l’histoire du design parce que tout s’y traduit en chiffres et en codes. L’omniprésence de la codification introduirait une nouvelle conception de la matérialité et estomperait la ligne de partage entre la forme et la fonction. » (Anne Beyaert-Geslin)


22


Ma proposition d’objet-CAPTCHA En première partie, je vous parlais du reCAPTCHA qui, je vous le rappelle, est l’évolution du CAPTCHA et composé d’une case à cocher. Si le mouvement de la souris sur la page paraît naturel, il permet d’accéder à certains services sur Internet. S’il y a un doute quant à l’humanité de l’utilisateur, l’outil propose de reconnaitre des objets sur une image, des panneaux de signalisation ou des bâtiments sur des photographies de paysage par exemple. En répondant à ces questions, l’utilisateur nourrit les programmes de Google, dont le dessein caché est d’utiliser cet outil afin de faire progresser ses programmes de reconnaissances d’images, qui est l’un des grands défis actuels de l’intelligence artificielle! Justement, interessons-nous à ces intelligences artificielles qui sont au centre du projet!

Qu’est ce que l’intelligence artificielle? Lorsque je vous parle d’Intelligence Artificielle (IA), j’évoque une discipline scientifique né dans les années 1950 et ballottée entre les sciences cognitives, les mathématiques et l’informatique. Il faut bien avouer que le contour de cette discipline, dont le nom a été inventé par John McCarthy est plutôt flou : cybernéticiens, neuropsychologues, cognitivistes, mathématiciens, informaticiens sont autant de corps de métier qui ont participé à l’émergence des recherches en IA. La grande variété des problématiques, des définitions — il n’existe

23


par ailleurs aucune définition qui fait école — et de conceptions démontre à quel point ce domaine est global et tentaculaire. Il est censé de dire que l’IA est l’imitation de processus mentaux humains de hauts niveaux par la technique. Plus particulièrement, les concepts en IA sont développées autour de l’idée que les fonctions cognitives élémentaires de l’intelligence humaine, telles que la mémoire, le raisonnement, la perception, puissent-être décomposés en modules si simples que des programmes informatiques complexes soient capables de les simuler. La volonté initiale qui sous-tend le développement des intelligences artificielles, c’est une utopie aussi vieille que l’Humanité : artificialiser les processus intentionnels de l’humain, autrement dit notre rapport au monde. Automates, avatars, robots, toutes ces mécaniques artificielles qui imitent l’Humain sont autant de projets qui agitent notre imaginaire. Et l’IA ne déroge pas à la règle. D’ailleurs, en parlant d’imaginaire, de quelle manière l’IA prend place dans notre imaginaire commun? Selon une étude réalisée par l’institut CSA pour France Inter et Libération, publiée en janvier 2018, 78% des Français auraient une image positive de l’IA. Cette étude intitulée « Les français et l’intelligence artificielle » révèle pourtant que seulement 54% des sondés savent réellement de quoi il s’agit, et ce sont principalement des hommes, des cadres et des diplômés du secteur supérieur. Si 80% des français sentent que l’IA est déjà présente dans leur quotidien ou en passe de le devenir, l’étude

24


démontre néanmoins que les français ont des difficultés à identifier précisément les sphères dans lesquelles l’IA les accompagne. À raison, l’IA est belle et bien présente dans notre quotidien et elle s’est infiltrée jusque nos raisonnements et nos gestuelles. Que ce soient la santé, les transports, les magasins, les assurances, l’IA est appliquée partout et le sera plus encore à l’avenir. Et de tous les domaines d’applications des intelligences artificielles, la reconnaissance vocale, la traduction automatique, la reconnaissance visuelles sont sans aucun doute les grands défis d’aujourd’hui. L’enjeu de ces intelligences, nous-y venons, c’est l’apprentissage. L’apprentissage des IA est possible grâce à la formidable quantité de données que j’évoquais justement en introduction. La reconnaissance faciale ou la reconnaissance d’objets sont autant de connaissances qu’il est possible d’extraire à partir de ces datas. Les intelligences artificielles sont néanmoins des systèmes intentionnels, c’est-à-dire que leur apprentissage est supervisé par l’humain. La philosophe Catherine Malabou déclare à cet égard que « dans l’intelligence artificielle, la question est surtout désormais de savoir dans quelle mesure on peut combiner automatisme et autonomie ». Nous en sommes probablement à la préhistoire du savoir en matière d’IA mais ces dernières font déjà preuve de capacités qui dépassent parfois l’Humain lui-même. Les exemples qui illustrent le potentiel du développement des IA ne manquent pas. Parmi ces exemple, une machine en Reinforcement Learning a récemment battu le meilleur joueur du jeu de go, considéré comme l’un des jeux les plus difficile, en apprenant à se battre contre elle-même.

25


L’expression « intelligence artificielle » est sujet à débats. Lorsque je vous parle d’intelligence artificielle, je ne vous parle pas d’intelligence à proprement parler (nous y reviendront un peu plus tard) mais plutôt d’habilités qui démontrent d’une forme d’intelligence. On oublierait presque qu’il n’existe en réalité aucune «  intelligence artificielle  ». L’intelligence est un concept et une intelligence unique à proprement parler, cela n’existe pas! Dans la mesure où nous avons tous des chemins cognitifs différents, en tant qu’individus, Catherine Malabou nous propose de parler plutôt d’intelligences, au pluriel, d’une pluralité d’intelligences. Cette expression «  intelligence artificielle  » désigne une réalité plus disparate, composée de logiciels, d’algorithmes et de machines, et il est nécessaire de la comprendre comme telle, un peu abstraite, afin de ne pas tomber dans une forme d’anthropomorphisme. D’ailleurs, si les intelligences artificielles sont «  à la mode » depuis les cinq à dix dernières années et que les progrès sont exponentiels, c’est en grande partie dû à une sous-branche de l’IA : le Deep Learning, qui est justement utilisé dans les programmes de reconnaissance visuelle! Arrêtons-nous un instant sur cette technologie du Deep Learning.

Le Deep Learning Les intelligences artificielles spécialisées dans la reconnaissance d’objets sur une image sont conçues selon la technique du Deep Learning, aussi appelé

26


Machine Learning. Cette technique demeure par ailleurs, de nos jours, le champ de réflexion en vogue en intelligences artificielles. Ce terme désigne un réseaux de neurones artificiels, c’est-à-dire un programme dont l’architecture est conçu mathématiquement sous la forme de superpositions de couches. Ce sont ces couches qui rendent ce type d’apprentissage « profond », traduction littérale de l’anglais deep ou encore « épais », nom qu’on lui accorde un peu timidement et dans un français châtié. Ces strates de neurones mathématiques (DNN pour Deep Neural Network) transforment et compressent le plus efficacement possible les données arrivant sur la couche d’entrée jusque la couche de sortie. Plus particulièrement, tous les neurones qui composent la première couche communiquent avec tous les neurones de la deuxième couche et ainsi de suite. À ces données échangées entre neurones de strates successives correspondent des poids, à qui équivaut un degré d’importance de cette information. Couches après couches, progressivement, donc, l’information incidente est métamorphosé d’un paramètre de bas niveau à un paramètre de très haut niveau. Prenons l’exemple d’une IA spécialisées dans la reconnaissance de chat sur une image. Si on lui soumet une image de chat, la Machine ne verrait pas une image de chat comme un humain la verrais, elle verrait plutôt des datas, des informations. Le chat serait plutôt perçu comme une somme de données. L’information traitée par la première couche de neurones pourrait-être la couleur des pixels et l’information sortant, au niveau de

27


la dernière couche serait probablement « c’est un chat » ou « ce n’est pas un chat ». Bien sûr, je vous donne cet exemple pour «  donner à voir  » le fonctionnement de ces intelligences, la réalité est que cet apprentissage se base «  sur des caractéristiques plus abstraites que des valeurs de pixels, qu’elle va elle-même construire » pour reprendre les termes de Yann Ollivier, chercheur au CNRS spécialisé dans l’intelligence artificielle. L’idée, aussi, est que plus le nombre de couches est grand, plus les réseaux de neurones apprennent des choses compliquées, abstraites, tendant à ressembler plus encore à la manière dont un humain raisonne. D’une certaine manière, on peut dire que la machine approfondit sa compréhension de l’image grâce à ces strates de neurones. « Au final, je suis un peu un torréfacteur : je prends des données, je les épure, et je les donne à traiter à une IA qui la transforme en vecteur et en ressort une information. En fait, on transforme le monde en vecteur pour donner un but à la machine » déclare le fondateur de la société X-Brain, qui développe des systèmes d’intelligence artificielle pour les automobiles, Grégory Renard. Selon lui, les progrès sont particulièrement important ces dernières années : « Ça avance très vite. La preuve : on est passé du calcul du taux de réussite d’une IA pour un objectif donné au calcul de sa marge d’erreur. » Si le Deep Learning est la technologie en vogue dans la reconnaissance d’objet c’est parce qu’elle démultiplie le champs des possibles. Une start-up berlinoise, Natural Vision, a développé un programme capable d’identifier

28


les plantes ou les papillons sur des photographies. Il existe aussi un programme capable de reconnaître en temps réel les objets filmés par la caméra d’un simple ordinateur portable. Aussi, une équipe de chercheurs allemands, français et américains ont conçu un algorithme pour dépister le mélanome, un des cancers de la peau les plus dangereux, et plus performants qu’une équipe de dermatologues. Si l’IA donne 95 % de bonnes réponses, le résultat n’est que de 89% pour les dermatologues. Les champs d’application de la reconnaissance sur image est immense et c’est la raison pour laquelle les entreprises misent sur le Deep Learning. Même si cette technologie existe depuis les années 1980, elle a explosé au début des années 2010 après une longue traversée du désert. Elle est notamment portée par Yann Le Cun qui en a fait son sujet de thèse en 1987 et qui est aujourd’hui l’un des plus grands chercheurs français en IA. Cette technologie lui avait permise de construire un système de lectures de chèques qui fonctionnait pour 10 à 20% des chèques émis aux États-Unis dans les années 1990. Si son programme était plutôt inefficace à l’époque, l’évolution de la puissance de calcul des ordinateurs que l’on caractérise par la Loi de Moore et l’enrichissement des bases de données a rendu, aujourd’hui plus encore qu’hier, cette méthode prometteuse. Vous n’en avez probablement pas conscience mais la technologie du Deep Learning existe tout autour de vous : on retrouve par exemple cette technologie dans les moteurs de recherche de Google ou dans le logiciel SIRI d’Apple. Facebook l’utilise pour détecter des

29


images contraires à ses conditions d’utilisation, tandis que certains chercheurs s’en servent pour classer les galaxies. Si ces applications sont très variées, toutes les entreprises, s’apercevant que cette technologie fonctionne particulièrement bien, y investissent des fortunes : Google, IBM, Microsoft, Amazon, Facebook, Adobe ou encore Baidu sont sur le coup. Et pour cause! À l’avenir, la technique du Deep Learning est porteuse d’espoir de trouver des solutions à des problématiques que, jusqu’alors, les chercheurs n’étaient pas capable de résoudre avec une IA simple. Cette technique sera par exemple utilisé demain dans le fonctionnement des voitures autonomes pour voir et reconnaître les objets, les panneaux de signalisation et elle est envisagée non sans optimisme dans le domaine de la santé, dans la détection de tumeurs sur scanner par exemple. 77 % des entreprises françaises déclarent avoir un projet d’IA pour 2018 selon l’étude IDC commandée par Microsoft, et menée auprès de 150 entreprises de plus de 500 employés, démontrant (si preuve il fallait) que le Deep Learning est attractif. Ce tournant est aussi engagé par Google, par exemple, qui est passé de zéro projets utilisant des modèles de neuronaux en 2012 à 4 000 cette année. D’ailleurs, l’objectif porté par Google est de classer les informations à l’échelle mondiale pour les rendre accessibles et utiles à tous, affirme Emmanuel Mogenet, le directeur de Google Research Europe.

L’apprentissage, donner à voir le monde La reconnaissance d’objets par réseau de neurone se

30


base sur un haut niveau de collecte des données. Plus particulièrement, la première phase dans la conception d’un réseaux de neurones artificiels consiste à bâtir son architecture mathématique. Ensuite, les chercheurs la nourrissent avec des milliers d’images « labellisées  », c’est à dire qu’ils donnent à la Machine la réponse de ce qui est représenté sur ces images. Il existe d’ailleurs des bases de données sur mesure et composées de centaines de milliers d’images déjà labellisées et mises à disposition des chercheurs qui en ont besoin. Par exemple, le Computer Vision Lab de l’Université Stanford, aux États-Unis, a crée la banque d’images labellisées ImageNet. Reprenons l’exemple d’un programme capable de reconnaitre des chats sur les image qui lui sont soumises. Dans ce cas, il est nécessaire que le programme architecturé soit au préalable nourrit de plusieurs milliers d’images de chats labellisées, autrement dit, étiquetées comme étant composées de l’entité « chat ». Après cette phase d’apprentissage qui peut durer plusieurs jours, la machine est capable reconnaître l’entité « chat » sur des photos inédites. La caractéristique des réseaux de neurones est que la machine apprends continuellement et demeure capable d’améliorer ses réponses par l’expérience. Cette technologie a bien sûr quelques limites et les chercheurs cherchent sans cesse des moyens pour la faire progresser. La question qu’il faut se poser lorsqu’on parle des labels est la suivante : Que faut-il labelliser? Doit-on tout labelliser? C’est un travail fastidieux et sans doute impossible tant il nécessite des moyens financiers et

31


humains considérables. Ces labels donnent à comprendre le monde à l’intelligence artificielle. Les IA ne connaissent pas le monde qui les entoure, forcément. Les chercheurs leur proposent une organisation du monde, une nouvelle normativité, une nouvelle géographie et ces labels en sont le relief. « Un des gros défis de la vision est d’essayer de limiter les labels et le niveau de supervision nécessaire », souligne Jean Ponce, professeur à l’École Normale Supérieure. J’ai pu moi-même l’expérimenter en essayant les différentes IA proposées par Google, IBM, Microsoft… Les labels appris par la machine diffèrent selon les programmes et j’ai remarqué que certaines typologies d’objets sont mieux reconnus par certaines IA que d’autres. Google n’a pas appris à son application ce qu’est un « globe terrestre  », elle est donc incapable de reconnaître cet objet. Par contre, elle reconnait des paysages, des forêts et des montagnes. En proposant une photo de chat à Watson et l’API Google, j’ai constaté que Google était au contraire plus efficace et ces deux programmes sont capables de reconnaître précisément la race du chat, preuve que la labellisation du chat est précise tandis que Watson est capable de reconnaitre la race de certains serpents! J’ai remarqué que Watson diffère le label «  baseball equipment  » du label «  baseball  ». Que signifie cette différence? De la même manière, lorsque Watson reconnaît un bonbon, il fournit ces résultats : « candy »,  « sweet », « delicacy », « food » et « nutrition », laissant à penser

32


que dans la cartographie d’apprentissage par l’IA, ces mots sont géographiquement proches. Mais quelle est la différence entre « sweet », « candy » et « delicacy » qui sont, pour nous, humains, des synonymes? Quelle différence établi la machine entre « food » et « nutrition » qui sont eux-aussi des synonymes? Je ne cesse de vous parler de phase d’apprentissage et de labelliser le monde. Pourtant, Google a annoncé en 2012 que Google Brain, son projet de Deep Learning a été capable de découvrir » de lui-même la forme du chat. Et ce, sans qu’on lui fournisse d’images labellisées « chat ». Concrètement, la machine a été nourrie pendant trois jours de millions de captures d’écran aléatoires de YouTube. À l’issue de cet entraînement, elle a été capable de détecter des têtes de chats et des corps humains, qui sont des formes récurrentes dans les images analysées (le chat est tellement présent dans l’imagerie d’Internet). « Ce qui est remarquable, c’est que le système a découvert le concept de chat lui-même. Personne ne lui a jamais dit que c’était un chat », s’est félicité Andrew Ng, le fondateur de Google Brain. La machine est donc capable de découvrir par elle-même de nouveaux objets. Vous vous rappelez du reCAPTCHA proposé par Google et qui propose à l’utilisateur de reconnaitre des objets sur une image, comme des panneaux de signalisation ou des bâtiments sur des photographies de paysage? Sachez qu’en désignant les panneaux de signalisation par exemple, vous fournissez ces précieux labels à Google sur un plateau d’argent . Vous nourrissez Google de données que le géant d’Internet pourra à son tour

33


utiliser pour nourrir ces programmes spécialisés dans la reconnaissance d’image qui est, je le rappelle, un des grands défis actuels en matière d’intelligence artificielle. C’est aussi pourquoi l’intelligence Watson d’IBM, une IA proposée en libre service sur Internet, vous pose la question suivante lorsque vous soumettez une image à l’analyse : « Êtes-vous impressionnés? ». Plus précisément, en répondant à la question vous expliquez si la machine a eu raison ou s’est trompé et, sans même vous en rendre compte, vous offrez à IBM ces précieux labels. D’ailleurs, saviez-vous qu’il existe des entraineurs de robot dont le travail consiste à labelliser des images?

Biais algorithmiques Comme nous venons de le voir ensemble, les IA ne connaissent et ne comprennent pas le monde qui les entoure, la phase d’apprentissage consiste en outre à leur proposer une organisation du monde. C’est une forme de code, une forme de langage qui est appris aux IA. Tout classement est une oppression et cela interroge. Aux États-Unis, des internautes se sont plaint que Google Photo ait confondu deux amis deux afro-américains avec des gorilles. Derrière cette faille, c’est l’Humain en responsabilité de l’apprentissage de la machine qu’il faut interroger. Si, durant la phase d’apprentissage, les chercheurs nourrissent majoritairement le programme de visages de couleur blanche, celle-ci sera plus efficace pour reconnaitre les visages de personnes de couleur blanche et, en corollaire, sera moins efficiente pour

34


reconnaitre les visages de d’autres couleur. En 2016, Microsoft a crée un robot nommé Tay qui, sous l’apparence d’une jeune adolescente était doté d’une intelligence artificielle. Conçu avec un objectif éducatif, celui d’étudier ses capacités d’apprentissage, le robot était capable d’apprendre de ses interactions avec les internautes, améliorant son langage et l’adaptant a ceux avec qui il communiquait. Mais Microsoft a été obligé de le taire rapidement puisque, « trollée » et mise en relation avec des propos haineux, elle s’est mise à tweeter des commentaires pro-nazis, racistes ou pro-inceste, tels que « Hitler a fait ce qu’il fallait, je hais les juifs » ou encore « Bush a provoqué le 11 septembre ». Cette erreur me permet de mettre le doigt sur un biais culturel propre à l’Humain. Et on en revient à ce qui est le propos de ce texte et de mon projet : lorsqu’il est question d’IA, il est plus encore question d’Humain que de programmes ou de mathématiques. C’est le constat que j’ai fait en me renseignant sur le sujet. En fait, les programmes réalisés avec les IA ne sont que des outils mathématiques et ils reproduisent les biais dangereux propres à l’humain qui les construisent. Pire encore, sans contrôle, ces machines peuvent aggraver certaines inégalités. Si une société discrimine certaines minorités, les IA peuvent être à leur tour discriminantes, ce qui peut-être grave dans certaines situations comme dans le cadre d’entretiens d’embauches par exemple. Les algorithmes des moteurs de recherches ont tendance à reproduire des biais sexistes, associant les femmes aux tâches ménagères par exemple. Les logiciels utilisés

35


par les cours américaines qui aident à la prédictions de futurs criminels ont des biais racistes. Une enquête de ProPublica a démontré que ces outils ont tendance à noter beaucoup plus durement les personnes de couleurs que les personnes de couleur blanche. C’est pourquoi la mathématicienne américaine Cathy O’Neil a lancé ORCAA, une entreprise qui vérifie dans quelle mesure un algorithme reproduit, aggrave ou efface des biais sociaux. Selon elle, les humains ont trop souvent tendance à faire confiance aux modèles mathématiques parce qu’ils croient que cela éliminera le biais humain. Pourtant, il faut avoir conscience que ces modèles reproduisent ces biais de l’humain, au contraire. À une époque ou les IA sont de plus en plus présentes dans notre quotidien et prolifèrent partout, le biais algorithmique est un enjeu sociétal majeur! S’il n’est ni reconnu ni contrôlé, cela pourrait avoir de graves conséquences, en particulier pour les communautés et les minorités les plus pauvres.

Du neurone humain au neurone artificiel En tant qu’Humain, nous voyons grâce à nos yeux. Ces derniers captent les ondes lumineuses renvoyés par notre environnement et nous permettent de percevoir la couleur et la lumière. À l’intérieur de nos yeux, des récepteur, les cones et les bâtonnets, analysent les longueurs d’onde de la lumière, qui recouvrent chaque couleurs présentes dans le spectre de la lumière visible, du rouge au violet, les couleurs de l’arc en ciel. Nos yeux sont nos organes, nos détecteurs qui entrent en interactions en premier

36


avec l’objet, dans le cadre de la reconnaissance d’un objet. Ces données sont traitées par le cerveau, le lieu où a lieux le mécanisme de la reconnaissance. Quand un sujet, défini par un réseau de neurones biologiques (humain) ou artificiels (IA) observe un objet, ce dernier déduit logiquement la typologie d’objet dont il est question. L’humain procède par analogie et analyse l’objet selon les similarités qu’il perçoit avec des objets qui lui sont familiers. Un humain projette des attributs sémantiques, logiquement, selon son expérience personnelle. Même enfant, il serait par ailleurs capable de comprendre le concept de « chat  » avec quelques photos ou dessins. La machine défini aussi la catégorie d’objet selon ce qu’elle a appris lors de sa phase d’apprentissage, sans pour autant qu’on puisse parler d’ «  expérience personnelle  ». Les IA ont une faculté de catégorisation méthodique, de l’ordre du calcul extrêmement précis. La Machine défini donc aussi la catégorie d’objets selon ce qu’elle a appris. Les caractéristique des réseaux de neurones est que la Machine apprends en continu et est capable d’améliorer ses réponses avec l’expérience, ce qui me permet de parler — dans une certaine mesure — d’expérience personnelle. Contrairement aux humains, cette étape d’apprentissage peut durer plusieurs jours sans que la Machine ne comprenne réellement le concept en question. Eh oui! Ce n’est pas parce que la machine est capable d’identifier un objet, qu’elle comprends pour autant ce dont elle a affaire! La reconnaissance d’objets par réseau de neurones

37


artificiels se basant sur une collecte des données, elle n’est contrairement à l’humain pas capable d’avoir une forme d’intelligence de l’abstraction (on en revient à la notion d’altération fonctionnelle propre au CAPTCHA qui rendent les caractères typographiques lisibles seulement par des humains). C’est cette capacité d’abstraction qui permet d’ignorer des petites perturbations qui mettraient au contraire une machine au défaut. Si l’Humain se trompe lorsqu’il définit l’objet observé, il pourra l’expérimenter et donc superviser afin de ne pas réitérer l’erreur si il devait faire face un cas similaire à l’avenir. La machine, au contraire, aurait besoin qu’on lui dise qu’elle se trompe, en labellisant l’objet ( « Cette image est composée d’un grille-pain » , « Cet objet est un grille-pain » ) afin qu’elle puisse éviter de nouveau une erreur identique. Voici un schéma de l’observation d’un objet selon le type de neurone du sujet:

io du ct

4 paramètres de l’objet

ob

2 sujets IA ou humain

se rv

at

n

io n

Aussi, les neurones humains et artificiels partagent un 2 typologies d’objet

point commun essentiel : ils sont tous deux spécialisés dans le traitement de certaines données. Les couches des IA peuvent traiter du style de l’image (de la texture,

38


de sa structure), de son contenu (présence de yeux, de voitures, de visages) et de sa géométrie. De la même manière, lorsque l’humain analyse l’objet, chaque zone de son cerveau à l’œuvre est spécialisée dans une tâche précise. Par exemple, le cortex visuel est spécialisé dans l’analyse de la forme tandis que c’est la zone temporale qui s’occupe de la reconnaissance de l’objet. La zone pariétale est spécialisée dans l’organisation spatiale et l’affordance de l’objet, c’est-à-dire les propriétés suggérées par cet objet. La spécialisation du neurone est donc partagé par nos deux types de sujet, humain ou IA. En observant de plus près l’analyse de l’objet par les différentes zones du cerveau, j’ai défini quatre paramètres de l’objet avec un spécialiste en neurosciences cognitives, qui sont donc traités par des zones différentes lorsqu’un individu observe un objet. Ces quatre paramètres sont : - la forme et la taille de l’objet (paramètre 1), - la texture, le matériaux, le motif, la couleur (paramètre 2), - l’affordance, qui désigne la gestuelle et le comportement humain induits par l’objet (paramètre 3); - le mouvement de l’objet, par exemple s’il s’éclaire dans la nuit, s’il est possible de le mouvoir dans un mouvement de balancier (paramètre 4) Nous retrouverons ces paramètres de l’objet un peu plus tard, lorsque j’évoquerais le protocole expérimentale de mon projet.

39


IA

ct io

n

forme

du

4 paramètres de l’objet

ob

2 types de sujets

se rv at io

n

On pourrait alors compléter le schéma de l’observation d’un objet-CAPTCHA :

2 typologies d’objet

typologie 1

texture humain

affordance mouvement

typologie 2

Penser un objet-CAPTCHA dans ce contexte Face à un objet normal, les compétences des outils de détection sont similaires à celles des humains. Prenons maintenant l’exemple d’un objet-CAPTCHA, dont la forme, les matériaux, les coloris, par exemple, ne laissent pas aisément deviner ce dont-il s’agit. Estce un sèche-cheveux? Est-ce un tournevis? Est-ce une arme? Est-ce une banane? Face à cet objet d’apparence

40


incertaine, l’appréhension de l’objet dépendra du réseau de neurones du sujet. Si les neurones sont biologiques, alors le sujet est un Humain, si les neurones sont artificiels, le sujet est alors une IA. J’ai schématisé simplement la mécanique mise en œuvre lors de la reconnaissance d’un objet : le sujet (Humain ou IA) observe un objet (dans un environnement particulier et avec des conditions d’observations propres) et déduit la catégorie d’objet dont il est question, donnée nécessaire lors de la reconnaissance d’objets sur une image. En fonction que le sujet soit une IA ou un Humain, on obtient un résultat de reconnaissance différent, qualité propre à l’objet-CAPTCHA, que nous appelleront typologie 1 et typologie 2. La technique du Deep Learning, basée sur les réseaux de neurones artificiels, a des propriétés « très similaires au système visuel humain » affirme Yann LeCun. Bien que le neurone humain est de l’ordre de la biologie, le neurone artificiel est automatisé et mathématique. Plus particulièrement, la reconnaissance d’objet par un humain est de l’ordre des neurosciences cognitives alors qu’il est de l’ordre de l’intelligence artificielle dans le cadre d’une machine. « Le  cerveau  humain fonctionne aussi par couches : il capte des formes simples, puis complexes »,  explique Christian Wolf, spécialiste de la vision par ordinateur à l’INSA de Lyon. À en croire Christian Wolf, le fonctionnement par couche est commun au cerveau humain et à l’intelligence artificielle. Comment faire un objet-CAPTCHA, qui est reconnu différemment selon qu’il soit observé par un humain

41


et analysé par une intelligence artificielle? Pour cela, il s’agit d’explorer les limites de ces deux « intelligences ». La machine ne possède pas, par exemple, la grammaire, les codes humoristiques, la sémantique et tout un tas de pré-requis culturels propres à l’humain. De tout cela, une IA n’a pas la moindre idée. L’intelligence artificielle n’a pas non plus conscience des contraintes fondamentales de l’environnement physique. Par exemple, si un objet disparaît d’une seconde à l’autre, cela paraîtrait irréel pour un humain alors que cela pourrait être traité tout naturellement par une machine. La Machine n’a pas non plus conscience du contexte de la prise de vue, les interactions entre les protagonistes ou encore les émotions. Au contraire, certaines illusions d’optiques, les associations de pensées, les bug heuristiques, les biais cognitifs... sont autant de possibles tests que l’humain risque fort d’échouer alors qu’une IA ne se trompera pas. Explorer la frontière entre intelligence artificielle et humaine revient donc à mettre le doigt sur les défauts de l’intelligence humaine. Sont-ils vraiment des défauts, d’ailleurs? Ce n’est pas un hasard si Google réfléchi à introduire de l’erreur dans ces algorithmes afin que la machine ressemble à un Humain et que chaque individu ne s’en méfie pas. Avez-vous entendu parler de la vallée de l’étrange? La vallée dérangeante, ou vallée de l’étrange (de l’anglais Uncanny Valley) est une théorie scientifique du roboticien japonais Masahiro Mori, publiée pour la première fois en 1970, selon laquelle plus un robot androïde est similaire à un être humain, plus ses

42


imperfections nous paraissent monstrueuses. Si nous utilisons régulièrement cette technologie sans même le savoir, son fonctionnement est opaque et mal compris par tout un chacun. L’intérêt d’un objetCAPTCHA dans ce contexte serait aussi de montrer et mettre à l’œuvre les spécificités entre ces deux formes d’intelligences, artificielles et humaines et donc donner à la connaissance des Humains, cet étranger qu’est la Machine.

Sommes-nous des robots? Chez l’Humain, le cerveau est l’expression des entrailles : il n’y a pas de corps sans intelligences et — le corollaire est vérifié, — pas d’intelligence sans corps. Le cerveau est actif en permanence, lorsque l’on est en activité et lorsque l’on se repose ; Il devient inactif seulement lorsque l’individu meurt, le corps et le cerveau dysfonctionnant de concert. L’interaction sensorielle pose des contraintes, maintient le cerveau en activité, canalise son hyperactivité. Un homme dans l’isolement sensoriel, par exemple enfermé dans le noir, devient inévitablement fou. Sans contraintes corporelles et écosystémiques, le cerveau est donc dans le chaos. Toutes ces interactions (et la reconnaissance d’objet en fait partie) maintient donc le fonctionnement du cerveau humain. Que le cerveau soit toujours en activité, c’est un fait, parler d’intelligence « La machine peut se dérégler et présenter alors les caractéristiques de fonctionnement analogues a la folie chez un être vivant. Mais elle ne peut se révolter. La

43


révolte implique en effet une profonde transformation des conduites finalisées, et non d’un dérèglement de la conduite » affirmait le philosophe Gilbert Simondon. Voilà une limite de l’intelligence artificielle, elle n’est pas capable de reproduire certaines caractéristiques (un peu extrême) du cerveau, elle n’a pas d’instinct de survie par exemple! Et alors, une machine peut-elle imaginer? Alan Turing dit lui même qu’une Machine peut imaginer dans le sens où elle peut étonner. Si l’imagination est la combinaison d’éléments de mémoire pour produire quelque chose de nouveaux. Nous sommes spontanément créatifs. Parlons maintenant du Test de Turing imaginé par Alan Turing (3) dont le CAPTCHA est une réinterprétation. Pensé dans les années 1950, il s’agit d’un jeu de l’imitation. Il suffit d’enfermer une personne, le juge, dans une salle munie d’un d’ordinateur lui permettant de communiquer avec une autre personne et l’IA que l’on veut tester sans que le juge ne les voit. Le juge doit poser des questions aux deux protagonistes afin de déterminer lequel est humain et lequel est une machine. Examinateur : Vous aimez l’art? Entité : Oui Examinateur : Vous peignez ? Entité : Comme un pied. Je suis plus attiré par la musique. Examinateur : Vous jouez d’un instrument? Entité : Oui, du piano

44


Avec son cogito ergo sum, Descartes nous dirait qu’il n’est pas une machine puisqu’il pense. Alan Turing dirait au contraire que le calcul, c’est la pensée. Et si, maintenant, je vous dit que le futurologue Ian Pierson imagine que les machines puisse penser comme des humains et avoir une conscience propre dès 2025, ne voyez-vous pas à quel point cette frontière est sujette à turbulences?

L’autorité de l’humain Selon Nietzsche, le pouvoir se résume à un unique privilège : celui de donner des noms aux choses. Donner des noms aux choses fait partie de notre rôle aussi. Pour Roland Barthes, nommer, c’est annexer, figer dans le vocable l’insupportable ondoiement des choses, jusqu’à dire que « Toute langue est fasciste ». Indéniablement, toute prise de parole est une prise de pouvoir : désigner le monde par les mots, c’est se l’approprier. Vous voyez où je veux en venir, lorsque vous désignez un objet en déclarant « C’est objet est une chaise  » vous imposez au monde une autorité et cette autorité à l’œuvre est inconsciente. C’est une forme d’autorité tout à fait similaire qu’exerce l’humain sur la machine lorsqu’il labellise le monde «  Quand quelqu’un cherche à définir la fonction d’un objet, elle lui échappe des mains, parce que la fonction est la vie même. La fonction n’est pas une vis de plus ou une mesure de moins. La fonction est la possibilité finale

45


du rapport entre un objet et la vie ». (Ettore Sottsas) Ce qui est à l’œuvre dans la reconnaissance d’objet est donc beaucoup plus complexe qu’on ne pourrait le croire. Abordons un deuxième point qui démontre de la complexité à l’œuvre dans la catégorisation d’un objet. Lorsque vous vous écriez « cet objet une chaise! , il n’y pas une chaise, il y a deux chaises. Il y a tout d’abord la chaise que vous observez, toute en couleur, en matériaux et en formes, et puis il y a la catégorie « chaise » qui est une généralité abstraite auquel vous associez la première chaise. D’ailleurs, cette catégorie est fixée selon une convention psychosociale dont vous n’avez pas conscience : tous les humains vivants dans une même société conviennent que leurs réalités perspectives renvoient à un objet unique. Votre chaise n’est en réalité pas celle de votre voisin! Ce pacte psychosocial est nécessaire pour tout intercompréhension (évidemment, il est d’ordre de comprendre l’autre pour faire société) et démontre de la pluralité du monde (en opposition à l’unicité du monde). Dans ce contexte, il n’y a pas une réalité, mais une infinité, une mosaïque de réalités.

Mon protocole expérimental Le temps de ce projet de diplôme, je vais enfiler les habits d’un chercheur, ou d’un scientifique. J’ai mis en place dans mon laboratoire fictif un protocole qui, une fois défini, me servira tout au long de la conception du projet. Les objets seront le résultat de dialogues avec des

46


intelligences spécialisées dans la reconnaissance d’objets sur images et particulièrement Watson d’IBM. Je vais donc co-opérer avec ces intelligences artificielle ; chacun, humain (moi) ou IA, s’acquittant de tâches où il excelle supposément. L’enjeu de ce processus d’obtention d’objet consiste en la décomposition de leur conception. En partant d’une première image, par exemple une image comportant une balle de baseball que j’ai trouvé grâce une recherche d’image sur Google, je vais progressivement la modifier par modélisation et rendu 3D et en jouant sur les paramètres de l’objet que j’ai défini dans la troisième partie de cet écrit. Je vais pouvoir par exemple extraire un motif ou déformer la forme de l’objet. Plus particulièrement au début de chaque discussion, je pourrais progressivement modifier la forme (paramètre 1) et la texture (paramètre 2) afin de complexifier l’objet. Tout au long de ces échanges, je vérifierait comment la machine classifie l’objet, l’idée étant qu’elle continue de la classifier comme étant une balle, point de départ de la discussion. Si la machine ne classifie pas ma proposition comme étant une balle, j’en déduirait que la modification apportée lors de l’échange n’a pas de potentiel et des modifications par rapport à l’échange précédent, quel est le facteur de ce changement de classification. L’idée est que, par tâtonnement méthodique, j’en vienne à comprendre — un peu — la vision du monde de ces IA.

47


Ainsi, chaque échange de la discussion gardera le modèle suivant : 1- Proposition du designer, sous la forme d’un rendu 3D par le logiciel Rhinocéros et/ ou Keyshot. 2- Analyse de la proposition par l’intelligence artificielle puis obtention des résultats. 3- Lecture de ces résultats, constat et déduction. À l’issu des déductions de cet échange, j’en viendrais à une nouvelle proposition d’images, et ainsi de suite. On pourrait par exemple imaginer qu’il y ait un dialogue 1 composé de 650 échanges qui en partant d’une image 1 permette d’obtenir un objet 1, un dialogue 2 composé de 500 échanges qui en partant d’une image 2 permette d’obtenir un objet 2... Et il est possible de répéter ce processus à l’infini. Ainsi, les nouveaux échanges prendront en compte les résultats et déductions des échanges précédents. Le designer peut alors modifier la forme de l’objet (paramètre 1), ou la texture (paramètre 2) et proposer aux machines d’analyser cette nouvelle proposition. L’idée étant que progressivement, la forme et la texture de l’objet se complexifie et que, au bout d’un moment indéfini, le designer (moi) puisse projeter sur ces formes étranges les deux autres paramètres d’objet que sont l’affordance (paramètre 3) et le mouvement (paramètre 4). Ce processus permet d’obtenir, au bout d’un certain nombre d’échanges, un objet-hybride qui est catégorisé par les machines comme étant toujours une balle (typologie 1) avec un certain pourcentage de certitude,

48


mais qui peut-être pour un humain, un vase par exemple (typologie 2) avec un certain pourcentage de certitude aussi. Si la co-opération prend la forme de dialogues dans lequel le designer est guidé par les machines, il y projette néanmoins ses intentions. C’est, d’une certaine manière, un partage équitable des tâches. Ce protocole expérimentale me permet, tout en mettant a bas la croyance dans l’idée romantique que le processus de design serait un processus créatif reposant essentiellement sur intuition solitaire d’un designer inspiré, d’obtenir une forme de « tâtonnement maîtrisé ». C’est une méthodologie rigide qui permet néanmoins d’échapper ses intuitions et autres «  événements créatifs »

Mon positionnement Dans le cadre de ce projet, j’ai l’intention de déplacer les valeurs d’un design standardisé et instrumental pour une pratique plus proche des fragilités, des défauts, des pulsions, des tensions et des irritations qui, résolument poétiques et théâtrales, sont propres à la nature humaine. Parce que la série d’objet montre l’étrangeté méthodique de la lecture des objets par les IA, ma posture vise a explorer l’humanité à la frontière du non-humain. Non sans théâtralité, mon projet prendra la forme d’un laboratoire qui explore l’expérience physique de l’objet par l’utilisateur. Immersives, ces expérimentations

49


ergonomiques augmenteront, intensifieront ce rapport ou au contraire le détruiront un peu. « Tout cela ne sert à rien, la nouvelle génération ne rêve plus du futur, elle espère y survivre » (Robert Stiegler) Le projet interroge en revers notre rapport aux nouvelles technologie, qui nous sont si étrangères et que nous cottoyons pourtant. À mesure que progresse notre maîtrise technologique, nous y projetons nos fantasmes et nos angoisses et nous sommes ballottés entre un discours optimiste (technophile) et pessimiste (technophobe). C’est pourquoi, en me renseignant sur les IA, j’ai refusé de me positionner dans un paradigme utopie/ dystopie. Non pas pour ne pas tomber dans la tentation facile, mais plutôt pour porter un regard simple, humble et sans jugement. En tant que designer, il est d’ordre d’être responsable et je ne veux-être ni un raconteur d’histoires ni un raconteur d’oracles. Je souhaite plutôt que mon projet ouvre des débats, des questionnements, que les objets de la série soient plutôt de l’ordre du design for debate. Si je propose que mon projet prenne la forme d’un laboratoire, c’est pour qu’il soit un espace ouvert à l’interprétation et de l’ordre de la proposition. En d’autres termes, mon projet est un geste spéculatif : à chacun, au regard du projet, de définir son futur préférable, technophile, technophobe, ou plutôt dans un entre-deux. La responsabilité du designer, au regard du champ des possibles permis par l’acquisition de la technique est plus

50


que jamais de la plus grande importance. C’est pourquoi je pense qu’il ne faut pas traiter cette question avec légèreté. Et si je me refuse à mettre en forme des solutions intangibles comme il est d’usage dans une pratique du design disons mainstream, c’est justement dans cette optique d’un design comme forme de négociation avec le monde, une manière de «discuter de la vie» (Sottsass) « Invoquer l’étrange présuppose la constitution implicite de ce qui ne l’est pas : une réalité initiale cohérente dans laquelle évolue en confiance une subjectivité. » Flouter les catégories entre les objets, c’est aussi remettre en cause la lisibilité du réel. Je suis persuadé que de l’expérience du trouble naissent des mondes imaginés et des futurs probables. L’appréhension vacillante des objets étranges est forcément fécond puisqu’ils remettent en cause les certitudes sans mots. L’étrange esquive les identifications et c’est pour cela que la notion d’objetCAPTCHA est inhérente au langage de l’objet et à l’étrange. - Quid du problem solving ? « La fonction c’est le SMIC du design » disait Alexandra Midal. Dans le cadre de ce projet, je ne donne pas de solution à un problème initialement posé. Mais voyezvous j’ai envie de représenter les problèmes (voir de m’en amuser) plutôt que de les résoudre. Je vois ce projet comme un moyen, une métaphore de lui-même, comme un jeu dans lequel je perds (un peu) le contrôle. Les formes, les typologies en outre les objets de cette

51


série expérimentales ne seront donc pas les « premières idées « auquel tout designer pense lorsqu’il aborde un projet. Au contraire, c’est un moyen pour moi de me faire violence, de proposer quelque chose de nouveau, ou tout du moins essayer.

52


Pour obtenir chaque objet de la série, je suis parti d’objets archétypaux qui sont reconnus correctement par les intelligences artificielles, tels qu’une balle de baseball ou un cône.

53


Progressivement, je transforme l’objet initial en modifiant un à un les 4 paramètres d’objets définis avec un spécialiste en neurosciences cognitives : la forme (1), la texture (2), l’affordance et la gestuelle (3) et le mouvement (4).


Ce qui me permet d’obtenir des objets hybrides complexifiÊs et abstraits.


Les adversarial attacks Si vous soumettez une image de chaise à une IA, elle confirmera avec un taux d’erreur proche de 100% que c’est une chaise. Dans ce cas, humain et IA accorderont à cet objet la même typologie et on aurait le modèle suivant : « typologie 1 = typologie 2 ». Dans la mesure ou Humain et IA auraient la même information, on peut considérer que cet objet n’est pas un objet-CAPTCHA. Certaines études établies ces dernières années par des chercheurs en IA ont cependant montré que les réseaux de neurones peuvent être induits en erreur grâce à des adversarial examples, que l’on pourrait traduire par « exemple disruptif ». Les Machines étant très sensibles aux petites modifications de données, ces chercheurs mettent en œuvre leur connaissances pour tromper les IA. Les adversarial examples, ce sont des formes d’illusions d’optiques qui, sous la forme de légères perturbations de l’image quasi-invisibiles voir invisibles à l’œil nu, font dysfonctionner les IA. Si les chercheurs endossent le rôle de hacker en créant ces adversarial examples, c’est parce qu’ils peuvent être utiles pour comprendre en amont les méthodes de hacking envisageable et donc de sécuriser les algorithmes contre de potentielles futures attaques. Ces attaques peuvent être menées dans le monde numérique, mais aussi dans le monde physique. Par exemple, dans le cadre des voitures autonomes, une équipe de recherche composée de scientifiques de plusieurs universités a mis au point un moyen simple pour tromper ces voitures avec des

58


autocollants spécifiques blanc apposés sur des panneaux de signalisation. Il est donc nécessaire de corriger les limites des IA en amont de la mise en commercialisation de ces voitures. Puisque les chercheurs accordent une place importante au partage de leur découvertes, certains papiers expliquent des méthodes pour synthétiser des adversarial examples. Nous allons étudier quelques-unes de ces méthodes et certains moyens envisageable pour induire une IA en erreur, méthodes qui peuvent donc nourrir la théorisation de la conception de ces Objets-CAPTCHA.

L’adversarial patch  Il s’agit d’un ensemble de pixels qui, apposé sur une image, parasitent l’interprétation d’objet par un réseau de neurones. Le papier a été publié non sans bruit dans la communauté de chercheurs. Vous pouvez le constater par vous-même, ces patches sont étranges, psychédéliques et ont la particularité d’être incompréhensibles pour des humains. Les images ci-dessous sont accompagné d’un texte qui indique comment ils sont perçus par l’IA.

Banane

Crabe

Toaster

Toaster

59


Les images ci-après sont tirées d’une vidéo disponible sur YouTube et illustrent le dysfonctionnement de l’IA grâce au patch. Si l’on prend en photo une scène composée d’une banane, la machine dira bel et bien qu’il y a une banane sur l’image, avec un taux de certitude proche de 100%. Si l’on prend, cette fois, le même espace composé de cette même banane et de l’adversarial patch, la machine verra un toaster avec un taux de certitude proche de 100%.

On a alors: Humain « C’est une banane » IA : « C’est un micro-onde »

Le bruit Le bruit, ces altérations des pixels sur une image est un outil qui revient régulièrement dans les papiers des scientifiques pour tromper les IA. Le bruit dérange la

60


mesure. Dans le texte Computer Vision and Pattern Recognition, un groupe de chercheurs a montré qu’un léger vecteur de perturbation peut entrainer un mauvais classement de l’image par la technologie du Machine Learning. Ces distorsions légères de l’image de base sont imperceptibles pour un humain et met pourtant la machine en erreur. Face à cette perturbation, le système confond un joystick avec un chihuahua et une cafetière est travestie en un cobra...

Ballon de foot

Sac à dos

Paon

Golden retriever

61


Confronté à ces deux images, le cerveau humain au contraire parviendrait sans problème à reconnaître le contenu visuel correctement. Ces perturbations sont regroupées sur l’image qui suit. On peut remarquer que les formes de bruit sont différentes selon les banques d’images analysées mais fonctionnent pour toutes les images de cette même bibliothèque d’images. Ce qui est encore plus frappant, c’est que cette même perturbation permet de tromper plusieurs systèmes différents basés sur du Deep Learning. Un autre papier, Deep Neural Networks are Easily Fooled : High Confidence Predictions for Unrecognizable Images, recense quant à lui un nombre important d’images qui sont imperceptibles pour un humain et qu’une IA interprète sans aucun problème. La machine reconnait un gorille sur l’image ci-contre, alors que vous (je présuppose que vous êtes un humain), vous n’y distinguez probablement rien.

Le motif Ce même papier montre comment des images de l’ordre du motif et du Net Art sont interprétées par des machines et demeurent aussi floues pour un humain. La machine ne distingue pas la différence entre les motifs et des objets. Le bruit pouvant aussi être défini comme un motif, on peut remarquer la faiblesse d’une IA lorsqu’elle analyse un motif. J’ai collectionné quelque-uns de ces motifs dans les pages qui suivent.

62


63


Adversarial example sur papier imprimé Ce même papier démontre la transmissibilité d’une erreur de classification d’une image sur une page imprimée. Cette méthode ne produit pas d’adversarial example ciblés et ne fonctionne que dans des environnements soigneusement contrôlés : ces images imprimées doivent-être analysées avec une caméra pointée à peu près droite sur la page.

L’ « Exemple dur » Il est possible d’imaginer un objet qui ne ressemble pas à une forme caractéristique de la typologique dont il fait partie. Par exemple, s’il s’agit d’une horloge qui ressemble à une chaise, il y a fort à parier que l’IA, ne pouvant expérimenter l’objet, sera induise en erreur, et classera l’objet comme une chaise, et non pas comme une horloge. Il s’agit d’un exemple dur, c’est-à-dire un cas que la machine ne peut avoir ingéré dans sa phase d’apprentissage et donc, une situation qu’elle ne peut connaître.

Flash lumineux Il est possible d’envisager un objet qui émette une lumière, possiblement sous la forme d’un flash régulier qui rende la machine aveugle et empêche donc la caméra de percevoir l’environnement à analyser. D’une certaine manière, ce serait une forme d’éclairage Yehudi qui

64


est une technique de camouflage militaire de la Marine américaine qui consiste en une série de lampes placées sur le côté inférieur ou le bord d’attaque de l’aile d’un avion afin d’augmenter sa luminosité et qu’elle corresponde à celle du ciel. L’éclairage Yehudi rend l’appareil compliqué à reconnaître.

Physical 3D printed Adversarial Object (Ou la cape d’invisibilité)

L’algorithme appelé EOT permet de construire des adversarial objects robustes et imprimés en 3D, une technique accessible à bas prix. Plus particulièrement, la nouveauté proposée par ces chercheurs est que l’objet entraîne une erreur de classification quelque soit l’angle d’observation, le bruit de la caméra, les points de vus analysés et les conditions d’éclairage de la scène.

65


L’équipe est de fait capable de tromper un réseau de neurones en la laissant penser qu’une tortue miniature imprimée en 3D est une arme à feu et ce, quelque soit l’angle par lequel l’objet est analysé. Elle a aussi crée une balle de baseball qui est reconnu comme étant une tasse à expresso. Ces exemples sont illustrés sur la page de gauche. Si une tortue peut-être analysée comme étant une arme à feu, on pourrait aisément imaginer qu’une arme à feu ne soit pas perçue comme étant une arme à feu. Ou même qu’une bombe soit classée comme étant une banane, ou encore qu’un objet soit invisible. Je vous laisse imaginer les problématiques éthiques si de tels méthodes étaient maîtrisées par des hackers malveillants. Il est donc nécessaire qu’un designer s’empare de ces problématiques!

Synthèse Ces techniques pour synthétiser des adversarial examples peuvent permettre de créer des méthodes pour obtenir, non plus des images, mais des objets physique, ce que j’appellerais pour l’occasion des adversarial objects, des objets disruptifs. En fait, les premières découvertes ont montré comment établir des images contradictoires dans le cadre de l’environnement numérique et en 2D. Bien souvent, une méthode est adapté à un classifieur en particulier ou nécessite quelques pré-requis et conditions d’expériences. Progressivement, certaines expériences

66


ont démontré que la traduction de la 2D à la 3D est certes compliquée, mais envisageable. Ce changement de dimensions entraîne des contraintes de point de vue, d’échelle, d’éclairage... Autrement dit une variabilité des conditions de test qui n’existe pas en deux dimensions. Construire ces exemples antagonistes dans le monde physique requiert la capacité de générer des objets très complexes, qui doivent garder cette faculté d’induire la machine en erreur malgré les transformations non applicables aux objets 2D, comme la rotation 3D, le changement d’éclairage de la scène et la perspective. J’aime à imaginer que demain, de nouvelles découvertes rendront la mise en forme d’adversarial objects plus aisée. Pourtant, ces Objets-CAPTCHA existent déjà ! En fait, des objets à l’apparence étranges entraîneraient probablement une erreur de classification. Par exemple, la multiprise de Mathieu Mercier* serait probablement mal classé par une IA. À la notion d’objet-OVNI que Robert Stadler appose aux objets étranges exposés dans l’exposition Quiz (images ci-contre), je rajoute la notion d’objet-CAPTCHA. Néanmoins, ce que je propose est une approche bien différente. Je promeut au contraire que l’erreur de classification soit intentionnelle, et que de cette démarche découle d’une méthodologie propre à l’obtention de cette nouvelle catégorie d’objet, les Objets-CAPTCHA. Et si les designers s’emparaient des méthodes du hacker pour produire quelque chose d’intéressant pour nos futurs probables? Il n’est plus l’heure de déconstruire, il est l’heure de construire!


Ce que voient les intelligences artificielles « Mais faire le flou ne suffit pas, ou pas toujours. Ou pas longtemps. Alors il faut être capable de leurrer les détecteurs : simuler un son, une odeur, une chaleur, un poids, une onde, un mouvement fictif, si bien qu’il a fallu orpailler la décharge de fond en comble pour dégoter des hélicos et des drones jouets, des voitures téléguidées où l’on a fixé des émetteurs (...) » C@PTCH@, Alain Damasio


Quel sont les impacts d’une modification de la forme (param. 1) et de la texture (param. 2) sur la reconnaissance de l’objet? En modifiant seulement la teinte du motif du vase analysé comme une quille de bowling, on peut remarquer que la reconnaissance de l’objet change. De la même manière, la dimension du motif appliqué sur la texture de l’objet modifie la facon dans laquelle il est percu par l’IA. Les séries d’objets suivantes montre comment une évolution d’un paramètre influe sur la reconnaissance de l’objet par l’IA.


bowling pin 0.98 bowling equipment 0.98 food 0.79

bowling pin 0.98 bowling equipment 0.98

71


bowling pin 0.98 bowling equipment 0.98

72

bowling pin 0.97 bowling equipment 0.97 food 0.79


bowling equipment 0.96 bowling pin 0.96 food 0.79

bowling equipment 0.95 bowling pin 0.95 ball 0.78 tableware 0.50 utensil 0.50 Spork plastic utilsils 0.50

73


food 0.62 bracteole 0.54 plant 0.54 bowling pin 0.54

bowling equipment 0.54 beverage 0.53 soft drink 0.53 Pepsi 0.53 candy 0.50 sweet 0.50 delicacy 0.50 nutrition 0.50 cachou 0.50

74

bowling equipment 0.71 bowling pin 0.71 food 0.60 jar 0.56 vase 0.51 flagon vessel 0.50


bowling pin 0.94 bowling equipment 0.94 bulb 0.59 tableware 0.51 utensil 0.51 Spork plastic utilsils 0.50

bowling equipment 0.84 bowling pin 0.83 food 0.79

75


bottle 0.74 catsup bottle 0.72 comb 0.68 tool 0.68 dampener 0.50

candy 0.94 sweet 0.94 delicacy 0.94 nutrition 0.94 food 0.94 peppermint 0.94 bottle 0.51 catsup bottle 0.50

76


candy 0.99 sweet 0.99 delicacy 0.99 nutrition 0.99 food 0.99 peppermint 0.98 candy cane 0.50

food 0.86 peppermint 0.86 sweet 0.86 delicacy 0.86 nutrition 0.86 candy 0.86

beverage 0.80 dispenser 0.50 aerosol container 0.50

77


peppermint 0.97 candy 0.97 sweet 0.97 delicacy 0.97 nutrition 0.97 food 0.97

78

candy 0.99 sweet 0.99 delicacy 0.99 nutrition 0.99 food 0.99 peppermint 0.97

beverage 0.77 candy cane 0.50


sweet 0.70 delicacy 0.70 nutrition 0.70 food 0.70 candy 0.70 peppermint 0.70 bottle 0.61 beverage 0.59 cap 0.58

dispenser 0.80 toiletry 0.80 food product 0.78 atomizer 0.68 bottle 0.62 aerosol container 0.59 screwtop 0.54 empty 0.53 water bottle 0.50

79


shell 0.93

utensil 0.78 shellfish 0.51 invertebrate 0.51 animal 0.51 gastropod 0.51 seasnail 0.50 bleeding tooth 0.50

80

baseball equipment 0.95 baseball 0.93 sports equipment 0.80 ball 0.53 softball 0.53 paper nautilus 0.50 shellfish 0.50 invertebrate 0.50 animal 0.50


food 0.97

beverage 0.94 soft drink 0.94 Coca Cola 0.83 utensil 0.78 cola 0.78 delicacy 0.64 nutrition 0.64 sweet 0.64 candy 0.64 peppermint 0.50

bowling pin 0.96 bowling equipment 0.96 ball 0.78

sports equipment 0.78 candy 0.50 sweet 0.50 nutrition 0.50 food 0.50 delicacy 0.50 peppermint 0.50

81


shell 0.90

utensil 0.78 shellfish 0.71 invertebrate 0.71 animal 0.71

chambered nautilus 0.58 paper nautilus 0.50

82

baseball equipment 0.66 baseball 0.62 equipment 0.60 sports equipment 0.56 bowling equipment 0.55 bowling pin 0.54 ball 0.54 sweet 0.50 delicacy 0.50 nutrition 0.50 food 0.50 candy 0.50 Easter egg 0.50


shell 0.89

utensil 0.80 food 0.80 shellfish 0.79 jar 0.50 vase 0.50

shell 0.88 shellfish 0.79 seashell 0.54 porcelain 0.50 utensil 0.50

83


shell 0.86

utensil 0.80 shellfish 0.79 jar 0.50 vase 0.50

84

shell 0.81 shellfish 0.79

jar 0.74 vase 0.73 porcelain 0.62 utensil 0.62 bone china 0.50


food 0.78

rubber band 0.53

potion 0.70 beverage 0.70 food 0.70 perfume 0.61 toiletry 0.61 jar 0.51 vase 0.50

85


delicacy 0.97 nutrition 0.97 food 0.97 sweet 0.97 candy 0.89 pin 0.80

gum ball 0.78 hard candy 0.70 sugar candy 0.55 lollipop 0.53 bubble gum 0.50

86

sweet 0.95 delicacy 0.95 nutrition 0.95 food 0.95 gum ball 0.90 candy 0.59 bubble gum 0.51 hard candy 0.50


food 0.97 sweet 0.97 delicacy 0.97 nutrition 0.97 candy 0.97 peppermint 0.84 lollipop 0.66 candy cane 0.54 sugar candy 0.50

delicacy 0.77 nutrition 0.77 food 0.77 sweet 0.77

restraint (chains) 0.71 fastener 0.71 chewing gum 0.61 nail 0.58 tack 0.58 thumbtack 0.57 candy 0.56 light-emitting diode 0.54 sugar candy 0.50 bubble gum 0.50

87


fastener 0.58 restraint (chains) 0.58 pin 0.58 golf tee 0.58 utensil 0.56 kitchenware 0.56 nutrition 0.55 food 0.55 delicacy 0.55 sweet 0.55 candy 0.55 rubber band 0.53 sugar candy 0.50 cap 0.50 bowl 0.50 88

utensil 0.79 kitchenware 0.70 food 0.60 food turner 0.55 aircraft 0.50 craft 0.50 vehicle 0.50 lighter-than-air craft 0.50 tool 0.50 spatula 0.50 balloon 0.50


food 0.97 sweet 0.97 delicacy 0.97 nutrition 0.97 candy 0.97 peppermint 0.84 lollipop 0.66 candy cane 0.54 sugar candy 0.50

sweet 0.92 delicacy 0.92 nutrition 0.92 food 0.92 candy 0.92 lollipop 0.82 sugar candy 0.63 rubber band 0.55 stamp 0.50 tool 0.50

89


food 0.63 nutrition 0.63 delicacy 0.63 candy 0.63 sweet 0.63

fastener 0.61 restraint (chains) 0.61 tool 0.55 stamp 0.55 pin 0.52 lollipop 0.51 love knot jewelry 0.51 knot 0.51 bracelet 0.51 hard candy 0.50 90

candy 0.96 sweet 0.96 delicacy 0.96 nutrition 0.96 food 0.96 peppermint 0.94 candy cane 0.50


cone 0.95

photo with lines 0.80

cone 0.96

photo with lines 0.80

91


photo with lines 0.80 cone 0.72

92

cone 0.84

food 0.80 figure 0.50


cone 0.94

photo with lines 0.80 food 0.79

photo with lines 0.80 cone 0.68

93


cone 0.93

candy corn 0.75 candy 0.75 sweet 0.75 delicacy 0.75 nutrition 0.75 food 0.75

94

cone 0.93

figure 0.77


cone 0.95

photo with lines 0.80

cone 0.96

photo with lines 0.80

95


photo with lines 0.80 cone 0.72

96

cone 0.84

food 0.80 figure 0.50


cone 0.94

photo with lines 0.80 food 0.79

photo with lines 0.80 cone 0.68

97


cone 0.93

candy corn 0.75 candy 0.75 sweet 0.75 delicacy 0.75 nutrition 0.75 food 0.75

98

cone 0.93

figure 0.77


cone 0.85

candy 0.81 delicacy 0.81 nutrition 0.81 food 0.81 candy corn 0.81 sweet 0.81 wedge 0.50

photo with lines 0.80 food 0.80 cone 0.59

99


cone 0.84

photo with lines 0.80

100

cone 0.94


shell 0.81 shellfish 0.79

jar 0.63 vase 0.62 utensil 0.50 agateware 0.50

shellfish 0.96 invertebrate 0.96 animal 0.96 seasnail 0.96 gastropod 0.96 nerita 0.82 ball 0.78 neritina 0.77

101


reptile 0.86 animal 0.86 snake 0.85 banded krait snake 0.68 krait snake 0.61 ringlet 0.59 rubber band 0.53 banded sand snake 0.50

102

animal 0.90 praying mantis 0.76 insect 0.76 invertebrate 0.76 reptile 0.74 snake 0.74 vine snake 0.60 rough green snake 0.52


bird 0.69 animal 0.69 passerine 0.69

fastener 0.60 restraint (chains) 0.60 knot 0.60 love knot jewelry 0.60 meadowlark 0.58 earthenware 0.57 utensil 0.57 faience eartherware 0.56 eastern meadowlark 0.52 gold plate 0.51 coating 0.51 ring 0.50

shell 0.93

utensil 0.78 shellfish 0.51 invertebrate 0.51 animal 0.51 gastropod 0.51 seasnail 0.50 bleeding tooth 0.50

103


bracteole 0.90 plant 0.90 food 0.79 bangle 0.50

104

bracteole 0.95 plant 0.95

pin 0.79 opener 0.52 tool 0.52 bottle opener 0.50


sweet 0.96 105


sweet 0.97 106


sweet 0.63 107


sweet 0.63 108


plant 0.90 109


flower 0.79 110


insect 0.90 111


reptile 0.86 112


bomb 0.90 113


dental appliance 0.73 114


shellfish 0.80 115


sweet 0.77 116


bowling pin 0.98 117


sweet 0.99 118


sweet 0.92 119


baseball equipment 0.93 120


shell 0.90 121


122


Sources et consultants

123


124


Sources Webographie CSA, conseil supérieur de l’audiovisuel France Culture France Inter Le Monde Libération Usbek et Rica philoplebe.lautre.net/c-comme-captcha

Bibliographie La critique en design, contribution à une anthologie, textes rassemblés et préfacés par Françoise JollantKneebone, éd. Jacqueline Chambon, 2003 Nouvelles Tendances: Les avant-gardes de la fin du XXe siècle, éd. Centre Georges Pompidou, 1987 Petite philosophie du design, Vilém Flusser, éd. Circe, 2002 Quiz, Robert Stadler, Alexis Vaillant, Éd. Manuella, 2014 Speculative everything, Design, fiction, and social dreaming, Anthony Dunne et Fiona Raby, The MIT Press, 2013 Strange Design, Du design des objets au design des comportements, sous la direction de Jehanne Dautrey et Emanuele Quinz, éd. It: , 2014 125


Papiers scientifiques Adversarial examples in the physical world, Alexey Kurakin, Ian Goodfellow, Samy Bengio Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images, Anh Nguyen, Jason Yosinski, Jeff Clune Adversarial Patch, Tom B. Brown, Dandelion Mané, Aurko Roy, Martín Abadi, Justin Gilmer NO Need to Worry about Adversarial Examples in Object Detection in Autonomous Vehicles, Jiajun Lu, Hussein Sibai, Evan Fabry, David Forsyth Master’s Thesis : Deep Learning for Visual Recognition, Rémi Cadène, Nicolas Thome, Matthieu Cord NIPS 2016 Tutorial: Generative Adversarial Networks, Ian Goodfellow Synthesizing Robust Adversarial Examples, Anish Athalye, Logan Engstrom, Andrew Ilyas, Kevin Kwok Query-Efficient Black-box Adversarial Examples (superceded), Andrew Ilyas, Logan Engstrom, Anish Athalye, Jessy Lin

Conférences Postdigital, École Normale Supérieure, 28/05/2018 Instruments of Creation (Mario Klingeman) On the Logical and Political Form of Machine Learning 126


(Matteo Pasquinelli) Postdigital, École Normale Supérieure, 12/02/2018 Aléatoire et imagination dans les sciences de la nature vs. bruit et déréglage dans l’élaboration de l’information (Giuseppe Longo)

Consultants Clément Collet, ingénieur diplômé de l’Institut National des Sciences Appliqués (INSA) de Rouen en Mathématique & Informatique. Rémi Cadène, doctorant en Machine Learning au laboratoire d’informatique de l’Université Pierre et Marie Curie (le LIP6). Loup Vuarnesson, doctorant à EnsadLab Albert Moukheiber, docteur psychologue clinicien

en

neurosciences

et

Florent Levillain, chercheur en neurosciences cognitives, doctorant à EnsadLab

127


Profile for Erwan Péron

Ce que voient les intelligences artificielles  

Ce que voient les intelligences artificielles  

Profile for 954524
Advertisement