Issuu on Google+

TRAVAUX PERSONNELS ENCADRES

Thème : L’INTELLIGENCE

ARTIFICIELLE

Problématique : En quoi les possibilités de créer une intelligence

artificielle forte sont-elles limitées ?

Robot « Nexi » capable de reproduire des émotions humaines, présenté à Laval lors du Salon de la réalité virtuelle.

Groupe : Jonathan Dupraz, Loïs Fradin, Antoine Porcheron-Roche.

1|Page


SOMMAIRE

I.

NOTION ET DEFINITION…………………………page 2-4

II.

CEVRES SANTE : EXEMPLE D’UTILISATION DE L’INTELLIGENCE ARTTIFICIELLE FAIBLE………………………...page 5-7

III.

INTERACTION COMMUNICATIVE AVEC UN PROGRAMME ………………………………………………………...page 8-11

IV.

LES LIMITES DE L’INTELLIGENCE ARTIFICIELLE : VERS UNE INTELLIGENCE ARTIFICIELLE FORTE……...page 11-12

ANNEXE…………………………………………………..…page 13

2|Page


I.

NOTION ET DEFINITION

Définition :

On entend par « intelligence artificielle » d’après l’un de ses créateurs Marvin Lee Minsky : la recherche de moyens possibles afin qu’une machine substitue l’être humain dans certaines de ses tâches en imitant ses compétences actuelles. Bien que les notions et approches de l’intelligence artificielle puissent varier, cette définition reste universelle et justifie à la fois ce genre de recherches, d’expérimentations et d’applications.

Il existe aussi deux distinctions fondamentales pour les approches sur l’intelligence artificielle : 1/ L’intelligence artificielle faible : C’est à la base une approche de l’ingénieur sur l’élaboration de systèmes de plus en plus autonomes qui visent à réduire le coût et le temps de supervision de machine, des algorithmes complexes utilisés pour la résolution de problèmes. La doctrine principale étant : « Imiter l’intelligence humaine » et non pas l’égaler voire la surpasser.

2/ L’intelligence artificielle forte : On la définit comme une machine reproduisant un comportement humain et qui a une réelle conscience de soi, capable d’éprouver de « vrais sentiments » (quoi qu’on entende par ces mots) et à la fois de comprendre ses raisonnements.

3|Page


Ainsi, l’intelligence artificielle se présente utile dans de multiples domaines tel que : -le militaire, systèmes de drones autonomes, les systèmes de commandements… -la banque, systèmes experts évaluant le risque lié à l’octroi d’un crédit. -la médecine, systèmes experts favorisant l’aide au diagnostic. -les jeux, comme les programmes de structures très complexes défiant l’humain aux échecs, ou encore l’utilisation d’algorithmes qui présentent des interactions, des prises de décisions, des choix stratégiques dans les déplacements comme par exemple dans les jeux vidéos en ligne.

Afin de répondre clairement à notre problématique nous avons choisi de présenter deux cas concrets d’utilisation de l’intelligence artificielle faible : 1°)  Le domaine médical : ici nous présenterons la société Cevres Santé basée à Savoie Technolac qui conçoit et propose des systèmes de prévention, d’évaluation et de réadaptation de l’appareil musculaire. Nous étudierons un système de « proactivation » de la cheville : qui, par définition, teste et met en jeu les réflexes neuromusculaires. Ce type d’exemple servira à établir l’utilisation d’une méthode d’intelligence artificielle faible (relativement réduite dans la définition apportée précédemment) mais qui présente une réelle prise de décision et de gestion.

2°)  Le dialogue automatique : Nous avons créé un système sachant répondre à des questions basiques (programmé sous Python™) que nous lui posons, écrites au clavier. Ce programme n’est qu’une « illustration » de dialogue automatique ! Le but de ce programme présenté en seconde partie est de fixer les limites de la compréhension, du traitement d’analyse, et des réactions d’un tel programme, dont les notions fondamentales, et la théorie d’ensemble sur l’intelligence artificielle seront complétées par Sylvie Pesty : Professeur des universités en Informatique (à Grenoble), et chercheuse en Intelligence Artificielle (IA) dans le thème de l’Expressivité, Emotion et Agent Conversationnel Animé : ce sont des recherches qui s’orientent dans la compréhension et prise en compte dimensionnelle de l’expressivité et des émotions. Le dialogue automatique pris comme exemple, rejoint donc étroitement les connaissances et qualifications que Sylvie Pesty peut nous apporter.

4|Page


II.

CEVRES SANTE : EXEMPLE D’UTILISATION DE L’INTELLIGENCE ARTIFICIELLE FAIBLE

Le système présenté est le développement d’un poste expérimental au sein du Laboratoire de Physiologie de l’Exercice du département STAPS de l’Université de Savoie. L’objectif de ce projet consiste à provoquer des déstabilisations de la cheville, imprévisible et variables et reproductibles sur la base d’un signal de force, exprimé en pourcentage du poids du corps du sujet. Le chausson de la photo ci-dessous est maintenu par un électroaimant, si l’électroaimant est mis hors tension, le chausson bascule et créé donc une déstabilisation pour le sujet qui a son pied droit dans le chausson.

Premièrement, l’enjeu de cette expérimentation relève un certain niveau de développement pour que bien sur, le sujet ne se doute pas et ne cerne pas une certaine répétition et monotonie dans la série de tests, puisque cette déstabilisation doit susciter la surprise et non pas que le sujet s’habitue à cette déstabilisation ou s’y attende du à un rythme trop cyclique, ce qui fausserait l’expérience. Un programme (en Basic STAMP) détermine s’il y a basculement du chausson ou pas (autrement dit mise hors tension de l’électroaimant). Il y a trois cas possibles : 1) L’électroaimant reste sous tension, il n’y a donc pas de déstabilisation de la cheville (le programme revient au point de départ). 2) L’électroaimant est mis hors tension (donc déstabilisation de la cheville) quand le capteur détecte 20% du poids du sujet. 3) L’électroaimant est mis hors tension (donc déstabilisation de la cheville) quand le capteur détecte 80% du poids du sujet. 5|Page


(Voir figure a)

100 90 80 70 60 50 40 30 20 10 0

Cas 1 Cas 2 Cas 3

Pourcentage du poids Conversion en signal électrique (volt) Figure a.

Note : L’aspect purement électronique est développé dans la note technique en annexe : PROJET BSTAMP : CONTROLE DE DESTABILISATION DE LA CHEVILLE SUR LA BASE D’UN SIGNAL DE FORCE Exemple : les conversions de signaux analogiques en binaires exécutés par la carte d’acquisition : nous n’en tenant pas compte dans l’étude, car ceci s’éloignerait de notre problématique. L’explication de ces deux différents pourcentages (correspondant au poids appliqué par l’individu sur le système) d’après Romain Terrier, responsable scientifique de ce projet : « Le but de ce projet était de définir les différentes stratégies d’évitement suite à une déstabilisation, du membre inférieur droit : il fallait donc prendre des valeurs extrêmes, afin d’analyser les différents comportements neuromusculaires. Dans notre cas 20% et 80% convenaient parfaitement ». C’est à ce stade que la notion d’intelligence artificielle émerge et apparait sous la forme d’un programme de gestion : Dans un premier temps, les données concernant le poids de l’individu (signal numérique qui détermine le poids de l’individu de 0% à 100%) sont collectées dans le microprocesseur, mais à la fois le programme (pas de déstabilisation ou déstabilisation à 20% du poids appliqué ou déstabilisation à 80% du poids appliqué) doit être pris en compte par le microprocesseur (voir figure b).

6|Page


Microprocesseur

Programme

Données Figure b.

C’est ce type de fonctionnement qui caractérise ce programme d’intelligence artificielle faible : il y a une réelle prise de décision entre les données du poids du sujet et le programme qui détermine selon ces données les trois variantes d’actions possibles. Cette prise de décision en question est liée au programme qui agit selon les données qui lui sont transmises, on remarque deux cas de figure :

1°) L’ingénieur détermine à quel moment le chausson va basculer. Exemple : Sur une série de test de 50 prises : le basculement du chausson si 20% du poids du sujet est appliqué sera à la 8ème, 18ème et 41ème prise. Le basculement du chausson si 80% du poids du sujet est appliqué sera à la 25ème, 32ème ainsi que la 48ème prise. 2°) La mise hors tension de l’électroaimant (le basculement du chausson) est aléatoire. Exemple : Sur une même série de 50 prises, le basculement du chausson quand le poids appliqué est à 20% ou 80% le basculement sera aléatoire pour ces deux possibilités. Romain Terrier précise : « Il est judicieux de créer ce basculement à six reprises lors d’une série de 50. Le faire plus, causerait une habitude ou à l’inverse une crispation musculaire du sujet et donc ne représenterait aucun intérêt pour notre étude.» Grâce à ce procédé de programme prenant en compte plusieurs conditions et sachant les comparer avec des données en temps réel, l’équipe de Cevres Santé a pu obtenir des courbes convaincantes (voir note technique en annexe) montrant les agissements neuromusculaires de la cheville, ceci montre en effet les capacités d’une intelligence artificielle faible. 7|Page


III.

INTERACTION COMMUNICATIVE AVEC UN PROGRAMME : Création d’un programme de dialogue automatique Compléments d’informations communiquées par Sylvie Pesty

Afin de fixer les limites de l’intelligence artificielle et d’approfondir les notions et théories relatives à l’intelligence artificielle, nous avons choisi de nous intéresser aux interactions possibles entre l’être humain et une machine (dans ce cas le terme désigne un robot ou un programme), et plus précisément au dialogue automatique. Une des personnes de notre groupe a créé un programme en tentant d’imiter le dialogue automatique. Le principe du programme consiste à taper une question au clavier, et le programme répond avec des réponses variées et, s’il ne sait pas, le programme répond avec cinq variantes possibles et aléatoires. Exemple : Personne : Comment t’appelles tu ? Programme : Je n’ai pas de nom voyons, je ne suis qu’un programme ! Si la même question lui est posée une seconde fois il pourra répondre différemment (trois variantes de réponses possibles pour une question) Programme : Un nom ne m’est pas utile. Ou bien : Programme : Mon créateur ne m’en a pas donné. Si le programme est en incapacité de répondre à une question : Programme : Je ne sais pas. Ou Programme : Je ne peux pas répondre à cette question.

Avec trois autres variantes possibles. Une fois le programme réalisé, nous nous sommes aperçu que celui-ci se rapprochait plus d’un chatbot 1que d’un dialogue automatique et nous a permis de distinguer deux notions totalement différentes au niveau du raisonnement utilisé. 1

Un chatbot (ou chatterbot) est un programme qui a pour but de simuler une conversation intelligente avec un utilisateur 8|Page


Sylvie Pesty, spécialisée en agent conversationnel avec l’humain nous précise cette distinction : « Le rôle d’un chatbot n’est pas de comprendre la phrase, c’est pour cela que ce n’est pas un programme d’intelligence artificielle, c’est quelque chose qui donne l’illusion. Le dialogue automatique cherche à comprendre même si il est limité, quand au chatbot il se contente, lui, de relancer la conversation avec finesse.» Nous avons choisi d’étudier un autre programme de chatbot beaucoup plus complet que le notre : A.L.I.C.E. Même si ces programmes ne font pas partie d’une intelligence artificielle quelconque, il existe le test de Turing : qui est une proposition pour définir si une machine fait preuve d’intelligence artificielle. On met face à face un humain et une machine, ainsi qu’un autre humain représentant le jury. Si le jury ne trouve pas qui est la machine, on dit alors que la machine a réussi le test, et cette méthode sous-entend que l’humain et la machine, durant le test, essaient d’avoir l’apparence la plus humaine possible. Le chatbot A.L.I.C.E a remporté ce test de multiples fois : mais est- ce que ceci prouve que le programme est artificiellement intelligent ? Afin d’apporter une réponse, nous avons testé le programme et, en quelques lignes de conversation, des défauts apparaissaient rapidement, de plus en plus amplifiés, lorsque nous avons diversifié la conversation : Human: what is the largest? ALICE: I can ask my botmaster. Human: plane or car? ALICE: No preference. Human: what is the largest, plane or car? ALICE: There is no highest plane or car. Human: what is the largest, plane or car? ALICE: There is no highest plane or car.

Sans chercher le moindre sens à ce que le programme dit, il a scindé la question « Quel le plus grand ? L’avion ou la voiture? » Et répond dans un premier temps, qu’il doit consulter son créateur et répond, pour la seconde partie de la question, qu’il n’a pas de préférence. La question était pourtant posée en deux parties sur une même ligne, que le programme sépare en deux questions distinctes à cause de son impossibilité à répondre. Le chatbot cherche en fait à donner une réponse même si la question n’est pas dans sa base de données. Ensuite, la question est agencée différemment avec une virgule au lieu d’un point d’interrogation, cette fois-ci le chatbot ne sait pas quoi répondre : le programme répond quelque chose de complètement insensé. La même question lui est répétée une seconde fois : au lieu de varier aléatoirement son impossibilité à répondre il répète sa réponse précédente. 9|Page


Sans nécessité de multiplier les échanges, les deux dernières questions répétées font la différence avec un chatbot et un dialogue automatique : le psychologue Paul Ekman, l’un des pionniers dans l’étude des émotions et leurs relations faciales affirme : « Dans un échange quelconque, il est nécessaire de prendre en compte les émotions de l’autre, si vous voulez le comprendre. » Cette affirmation accentue la différence entre les chatbots et les programmes de dialogues automatiques : seuls ces derniers reconnaissent de nos jours les expressions faciales humaines et savent les assimiler à des émotions. De plus, les programmes de dialogues automatiques peuvent reproduire ces émotions alors même qu’ils ne comprennent pas ces émotions. Exemple : Un programme de dialogue automatique confronté aux deux mêmes dernières questions, aurait pu reproduire un état émotionnel comme l’agacement : 1ère fois : « Je ne sais pas. » 2ème fois : « Pourquoi me reposez-vous la question, puisque je vous dit que je ne sais pas ! » Sylvie Pesty nous apporte une dernière distinction quand au chatbot et au dialogue automatique : « Un chatbot peut disposer d’une base de données et répondre par exemple à des questions basiques de cultures générale, mais on ne peut pas vraiment parler de connaissance (pour un programme de chatbot). Qui dit connaissance, dit assimilation, en prenant l’exemple de l’arbre, il faut savoir qu’un arbre a des feuilles, qu’un arbre pousse, qu’il existe plusieurs variétés d’arbres, que l’arbre a des racines, que ces feuilles tombent à l’automne…C’est ce qui complexifie les programmes de dialogues automatiques ». L’élaboration d’un programme de dialogues automatiques ou des agents conversationnels nécessite l’intervention d’au moins quatre professions (voir figure c.).

10 | P a g e


Psychologue des actions

(Anthropologue)

Spécialiste en IA

Psychologue des émotions

Philosophe des langages

Figure c.

IV.

LES LIMITES DE L’INTELLIGENCE ARTIFICIELLE :

VERS UNE INTELLIGENCE ARTIFICIELLE FORTE ?

En revenant sur notre problématique, on constate un grand avancement sur les travaux de l’intelligence artificielle faible, mais quand est-il de l’IA forte ? Dès le début de notre entretien, Sylvie Pesty se prononce comme ne croyant pas à l’IA forte : « Une intelligence humaine fait preuve d’états mentaux tel que le rêve, une machine pourra bien vous dire qu’elle s’est mise en veille pour rêver, mais en aucun cas ce ne sera un rêve.» Et elle ajoute : « Mais à un moment donné, l’intelligence humaine va au-delà d’un simple raisonnement symbolique.» Ce terme de « raisonnement symbolique » fait partie du cognitivisme, qui est une pensée à propos du fait que l’ordinateur (la machine) utilise des symboles élémentaires dans toutes sortes de raisonnements. En fait, le principal problème qui s’oppose à l’intelligence artificielle forte est que l’humain est incapable de comprendre le fonctionnement intégral de son cerveau (même si des personnes spécialisées avancent à ce sujet), cet organe principal reste pour le moins « mystérieux ». En comparaison, l’intelligence artificielle faible prend en compte l’humain 11 | P a g e


comme « modèle », et ne cherche pas à reproduire exactement ses comportements, ses raisonnements mais à s’en approcher pour avoir une base de logique. Il y a aussi le problème de l’apprentissage. Admettons qu’une machine apprenne des millions de choses, ce ne serait rien comparé à un humain qui apprend et assimile des milliards de connaissances, il faudrait alors que la machine ait un espace de stockage immense. Dans l’apprentissage il y a aussi le traitement de mémoire qu’on dimensionne comme l’oubli. En sachant que l’oubli est involontaire, comment le traduire algorithmiquement, comment matérialiser cette oubli qui est complémentaire pour l’apprentissage? Mais ce qui va au-delà de notre pseudo rationalisation c’est cet état de « conscience » qui définit clairement l’intelligence artificielle forte, rien que dans le domaine philosophique expliqué ce qu’est la conscience, comment la concevons nous, relève déjà un certain niveau. Et s’il fallait traduire cet état de conscience en Algorithme, à ce propos Sylvie Pesty nous informe : « Aux premiers pas de l’intelligence artificielle, il existait des langages relativement spécifiques à l’IA, comme le LISP ou encore le Prolog, maintenant nous programmons en Java Script™, en Python™.» En allant encore plus loin dans le raisonnement, ces langages comme le Python qui appliquent des conditions, des entrées : à la base ces logiciels eux-mêmes sont des bases binaires, ils ne sont constitués que de suites de 0 et de 1. Toute cette réflexion pour en venir au fait que si l’humain pouvait comprendre l’intégral fonctionnement de son cerveau, il ne serait pas dit que les systèmes de logiques informatiques puissent résoudre le problème, et concevoir une intelligence équivalente à l’humain.

CO NCLUSION : Les travaux réalisés en commun nous conduisent à penser que les possibilités de créer une intelligence artificielle forte sont très minces. Comme l’humain est la seule base pour définir la notion de conscience, fondamentale pour l’IA forte, nous concluons donc que l’Homme est incapable d’expliquer et traduire ses états mentaux. Nous connaissons encore mal notre cerveau et son mode de fonctionnement. Malgré les travaux réalisés sur le système neurologique, les recherches sur l’IA forte progressent péniblement. Un autre facteur freine les recherches : on doute que l’intelligence artificielle forte, en admettant son existence, puisse être élaborée sur nos supports technologiques actuels, autrement dit, il faudrait nous diriger vers d’autres supports que l’informatique. 12 | P a g e


ANNEXE

Compléments d’informations :

Cevres Santé : http://www.cevres.com/

Sylvie Pesty : http://membres-lig.imag.fr/pesty/

A.L.I.C.E : http://alicebot.blogspot.com/

Paul Ekman : http://www.paulekman.com/

Cours sur l’IA : http://www-poleia.lip6.fr/~zucker/Teaching/DESS-EA/IA1.pdf

Marvin Lee Minsky : http://web.media.mit.edu/~minsky/

Dossier : PROJET BSTAMP : CONTROLE DE DESTABILISATION DE LA CHEVILLE SUR LA BASE D’UN SIGNAL DE FORCE

13 | P a g e


Dossier