{"id":15477,"date":"2018-03-02T16:55:35","date_gmt":"2018-03-02T15:55:35","guid":{"rendered":"http:\/\/www.oezratty.net\/wordpress\/?p=15477"},"modified":"2018-05-15T22:34:14","modified_gmt":"2018-05-15T21:34:14","slug":"ia-emotionnelle","status":"publish","type":"post","link":"https:\/\/www.oezratty.net\/wordpress\/2018\/ia-emotionnelle\/","title":{"rendered":"O\u00f9 en est l&#8217;IA \u00e9motionnelle ?"},"content":{"rendered":"<p>Dans le <a href=\"http:\/\/homepages.abdn.ac.uk\/f.guerin\/pages\/teaching\/CS1015\/abdn.only\/readings\/dartmouth.pdf\">fameux m\u00e9mo de John McCarthy d\u2019aout 1955<\/a>, les p\u00e8res fondateurs de la discipline de l\u2019intelligence artificielle en d\u00e9finirent les principes de base. Il s\u2019agissait de transposer dans des machines une bonne partie des capacit\u00e9s d\u2019intelligence humaine, notamment la compr\u00e9hension du langage, la vision et le raisonnement.<\/p>\n<p>L\u2019\u00e9motion n\u2019\u00e9tait pas encore au programme. Il comprenait tout juste l\u2019int\u00e9gration d\u2019une dose d\u2019al\u00e9atoire afin de g\u00e9n\u00e9rer de la cr\u00e9ativit\u00e9, une id\u00e9e de Nathaniel Rochester d\u2019IBM, l\u2019un des quatre protagonistes \u00e0 l\u2019origine du Summer Camp de Darmouth.<\/p>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-dbuts-de-lIA-motionnelle_9AD2\/Darmouth-College-Goal-7-Randomness-and-Creativity.jpg\"><img loading=\"lazy\" decoding=\"async\" style=\"background-image: none; padding-top: 0px; padding-left: 0px; margin: 10px 0px 10px 10px; display: inline; padding-right: 0px; border-width: 0px;\" title=\"Darmouth College Goal 7 Randomness and Creativity\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-dbuts-de-lIA-motionnelle_9AD2\/Darmouth-College-Goal-7-Randomness-and-Creativity_thumb.jpg\" alt=\"Darmouth College Goal 7 Randomness and Creativity\" width=\"465\" height=\"133\" border=\"0\" \/><\/a><\/p>\n<p>L\u2019IA se d\u00e9finissait comme <em>\u201cthe basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it\u201d. <\/em>L\u2019IA relevait donc de la cr\u00e9ation de machines qui pensent, mais sans \u00e9motions qui sont le propre de l\u2019homme. Au fil du temps, c\u2019\u00e9tait d\u2019ailleurs per\u00e7u comme un avantage par rapport \u00e0 l\u2019Homme. L\u2019absence d\u2019\u00e9motion implique une rationalit\u00e9 dont il ne fait pas toujours preuve dans ses processus de d\u00e9cision.<\/p>\n<p>Faisons un d\u00e9tour dans cette int\u00e9ressante Histoire du Summer Camp de Darmouth, via <a href=\"http:\/\/raysolomonoff.com\/dartmouth\/dartray.pdf\">Ray Solomonoff and the Dartmouth Summer Research Project in Artificial Intelligence<\/a>.\u00a0 Elle fut r\u00e9dig\u00e9e en 1996 par Grace Solomonoff, la femme \u2013 elle-m\u00eame scientifique &#8211; de Ray Solomonoff, l\u2019un des participants les plus actifs de cette \u00e9pop\u00e9e qui s\u2019\u00e9tait tenue pendant huit semaines de l\u2019\u00e9t\u00e9 1956 et qui avait r\u00e9uni de 20 \u00e0 32 participants, certains n\u2019\u00e9tant que de passage.<\/p>\n<p>D\u2019apr\u00e8s les notes de Ray Solomonoff, ce hackathon de l\u2019IA avait aboutit \u00e0 quelques publications,\u00a0 des rencontres de chercheurs compl\u00e9mentaires dans cette nouvelle discipline, l\u2019\u00e9mergence de nouvelles id\u00e9es, et celle selon laquelle elles pourraient aboutir dans un premier temps \u00e0 la cr\u00e9ation de machines capables de r\u00e9soudre des probl\u00e8mes tr\u00e8s sp\u00e9cialis\u00e9s.<\/p>\n<p>Deux courants cohabitaient et continuent de cohabiter dans l\u2019IA : celui du symbolisme ou du raisonnement d\u00e9ductif bas\u00e9 sur la connaissance existante, que l\u2019on retrouve dans les moteurs de r\u00e8gles et le syst\u00e8mes experts, et celui du connexionnisme, ou du raisonnement inductif, qui tire ses conclusions de l\u2019observation des \u00e9v\u00e8nements, et que l\u2019on retrouve aujourd\u2019hui dans la discipline du machine learning et du deep learning. En gros, soit on connait d\u00e9j\u00e0 les r\u00e8gles de fonctionnement de tel syst\u00e8me et on les utilise avec des moteurs de r\u00e8gles, soit on d\u00e9duit ces r\u00e8gles de l\u2019analyse de donn\u00e9es pour faire des pr\u00e9dictions.<\/p>\n<p>On en apprend un peu plus dans <a href=\"https:\/\/monoskop.org\/images\/1\/1e\/McCorduck_Pamela_Machines_Who_Think_2nd_ed.pdf\">Machines Who Think<\/a> de Pamela McCorduck (2003, 584 pages), une Histoire des premi\u00e8res d\u00e9cennies de l\u2019IA. L\u2019un des arguments contre la possibilit\u00e9 de cr\u00e9er des machines pensantes \u00e9tait qu\u2019il \u00e9tait impossible qu\u2019elles aient des \u00e9motions car celles-ci son \u00e9minemment biologiques. La robotique, surtout humano\u00efde, demandait cependant une certaine prise en compte d\u2019\u00e9motions, int\u00e9gr\u00e9es dans leurs capacit\u00e9s d\u2019int\u00e9gration et de communication avec leurs utilisateurs humains. Au d\u00e9part, cela rel\u00e8ve d\u2019un simple mim\u00e9tisme. Cela peut se sophistiquer avec la capacit\u00e9 d\u2019un robot d\u2019engager une discussion pour entrer en communication. L\u2019int\u00e9gration sociale des robots est devenue une question en soi int\u00e9grant la notion d\u2019intelligence \u00e9motionnelle.<\/p>\n<p>Dans <b>The Emotion Machine: Commonsense Thinking, Artificial Intelligence, and the Future of the Human Mind<\/b>, Marvin Minsky consid\u00e9rait que les \u00e9motions sont des attributs de l\u2019intelligence qui la mettent en relief. Les \u00e9motions sont le r\u00e9sultat de l\u2019activation de r\u00e8gles de fonctionnement par le cerveau, surtout limbique, en r\u00e9action \u00e0 des \u00e9v\u00e8nements int\u00e9rieurs ou ext\u00e9rieurs. La plus connue est le stress en r\u00e9action \u00e0 un danger per\u00e7u. Il peut d\u00e9clencher des r\u00e9flexes de fuite ou de d\u00e9fense, avec des nuances qui d\u00e9pendent des circonstances, donc de r\u00e8gles. Minksy mettait bien en \u00e9vidence les relations complexes entre les \u00e9motions, les besoins et la pens\u00e9e et la sophistication des processus d\u2019apprentissage humains li\u00e9s en grande partie \u00e0 notre interaction avec notre environnement et avec d\u2019autres humains.<\/p>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-dbuts-de-lIA-motionnelle_9AD2\/Marvin-Minksy-The-Emotion-Machine.jpg\"><img loading=\"lazy\" decoding=\"async\" style=\"background-image: none; padding-top: 0px; padding-left: 0px; margin: 10px 0px 10px 10px; display: inline; padding-right: 0px; border-width: 0px;\" title=\"Marvin Minksy The Emotion Machine\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-dbuts-de-lIA-motionnelle_9AD2\/Marvin-Minksy-The-Emotion-Machine_thumb.jpg\" alt=\"Marvin Minksy The Emotion Machine\" width=\"172\" height=\"244\" border=\"0\" \/><\/a><\/p>\n<p><em>Fast-forward<\/em> en 2018. 62 ans apr\u00e8s le Summer Camp de Darmouth, o\u00f9 en sommes-nous dans l\u2019utilisation des \u00e9motions dans le cadre des usages de l\u2019intelligence artificielle ? Les sp\u00e9cialistes ont une d\u00e9nomination pour d\u00e9crire l\u2019IA \u00e9motionnelle : l\u2019informatique affective ou Affective Computing. La segmentation des \u00e9motions humaine est d\u2019ailleurs un sujet pas d\u00e9finitivement tranch\u00e9. Il y en a de nombreuses, l\u2019une des plus connues \u00e9tant la roue de Plutchik (<em>ci-dessous<\/em>). Elle comprend huit \u00e9motions de base structur\u00e9es en paires d&#8217;oppos\u00e9s : joie et tristesse, peur et col\u00e8re, d\u00e9go\u00fbt et confiance, et enfin, surprise et anticipation, avec trois niveaux d\u2019intensit\u00e9 et des combinaisons par paires. Les mod\u00e8les de cartographie d\u2019\u00e9motion les plus simples se contentent de n\u2019en conserver que quatre principale : la peur, la col\u00e8re, la joie et la tristesse.<\/p>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-dbuts-de-lIA-motionnelle_9AD2\/Roue-de-Plutchik.jpg\"><img loading=\"lazy\" decoding=\"async\" style=\"background-image: none; padding-top: 0px; padding-left: 0px; display: inline; padding-right: 0px; border-width: 0px;\" title=\"Roue de Plutchik\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-dbuts-de-lIA-motionnelle_9AD2\/Roue-de-Plutchik_thumb.jpg\" alt=\"Roue de Plutchik\" width=\"449\" height=\"451\" border=\"0\" \/><\/a><\/p>\n<p>Nous n\u2019avons toujours pas su cr\u00e9er de machines pensantes. Aucune IA ne sait raisonner de mani\u00e8re complexe, notamment par analogie. L\u2019IA actuelle est dite \u00e9troite car elle est faite de solutions \u00e0 des probl\u00e8mes relativement simples et monolithiques. Nous sommes dans le domaine de l\u2019intelligence augment\u00e9e et en (petites) pi\u00e8ces d\u00e9tach\u00e9es. Le raisonnement sophistiqu\u00e9 est la premi\u00e8re pierre d\u2019achoppement de l\u2019IA.<\/p>\n<p>Il en va de m\u00eame pour l\u2019int\u00e9gration des \u00e9motions dans l\u2019IA. Celle-ci est de plus en plus g\u00e9n\u00e9ralis\u00e9e, mais est tout autant mise en \u0153uvre en pi\u00e8ces d\u00e9tach\u00e9es qui fonctionnent plus ou moins bien selon les cas. La grande int\u00e9gration n\u2019est pas encore l\u00e0. Pourtant, gr\u00e2ce \u00e0 l\u2019IA, les machines peuvent faire plein de choses avec nos \u00e9motions. Elles peuvent en d\u00e9tecter certaines, les interpr\u00e9ter, parfois les expliquer, r\u00e9agir face aux \u00e9motions humaines, en afficher dans le cas des outils qui interagissent avec les humains, et m\u00eame interagir avec l\u2019Homme pour d\u00e9clencher chez lui des \u00e9motions et le faire agir en cons\u00e9quence. C\u2019est d\u00e9j\u00e0 fort impressionnant ! Au bout du compte, ces diff\u00e9rentes techniques servent notamment \u00e0 cr\u00e9er des chatbots capables de conduire des discussions r\u00e9alistes avec leurs utilisateurs et aux robots d\u2019avoir une forme \u00e9l\u00e9mentaire de sociabilit\u00e9.<\/p>\n<p>L\u2019objet de ce texte est de faire un voyage rapide dans le lien entre l\u2019IA et nos \u00e9motions puis de conclure avec quelques-unes des nombreuses questions \u00e9thiques pos\u00e9es par tous ces outils. Pour chaque exemple, je m\u2019appuyer sur des travaux de recherche et\/ou des solutions du commerce issues de grandes entreprises ou de startups.<\/p>\n<p><strong>IA qui d\u00e9tecte les \u00e9motions humaines<\/strong><\/p>\n<p>La d\u00e9tection des \u00e9motions humaines est un vaste champ assez mature de l\u2019IA. Il s\u2019appuie sur divers capteurs : vid\u00e9o, micros et biom\u00e9triques qui permettent d\u2019en savoir beaucoup sur nous. Au d\u00e9part, les capteurs et logiciels d\u00e9di\u00e9s \u00e0 la d\u00e9tection des \u00e9motions fonctionnaient aussi en pi\u00e8ces d\u00e9tach\u00e9es. L\u2019heure de l\u2019int\u00e9gration est en train d\u2019arriver.<\/p>\n<p>La reconnaissance des \u00e9motions dans le visage \u00e0 partir de cam\u00e9ras est assez ancienne. Elle est standardis\u00e9e par le syst\u00e8me de description FACS pour <a href=\"https:\/\/www.paulekman.com\/wp-content\/uploads\/2013\/07\/Facial-Sign-Of-Emotional-Experience.pdf\">Facial Action Coding System<\/a>, cr\u00e9\u00e9 en 1978 par les psychologues am\u00e9ricains Paul Ekman et Wallace Friesenen.<\/p>\n<p>J\u2019avais d\u00e9couvert la startup Am\u00e9ricaine<strong> Affectiva<\/strong> au CES 2013 (voir le <a href=\"https:\/\/www.oezratty.net\/wordpress\/2013\/rapport-ces-2013\/\">Rapport CES 2013<\/a>, page 256). Cette startup pr\u00e9sentait une solution de captation les \u00e9motions d\u2019un utilisateur exploitant une simple webcam sur un micro-ordinateur. Il valorise un projet de recherche du MIT Media Lab et a depuis lev\u00e9 $26,3M. La startup visait le march\u00e9 de la publicit\u00e9 et du retail mais a eu du mal \u00e0 le p\u00e9n\u00e9trer. Depuis, ils s\u2019int\u00e9ressent au march\u00e9 de l\u2019automobile pour d\u00e9tecter l\u2019\u00e9tat du conducteur, comme le manque d\u2019attention, qui est une fonctionnalit\u00e9 finalement assez limit\u00e9e. Ils annoncent qu\u2019ils ont entra\u00een\u00e9 leurs mod\u00e8les de deep learning avec 5 millions de visages issus de 75 pays. Leur logiciel \u00e9value les param\u00e8tres suivants : joie, gaiet\u00e9, d\u00e9go\u00fbt, m\u00e9pris, peur, surprise, col\u00e8re ainsi que la valence (allant du n\u00e9gatif au positif), l\u2019engagement et l\u2019attention, reprenant la structure de la roue de Plutchik. Le tout exploite l\u2019analyse de 20 expressions faciales diff\u00e9rentes via des r\u00e9seaux convolutifs (ou convolutionnels) CNN et des SVM, l\u2019une des plus courantes m\u00e9thodes de segmentation du machine learning. Mais il est difficile de savoir o\u00f9 cette solution est d\u00e9ploy\u00e9e d&#8217;un point de vue pratique.<\/p>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-dbuts-de-lIA-motionnelle_9AD2\/Affectiva-Emotion-Detection.jpg\"><img loading=\"lazy\" decoding=\"async\" style=\"background-image: none; padding-top: 0px; padding-left: 0px; margin: 10px 0px 10px 10px; display: inline; padding-right: 0px; border: 0px;\" title=\"Affectiva Emotion Detection\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-dbuts-de-lIA-motionnelle_9AD2\/Affectiva-Emotion-Detection_thumb.jpg\" alt=\"Affectiva Emotion Detection\" width=\"383\" height=\"166\" border=\"0\" \/><\/a><\/p>\n<p>En France, la soci\u00e9t\u00e9 <strong>Datakalab <\/strong>fait encore mieux qu\u2019Affectiva en analysant simultan\u00e9ment plusieurs visages, comme les spectateurs d\u2019un \u00e9v\u00e9nement ou\u00a0 d\u2019une conf\u00e9rence. Sa solution peut ainsi d\u00e9terminer l\u2019int\u00e9r\u00eat d\u2019une audience pour une pr\u00e9sentation, ou comparer cet int\u00e9r\u00eat entre deux intervenants comme en mai 2017 pendant le d\u00e9bat d\u2019entre deux tours confrontant Emmanuel Macron \u00e0 Marine Le Pen. Cela objectivisait une impression partag\u00e9e sur la performance relative des deux finalistes ! Le service permet aussi d\u2019\u00e9valuer le niveau de stress de clients, comme dans l\u2019arriv\u00e9e en gare. Datakalab se positionne comme un cabinet de conseil en neuromarketing. Il n\u2019exploite pas que la vid\u00e9o mais aussi les informations issues de la voix et, optionnellement, de bracelets biom\u00e9triques.<\/p>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-dbuts-de-lIA-motionnelle_9AD2\/Datakalab-Audience-Emotion.jpg\"><img loading=\"lazy\" decoding=\"async\" style=\"background-image: none; padding-top: 0px; padding-left: 0px; display: inline; padding-right: 0px; border-width: 0px;\" title=\"Datakalab Audience Emotion\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-dbuts-de-lIA-motionnelle_9AD2\/Datakalab-Audience-Emotion_thumb.jpg\" alt=\"Datakalab Audience Emotion\" width=\"414\" height=\"211\" border=\"0\" \/><\/a><\/p>\n<p>La soci\u00e9t\u00e9 fran\u00e7aise <strong>XXII <\/strong>pr\u00e9sentait au CES 2018 sa plateforme d&#8217;intelligence artificielle <em>bio-inspir\u00e9e<\/em> destin\u00e9e au retail, \u00e0 la s\u00e9curit\u00e9 et aux v\u00e9hicules autonomes. Elle exploite des algorithmes de reconnaissance d&#8217;\u00e9motions et de micro-expressions, de reconnaissance et identifications de produits, de suivi de personnes et de reconnaissance et identification de gestes et de comportements pour identifier les agressions, chutes et autres dangers (<a href=\"https:\/\/www.youtube.com\/watch?v=wznM951LmjI\">vid\u00e9o<\/a>).<\/p>\n<p>L\u2019Am\u00e9ricain <b>Hire*View<\/b> (2004, $93M) exploite les vid\u00e9os d\u2019interviews en ligne de candidats au recrutement. Sa solution analyse leurs visages et identifie des traits de personnalit\u00e9. La solution est d\u00e9ploy\u00e9e chez Unilever aux USA, \u00e0 une \u00e9chelle difficile \u00e0 appr\u00e9cier. On arrive aux fronti\u00e8res acceptables de l\u2019\u00e9thique avec ce genre de solution ! C\u2019est au propre comme au figur\u00e9 du recrutement \u00e0 la t\u00eate du client ! Mais la solution pourrait aussi \u00eatre utilis\u00e9e pour s\u2019entra\u00eener, avec une boucle de feedback.<\/p>\n<p>Et ce ne sont que quelques exemples !<\/p>\n<p>L\u2019analyse des gestes et autres mouvements est un autre domaine o\u00f9 l\u2019IA peut jouer un r\u00f4le. Il est pour l\u2019instant moins courant que l\u2019analyse des visages, mais se d\u00e9veloppe de plus en plus. C\u00f4t\u00e9 recherche, voir l\u2019\u00e9tude europ\u00e9enne <a href=\"https:\/\/arxiv.org\/pdf\/1801.07481.pdf\">Survey on Emotional Body Gesture Recognition<\/a>, publi\u00e9e en janvier 2018 (19 pages) et qui fait un \u00e9tat des lieux. Elle illustre le fait que ce domaine est encore nouveau. L\u2019\u00e9quipe de recherche a men\u00e9 une exp\u00e9rience avec un syst\u00e8me \u00e0 base de cam\u00e9ra et de Microsoft Kinect pour classifier des gestes et identifier les \u00e9motions associ\u00e9es. Elle met en avant le fait que la signification de ces \u00e9motions d\u00e9pend de nombreux param\u00e8tres comme la culture des individus ainsi que le genre de la personne observ\u00e9e.<\/p>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-dbuts-de-lIA-motionnelle_9AD2\/Detection-emotions-dans-les-gestes.jpg\"><img loading=\"lazy\" decoding=\"async\" style=\"background-image: none; padding-top: 0px; padding-left: 0px; display: inline; padding-right: 0px; border-width: 0px;\" title=\"Detection emotions dans les gestes\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-dbuts-de-lIA-motionnelle_9AD2\/Detection-emotions-dans-les-gestes_thumb.jpg\" alt=\"Detection emotions dans les gestes\" width=\"509\" height=\"235\" border=\"0\" \/><\/a><\/p>\n<p>Encore plus surprenants, ces travaux de recherche publi\u00e9s dans <a href=\"https:\/\/arxiv.org\/abs\/1708.06026\">DeepBreath: Deep Learning of Breathing Patterns for Automatic Stress Recognition using Low-Cost Thermal Imaging in Unconstrained Settings<\/a> en aout 2017, visent \u00e0 d\u00e9tecter le niveau de stress d\u2019utilisateur avec des cam\u00e9ras infrarouges analysant le rythme de respiration des humains avoisinants. Le tout exploite un simple r\u00e9seau de neurones convolutif !<\/p>\n<p>Apr\u00e8s les visages et les gestes, on commence \u00e0 exploiter la voix pour d\u00e9tecter des \u00e9motions, au-del\u00e0 des fonctions habituelles de reconnaissance de la parole. La startup isra\u00e9lienne <b>Beyond Verbal<\/b> est sp\u00e9cialis\u00e9e dans la d\u00e9tection des \u00e9motions dans la voix. Elle l\u2019exploite aussi pour identifier des pathologies neurod\u00e9g\u00e9n\u00e9ratives \u00e9mergentes chez les personnes \u00e2g\u00e9es. La startup parisienne <b>Batvoice<\/b> utilise aussi la voix pour d\u00e9tecter l\u2019\u00e9tat \u00e9motionnel de clients et d\u2019op\u00e9rateurs dans les centres d\u2019appels. C\u2019est aussi le cas de la startup isra\u00e9lienne <strong>Nemesysco <\/strong>qui utilise sa solution d\u2019analyse des \u00e9motions dans la voix dans divers march\u00e9s y compris pour sonder les collaborateurs d\u2019une entreprise et d\u00e9tecter d\u2019\u00e9ventuels risques en termes de s\u00e9curit\u00e9 ou de fraudes. C\u2019est en quelque sorte un d\u00e9tecteur de mensonges. La fraude est \u00e9galement d\u00e9tect\u00e9e dans les appels de d\u00e9claration d\u2019incidents aux assurances. Mais on manque de donn\u00e9es ind\u00e9pendantes validant ou invalidant ces diff\u00e9rentes solutions.<\/p>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-dbuts-de-lIA-motionnelle_9AD2\/Nemesysco.jpg\"><img loading=\"lazy\" decoding=\"async\" style=\"background-image: none; padding-top: 0px; padding-left: 0px; display: inline; padding-right: 0px; border-width: 0px;\" title=\"Nemesysco\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-dbuts-de-lIA-motionnelle_9AD2\/Nemesysco_thumb.jpg\" alt=\"Nemesysco\" width=\"491\" height=\"295\" border=\"0\" \/><\/a><\/p>\n<p>Une \u00e9quipe chinoise vient de publier r\u00e9cemment <a href=\"https:\/\/arxiv.org\/ftp\/arxiv\/papers\/1707\/1707.09917.pdf\">A breakthrough in Speech emotion recognition using Deep Retinal Convolution Neural Networks<\/a> et propose une m\u00e9thode permettant d\u2019analyser plus efficacement les \u00e9motions dans la voix\u2026 en chinois, histoire d\u2019\u00e9viter de g\u00e9n\u00e9rer un trop gros taux d\u2019erreurs !<\/p>\n<p>Comme nous l\u2019avons vu avec Datakalab, la biom\u00e9trie sert aussi \u00e0 d\u00e9tecter les \u00e9motions, qu\u2019il s\u2019agisse de montres connect\u00e9es mesurant le rythme cardiaque ou la transpiration ou des casques de captation d\u2019ondes \u00e9lectroenc\u00e9phalogrammes. Une \u00e9quipe de recherche anglo-mal\u00e9sienne publiait ainsi <a href=\"https:\/\/arxiv.org\/ftp\/arxiv\/papers\/1709\/1709.09148.pdf\">Emotion-Recognition Using Smart Watch Accelerometer Data: Preliminary Findings<\/a> fin 2017 et illustrait comment capter des \u00e9motions avec l\u2019acc\u00e9l\u00e9rom\u00e8tre d\u2019une montre connect\u00e9e. Au CES 2018, j\u2019avais rep\u00e9r\u00e9 les Japonais <b>Imec<\/b> et le <b>Holst Centre<\/b> qui d\u00e9montraient un casque de captation EEG capable de d\u00e9tecter les \u00e9motions des utilisateurs. Le casque s\u2019appuie sur un algorithme de machine learning d\u00e9velopp\u00e9 par l\u2019Universit\u00e9 d\u2019Osaka. C\u2019est devenu une pratique assez courante, mais \u00e0 des fins exp\u00e9rimentales ou pour des applications sp\u00e9cifiques. Et pour cause, un utilisateur ne peut pas trimballer toute la journ\u00e9e un casque EEG sur sa t\u00eate ! Par contre, la nuit, pourquoi pas ! C\u2019est la technique utilis\u00e9e par la startup fran\u00e7aise <strong>Rythm <\/strong>avec son casque <strong>Dreem <\/strong>qui doit vous aider \u00e0 mieux vous endormir.<\/p>\n<p>Enfin, on peut aussi capter les \u00e9motions d\u2019utilisateurs en analysant leur production \u00e9crite. C\u2019est ce que font un paquet de startups qui analysent les sentiments dans les r\u00e9seaux sociaux ou la qualit\u00e9 des CV. Les startups<b> <\/b>fran\u00e7aises<b> Natural Talk <\/b>(2016)<b> <\/b>et<b> Cognitive Matchbox<\/b> (2016) proposent chacune une solution de routage d\u2019appels optimis\u00e9e aux centres d\u2019appels qui analyse la personnalit\u00e9 et les \u00e9motions des clients via leurs messages \u00e9crits afin de les orienter vers le meilleur agent. Elles exploitent les fonctions d\u2019IBM Watson d\u00e9di\u00e9es au traitement du langage naturel comme Personality Insights, Natural Language Understanding, Tone Analyzer, Document conversion, Twitter Insight et Natural Language Classifier.<\/p>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-dbuts-de-lIA-motionnelle_9AD2\/Emoshape-EPU-Chip.jpg\"><img loading=\"lazy\" decoding=\"async\" style=\"background-image: none; padding-top: 0px; padding-left: 0px; display: inline; padding-right: 0px; border-width: 0px;\" title=\"Emoshape EPU-Chip\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-dbuts-de-lIA-motionnelle_9AD2\/Emoshape-EPU-Chip_thumb.jpg\" alt=\"Emoshape EPU-Chip\" width=\"178\" height=\"178\" border=\"0\" \/><\/a><\/p>\n<p>La d\u00e9tection des \u00e9motions passe sinon de plus en plus par l\u2019int\u00e9gration des donn\u00e9es issues de plusieurs capteurs (vid\u00e9o, audio, autres). On appelle cela la captation multimodale d\u2019\u00e9motions. Elle est bien d\u00e9crite dans <a href=\"http:\/\/sentic.net\/affective-computing-review.pdf\">Affective computing From unimodal analysis to multimodal fusion<\/a>, publi\u00e9 par une \u00e9quipe de recherche anglo-singapourienne en f\u00e9vrier 2017 (28 pages).<\/p>\n<p>Cela permet d\u2019affiner les r\u00e9sultats et d\u2019obtenir des indicateurs plus pr\u00e9cis. Par contre, cela n\u00e9cessite des jeux de donn\u00e9es d\u2019entrainement cons\u00e9quents que les startups du secteur n&#8217;ont pas toujours \u00e0 leur disposition.<\/p>\n<p>Dans ce registre, la startup New-Yorkaise <b>Emoshape<\/b>, cr\u00e9\u00e9e par le Fran\u00e7ais Patrick Levy-Rosenthal, pr\u00e9sentait au CES 2018 son composant \u00e9lectronique Emotion Processing Unit (EPU, <em>ci-dessus<\/em>), destin\u00e9 \u00e0 d\u00e9terminer en temps r\u00e9el les \u00e9motions des utilisateurs et \u00e0 permettre aux robots et autres applications de r\u00e9pondre avec un \u00e9tat \u00e9motionnel en phase avec celui de l&#8217;utilisateur (<a href=\"https:\/\/www.youtube.com\/watch?v=nLpW_tL1TLU\">explication<\/a>). Le chipset va r\u00e9cup\u00e9rer les informations de bas niveau issues de diverses sources d&#8217;informations comme les analyses du visage r\u00e9alis\u00e9e par Affectiva, des analyses de la voix r\u00e9alis\u00e9es par d&#8217;autres outils et d&#8217;autres informations issues de capteurs divers (pouls, &#8230;) et\u00a0permettre \u00e0 une IA interagissant avec l&#8217;utilisateur d&#8217;adopter son propre \u00e9tat \u00e9motionnel, sur une palette riche de\u00a064 trillions d&#8217;\u00e9motions diff\u00e9rentes (<a href=\"https:\/\/www.youtube.com\/watch?v=GZyBGRtLP3E&amp;feature=youtu.be\">vid\u00e9o<\/a>), que ce soit par de la parole de synth\u00e8se comme avec WaveNet de DeepMind, de la g\u00e9n\u00e9ration d&#8217;avatars ou m\u00eame la gestuelle dans le cas d&#8217;un robot humano\u00efde. Le syst\u00e8me s&#8217;enrichit de plus par l&#8217;apprentissage pour d\u00e9velopper des \u00e9tats \u00e9motionnels associ\u00e9s aux utilisateurs qui interagissent avec lui. Il peut par exemple \u00eatre associ\u00e9 \u00e0 un g\u00e9n\u00e9rateur de langage naturel pour lui permettre d&#8217;accentuer son intonation en fonction des interactions \u00e9motionnelles avec l&#8217;utilisateur et des textes g\u00e9n\u00e9r\u00e9s par l&#8217;IA. Le chipset peut \u00eatre exploit\u00e9 dans divers contextes : robots, enceintes vocales, jeux vid\u00e9os, etc. C\u2019est de l\u2019<em>emotion in a box<\/em>.<\/p>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/2018\/ia-emotionnelle\/emoshape-process-2\/\" rel=\"attachment wp-att-15497\"><img loading=\"lazy\" decoding=\"async\" class=\"alignnone wp-image-15497\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/Emoshape-Process-1.jpg\" alt=\"\" width=\"457\" height=\"417\" srcset=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/Emoshape-Process-1.jpg 1746w, https:\/\/www.oezratty.net\/wordpress\/wp-content\/Emoshape-Process-1-300x274.jpg 300w, https:\/\/www.oezratty.net\/wordpress\/wp-content\/Emoshape-Process-1-768x701.jpg 768w, https:\/\/www.oezratty.net\/wordpress\/wp-content\/Emoshape-Process-1-1024x934.jpg 1024w\" sizes=\"auto, (max-width: 457px) 100vw, 457px\" \/><\/a><\/p>\n<p>Et ce n\u2019est qu\u2019un d\u00e9but. Ce genre de composant ou les fonctions associ\u00e9es seront peut-\u00eatre un jour directement int\u00e9gr\u00e9s dans nos smartphones et laptops et leurs logiciels tiendront compte de nos \u00e9motions pour interagir avec l\u2019utilisateur. On peut par exemple imaginer comment un moteur de recherche tiendrait compte de nos \u00e9tats \u00e9motionnels pour ajuster ses r\u00e9sultats. Histoire par exemple de ne pas vous d\u00e9primer plus si vous l\u2019\u00eates d\u00e9j\u00e0 !<\/p>\n<p>Bref, pour ce qui est de l\u2019expression ext\u00e9rieure de nos \u00e9motions, peu de choses semblent pouvoir \u00e9chapper aux capteurs, tout du moins en th\u00e9orie ! Reste \u00e0 savoir ce que les IA peuvent en faire ! Evidemment, tous ces capteurs et outils d&#8217;interpr\u00e9tation ne lisent pas dans nos pens\u00e9es, l\u00e0 o\u00f9 sont log\u00e9es nos r\u00e9elles \u00e9motions. Nos expressions les trahissent parfois, mais pas syst\u00e9matiquement et pas forc\u00e9ment avec suffisamment de pr\u00e9cision.<\/p>\n<p><strong>IA qui interpr\u00e8te et comprend les \u00e9motions humaines<\/strong><\/p>\n<p>Une fois que l\u2019on a d\u00e9tect\u00e9 les \u00e9motions ext\u00e9rieures avec un ou plusieurs des diff\u00e9rents capteurs et syst\u00e8mes \u00e9voqu\u00e9s ci-dessus, il faut les interpr\u00e9ter. Les \u00e9motions ont du sens en fonction du contexte. Elles d\u00e9pendent aussi de la culture et de la langue, pour ce qui est de la voix et de son intonation tout comme de la gestuelle.<\/p>\n<p>Des outils \u00e0 base d\u2019IA peuvent analyser la corr\u00e9lation entre les \u00e9motions et les \u00e9v\u00e8nements qui les g\u00e9n\u00e8rent. Cela permet par exemple d\u2019\u00e9valuer l\u2019impact de contenus, dans la publicit\u00e9 ou dans la fiction. Ces techniques reposent le plus souvent sur du machine learning. Pour le cas les plus complexes, comme dans l\u2019entra\u00eenement dit non supervis\u00e9 de chatbots, l\u2019entrainement peut s\u2019appuyer sur des r\u00e9seaux de neurones. Ils vont permettre d\u2019ajuster la nature des r\u00e9ponses aux questions en fonction du contexte \u00e9motionnel du dialogue entre le chatbot et l\u2019utilisateur.<\/p>\n<p>L\u2019interpr\u00e9tation intervient \u00e9galement dans l\u2019\u00e9valuation des \u00e9motions g\u00e9n\u00e9r\u00e9es par des contenus comme de la musique ou toute autre forme de cr\u00e9ation. Dans le cas de cr\u00e9ations g\u00e9n\u00e9r\u00e9es par des outils \u00e0 base d\u2019IA, cela permet de cr\u00e9er une boucle de feedback entre cr\u00e9ation \u00e0 base d\u2019IA et utilisateurs, histoire de d\u00e9terminer les contenus g\u00e9n\u00e9r\u00e9s qui ont le meilleur quotient \u00e9motionnel ! J\u2019avais \u00e9voqu\u00e9 cette possibilit\u00e9 dans un pr\u00e9c\u00e9dent article, <a href=\"https:\/\/www.oezratty.net\/wordpress\/2017\/ia-est-elle-vraiment-creative\/\">L\u2019IA est-elle vraiment cr\u00e9ative ?<\/a> de novembre 2017. Ces m\u00e9thodes pourraient aussi servir \u00e0 \u00e9valuer la pertinence de formes d\u2019humour g\u00e9n\u00e9r\u00e9es par des IA, essentiellement des agents conversationnels. L\u2019humour repose souvent sur l\u2019exploitation d\u2019analogies. Certaines fonctionnent bien et d\u2019autres non. Ce qu\u2019une boucle de feedback permet d\u2019\u00e9valuer avant qu\u2019une IA soit capable es-abstracto d\u2019exploiter des recettes miracles et r\u00e9p\u00e9tables de l\u2019humour.<\/p>\n<p><strong>IA qui agit en fonction des \u00e9motions humaines<\/strong><\/p>\n<p>Une fois d\u00e9tect\u00e9es et interpr\u00e9t\u00e9es, les \u00e9motions capt\u00e9es doivent servir \u00e0 quelque chose ! Qu\u2019il s\u2019agisse d\u2019un v\u00e9hicule autonome, d\u2019un robot ou d\u2019un agent conversationnel, ces outils peuvent exploiter leur interpr\u00e9tation des \u00e9motions pour r\u00e9agir. La prise en compte des \u00e9motions peut aussi intervenir dans les jeux vid\u00e9os. Le \u201cgameplay\u201d peut s\u2019appuyer sur des moteurs de r\u00e8gles qui sont int\u00e9gr\u00e9s dans le sc\u00e9nario des jeux. C\u2019est devenu d\u2019ailleurs une discipline \u00e0 part enti\u00e8re de l\u2019IA.<\/p>\n<p>L\u2019adaptation des modes d\u2019interaction des agents conversationnels aux \u00e9motions d\u00e9gag\u00e9es par les utilisateurs est dans le domaine possible. Dans un cas simple, un agent vocal peut adapter son d\u00e9bit de parole \u00e0 celui de l\u2019utilisateur. S\u2019il sent que l\u2019utilisateur est press\u00e9, il peut g\u00e9n\u00e9rer des r\u00e9ponses plus succinctes que si l\u2019utilisateur semble avoir du temps. Lorsque vous arrivez au travail, l\u2019IA de votre poste de travail exploitant sa webcam pourrait d\u00e9tecter votre humeur et vous distraire pour vous mettre de bon poil.<\/p>\n<p>Les actions d\u2019un agent qui interagit avec un utilisateur peuvent aussi exploiter une m\u00e9moire des \u00e9motions. L\u2019agent n\u2019aura pas forc\u00e9ment acc\u00e8s \u00e0 toute l\u2019histoire de la vie de l\u2019utilisateur comme ses traumatismes d\u2019enfance ou ses souvenirs. Il pourra par contre accumuler des souvenirs de ses interactions avec l\u2019utilisateur. Ceux-ci permettent \u00e0 l\u2019agent d\u2019adapter son comportement via de l\u2019apprentissage. Peu de syst\u00e8mes ont aujourd\u2019hui ce genre de capacit\u00e9s mais rien n\u2019emp\u00eache de les d\u00e9velopper.<\/p>\n<p>Des outils interactifs peuvent aussi nous aider \u00e0 ajuster le niveau \u00e9motionnel de nos propres productions. Ainsi, l\u2019outil <a href=\"https:\/\/cloud.google.com\/blog\/big-data\/2017\/04\/deepbreath-preventing-angry-emails-with-machine-learning\">DeepBreadth de Google<\/a>, qui n\u2019a rien \u00e0 voir avec le DeepBreadth \u00e9voqu\u00e9 pr\u00e9c\u00e9demment, conseille les utilisateurs sur l\u2019attitude \u00e0 adopter en \u00e9crivant des r\u00e9ponses \u00e0 des emails. Il pr\u00e9vient l\u2019utilisateur d\u2019un niveau d\u2019agressivit\u00e9 inappropri\u00e9 ! Ceci date d\u2019avril 2017 et prend la forme d\u2019un plugin de Chrome ! Il est exploitable sous forme d\u2019APIs en cloud par des d\u00e9veloppeurs d\u2019applications !<\/p>\n<p>Nous sommes ici face \u00e0 des sc\u00e9narios potentiels extr\u00eamement divers o\u00f9 la technique croise l\u2019\u00e9thique. D\u2019un c\u00f4t\u00e9, nous avons souvent besoin de machines qui calculent et raisonnent sans \u00e9motions, et de mani\u00e8re uniquement rationnelle, m\u00eame si des param\u00e8tres de d\u00e9cision de nature \u00e9motionnelle peuvent leur \u00eatre inject\u00e9es. De l\u2019autre, des syst\u00e8mes sophistiqu\u00e9s peuvent \u00eatre cr\u00e9\u00e9s qui utilisent les \u00e9motions humaines pour les manipuler \u00e0 des fins plus ou moins acceptables. Cela peut aller de tout ce qui permet de vendre quelque chose, de modifier l\u2019image d\u2019une marque, jusqu\u2019\u00e0 influencer nos choix citoyens et politiques. Les m\u00e9thodes Russes employ\u00e9es \u00e0 l\u2019occasion du Brexit ou de la pr\u00e9sidentielle US de 2016 ne sont qu\u2019un avant-gout de ce qu\u2019il serait possible de faire de mani\u00e8re tr\u00e8s sophistiqu\u00e9e dans ces registres.<\/p>\n<p>A contrario, dans le moins contestable, des m\u00e9thodes de psychoth\u00e9rapies curatives \u00e0 base d\u2019IA sont parfaitement envisageables. Un peu dans la lign\u00e9e du sc\u00e9nario du film Her.<\/p>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-dbuts-de-lIA-motionnelle_9AD2\/Fonctionnement-emotions-cerveau.jpg\"><img loading=\"lazy\" decoding=\"async\" style=\"background-image: none; padding-top: 0px; padding-left: 0px; display: inline; padding-right: 0px; border-width: 0px;\" title=\"Fonctionnement emotions cerveau\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-dbuts-de-lIA-motionnelle_9AD2\/Fonctionnement-emotions-cerveau_thumb.jpg\" alt=\"Fonctionnement emotions cerveau\" width=\"555\" height=\"199\" border=\"0\" \/><\/a><\/p>\n<p>La science pas si fiction que cela peut aller encore plus loin. On sait par exemple que diverses soci\u00e9t\u00e9s telles que Neuralink, cr\u00e9\u00e9e par Elon Musk, travaillent sur la connexion entre le cerveau humain et l\u2019IA. J\u2019avais eu l\u2019occasion de creuser le sujet dans une s\u00e9rie de trois articles sur \u201c<a href=\"https:\/\/www.oezratty.net\/wordpress\/2017\/startups-bidouille-cerveau-neuralink\/\">Ces startups qui veulent bidouiller le cerveau<\/a>\u201d en mai 2017. J\u2019\u00e9tais particuli\u00e8rement sceptique sur la capacit\u00e9 de ces projets de modifier notre m\u00e9moire dans le cortex pr\u00e9frontal, du fait de l\u2019extr\u00eame complexit\u00e9 de l\u2019organisation des neurones et de leur nombre. Notre m\u00e9moire est individuelle et distribu\u00e9e dans l\u2019ensemble du cortex pr\u00e9frontal, visuel, auditif et moteur dans des milliards de neurones et des centaines de milliards de connexions neuronales (synapses\/dendrites).<\/p>\n<p>Par contre, les techniques \u00e0 base d\u2019\u00e9lectrodes sur lesquelles planche <strong>Neuralink<\/strong> pourraient tr\u00e8s bien servir \u00e0 alt\u00e9rer le fonctionner de parties du cerveau limbique qui g\u00e9n\u00e8rent la s\u00e9cr\u00e9tion d\u2019hormones. Par exemple, pour nous rendre heureux ou malheureux, stress\u00e9 ou calme. La dopamine est produite dans le m\u00e9senc\u00e9phale \u00e0 la base du cerveau, l\u2019ocytocine vient de l&#8217;hypothalamus, l\u2019adr\u00e9naline est produite par les glandes surr\u00e9nales qui sont activ\u00e9es nerveusement par le cerveau, l\u2019endorphine est g\u00e9n\u00e9r\u00e9e par l\u2019hypophyse dans le cerveau, le cortisol est produit dans les glandes surr\u00e9nales par activation via l\u2019hormone ACTH g\u00e9n\u00e9r\u00e9e dans d\u2019hypophyse et la m\u00e9latonine est g\u00e9n\u00e9r\u00e9e dans l\u2019\u00e9piphyse dans le cerveau limbique. C\u2019est un peu plus plausible que l\u2019\u00e9criture dans le cortex car il s\u2019agit d\u2019activer des zones neuronales relativement simples, des sortes de robinets. Ces zones du cerveau limbiques sont par contre log\u00e9es au centre du cerveau et plus difficiles d\u2019acc\u00e8s.<\/p>\n<p>Ces techniques ont un double versant : elles pourraient servir \u00e0 traiter des pathologies\u00a0 comme le PTSD (Post Traumatic Stress Disorder) qui affecte par exemples les militaires revenant de th\u00e9\u00e2tres d&#8217;op\u00e9ration difficiles. Mais elles pourraient aussi servir \u00e0 contr\u00f4ler des individus pour les conditionner ou leur faire commettre des actes moralement r\u00e9pr\u00e9hensibles, et m\u00eame influencer leur vote lors d\u2019\u00e9lections ! Bref, danger !<\/p>\n<p><strong>IA qui affiche des \u00e9motions<\/strong><\/p>\n<p>Avant-dernier sujet de ce long inventaire des capacit\u00e9s \u00e9motionnelles de l\u2019IA, celui de l\u2019affichage d\u2019\u00e9motions par des IA, notamment via des agents conversationnels ou des robots. Les afficher revient d\u2019abord \u00e0 les simuler, pas forc\u00e9ment \u00e0 en avoir. Ce sont des moyens d\u2019anthropomorphiser des interactions avec les utilisateurs en utilisant les codes \u00e9motionnels de ces derniers. Mais l\u2019\u00e9tude des animaux, notamment domestiques, montre que les animaux sont capables d\u2019\u00e9mettre des \u00e9motions riches sans maitriser le langage. C\u2019est une source d\u2019inspiration qui permet aux chercheurs d\u2019\u00e9laborer des m\u00e9thodes d\u2019expression corporelle pour les robots. Comme l\u2019indique Jean-Marc Fellous dans <a href=\"https:\/\/www.aaai.org\/Papers\/Symposia\/Spring\/2004\/SS-04-02\/SS04-02-008.pdf\">From Human Emotions to Robot Emotions<\/a> (2004), la principale fonction de l\u2019affichage d\u2019\u00e9motions est de communiquer des informations de mani\u00e8re simplifi\u00e9e et efficace.<\/p>\n<p>La parole synth\u00e9tique devrait \u00eatre un moyen d\u2019\u00e9mettre des \u00e9motions verbales mais on est encore tr\u00e8s loin du compte. On peut le voir avec les solutions les plus avanc\u00e9es comme celle de <strong>Lyrebird<\/strong>, notamment dans cette <a href=\"https:\/\/www.youtube.com\/watch?v=YfU_sWHT8mo\">fameuse vid\u00e9o<\/a> mettant en sc\u00e8ne un Barack Obama de synth\u00e8se, \u00e0 la fois en vid\u00e9o et en audio. Qui plus est, l\u2019ancien Pr\u00e9sident am\u00e9ricain est plut\u00f4t \u201cdans le contr\u00f4le\u201d et dans la maitrise de ses \u00e9motions, donc l\u2019effet \u00e9motionnel est faible dans ce genre de prouesse technique.<\/p>\n<p>Dans <a href=\"https:\/\/arxiv.org\/pdf\/1711.05447.pdf\">Emotional End-to-End Neural Speech synthesizer<\/a>, publi\u00e9 en novembre 2017, des chercheurs cor\u00e9ens utilisent des r\u00e9seaux de neurones r\u00e9currents pour de g\u00e9n\u00e9rer une parole de synth\u00e8se capable d\u2019\u00e9mettre des \u00e9motions de mani\u00e8re plus r\u00e9aliste, mais ces progr\u00e8s sont tr\u00e8s incr\u00e9mentaux. D\u2019autres chercheurs travaillent sur la g\u00e9n\u00e9ration de gestes artificiels accompagnant la voix (cf <a href=\"https:\/\/arxiv.org\/pdf\/1708.01640.pdf\">Speech-Driven Animation with Meaningful Behaviors<\/a>, 2017).<\/p>\n<p>.<\/p>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-dbuts-de-lIA-motionnelle_9AD2\/Emotional-Speech-Synthetizer-2017.jpg\"><img loading=\"lazy\" decoding=\"async\" style=\"background-image: none; padding-top: 0px; padding-left: 0px; display: inline; padding-right: 0px; border-width: 0px;\" title=\"Emotional Speech Synthetizer 2017\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-dbuts-de-lIA-motionnelle_9AD2\/Emotional-Speech-Synthetizer-2017_thumb.jpg\" alt=\"Emotional Speech Synthetizer 2017\" width=\"545\" height=\"327\" border=\"0\" \/><\/a><\/p>\n<p>L\u2019expression d\u2019\u00e9motions passe aussi par les robots, notamment par la gestuelle comme avec celles de <strong>Nao<\/strong> d\u2019Aldebaran Robotics \/ Softbank Robotics ou m\u00eame celle des diff\u00e9rentes g\u00e9n\u00e9rations de chiens <strong>Aibo<\/strong> de Sony. Les yeux doux du <strong>Buddy<\/strong> de Blue Frog Robotics, pr\u00e9sent\u00e9s sur un \u00e9cran de tablette vont dans le m\u00eame sens mais de mani\u00e8re assez rudimentaire, tout comme son \u00e9quivalent un peu plus mobile chez <strong>Spoon.ai<\/strong>. Il en va de m\u00eame du robot <b>Honda<\/b> 3E-A18 pr\u00e9sent\u00e9 au CES 2018. C\u2019est un robot compagnon dou\u00e9 d\u2019\u00e9motions dans les expressions du visage qui ne sont que des images simplistes provenant d\u2019un \u00e9cran int\u00e9gr\u00e9 dans le haut de sa carcasse (<em>ci-dessous<\/em>).<\/p>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-dbuts-de-lIA-motionnelle_9AD2\/Honda-3E-A18.jpg\"><img loading=\"lazy\" decoding=\"async\" style=\"background-image: none; padding-top: 0px; padding-left: 0px; display: inline; padding-right: 0px; border-width: 0px;\" title=\"Honda 3E-A18\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-dbuts-de-lIA-motionnelle_9AD2\/Honda-3E-A18_thumb.jpg\" alt=\"Honda 3E-A18\" width=\"460\" height=\"308\" border=\"0\" \/><\/a><\/p>\n<p>On traverse la vall\u00e9e de l\u2019\u00e9trange (uncanny valley) avec les robots int\u00e9grant un visage anim\u00e9, une pratique courante chez les roboticiens japonais ou avec le fameux robot <strong>Sofia<\/strong> de Hanson Robotics, une startup cr\u00e9\u00e9e par David Hanson, un Am\u00e9ricain, et install\u00e9e \u00e0 Hong Kong. Sofia a un visage qui essaye d\u2019exprimer des \u00e9motions, mais cela reste rudimentaire, essentiellement pour des raisons m\u00e9caniques. Voir <a href=\"https:\/\/www.youtube.com\/watch?time_continue=135&amp;v=Bg_tJvCA8zw\">l\u2019interview de Sofia par Jimmy Fallon<\/a> qui date d\u2019avril 2017 et <a href=\"https:\/\/www.youtube.com\/watch?v=TS7zOBkkUG8\">une autre<\/a>, qui date de janvier 2018 au CES 2018. Sans grand progr\u00e8s apparent ! Sachant que les d\u00e9monstrations de Sofia sont parait-ils toutes script\u00e9es. Bref, de la fake IA !<\/p>\n<p>Nous sommes en fait encore tr\u00e8s loin de la vall\u00e9e de l\u2019\u00e9trange, ce syndrome du malaise que l\u2019Homme pourrait ressentir en interagissant avec un hypoth\u00e9tique robot qui serait trop humain dans sa forme et son expression. D\u2019o\u00f9 la cr\u00e9ation de robots qui n\u2019ont pas du tout l\u2019aspect humain, comme le fameux <strong>Kismet <\/strong>cr\u00e9\u00e9 \u00e0 la fin des ann\u00e9es 1990 au MIT par Cynthia Breazeal (<em>ci-dessous<\/em>). Ce syndrome de la vall\u00e9e de l\u2019\u00e9trange pourrait cependant se manifester avec les formes les plus avanc\u00e9es de robots sexuels o\u00f9 la plastique et le r\u00e9alisme corporel comptent plus que pour les robots conversationnels.<\/p>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-dbuts-de-lIA-motionnelle_9AD2\/Kismet.jpg\"><img loading=\"lazy\" decoding=\"async\" style=\"background-image: none; padding-top: 0px; padding-left: 0px; margin: 10px 0px 10px 10px; display: inline; padding-right: 0px; border: 0px;\" title=\"Kismet\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-dbuts-de-lIA-motionnelle_9AD2\/Kismet_thumb.jpg\" alt=\"Kismet\" width=\"292\" height=\"254\" border=\"0\" \/><\/a><\/p>\n<p>Il y aurait 43 muscles dans nos visages permettant d\u2019exprimer jusqu\u2019\u00e0 10 000 \u00e9motions diff\u00e9rentes ! Les robots en sont encore loin. C\u2019est d\u2019abord un probl\u00e8me de m\u00e9canique, puis d\u2019IA pour animer convenablement cette m\u00e9canique. D\u2019o\u00f9 l\u2019int\u00e9r\u00eat de travaux de recherche sur la cr\u00e9ation de muscles artificiels, comme <a href=\"https:\/\/wyss.harvard.edu\/artificial-muscles-give-soft-robots-superpowers\/\">ceux de Harvard et du MIT<\/a>.<\/p>\n<p>Mais la production d\u2019\u00e9motions synth\u00e9tiques est tout \u00e0 fait possible dans l\u2019immat\u00e9riel. Elle peut passer aussi bien par la cr\u00e9ation musicale que par la cr\u00e9ation de sc\u00e9narios de fictions \u00e9crites ou pour l\u2019audiovisuel, qui exploitent nos \u00e9motions. Leur conception doit cependant passer par une boucle de feedback humaine, ce qui rel\u00e8ve donc de l\u2019apprentissage supervis\u00e9.<\/p>\n<p><strong>IA ayant des \u00e9motions<\/strong><\/p>\n<p>La question suivante est de se demander si les IA peuvent avoir leurs propres \u00e9motions. Comme l\u2019Homme Bicentenaire, jou\u00e9 par Robin Williams en 2000, qui l\u2019un des rares films de science fiction de robots qui ne soit pas dystopique.<\/p>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-dbuts-de-lIA-motionnelle_9AD2\/Bicentennial-Man.jpg\"><img loading=\"lazy\" decoding=\"async\" style=\"background-image: none; padding-top: 0px; padding-left: 0px; margin: 10px 0px 10px 10px; display: inline; padding-right: 0px; border: 0px;\" title=\"Bicentennial Man\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-dbuts-de-lIA-motionnelle_9AD2\/Bicentennial-Man_thumb.jpg\" alt=\"Bicentennial Man\" width=\"455\" height=\"258\" border=\"0\" \/><\/a><\/p>\n<p>Les chercheurs en IA et en neurosciences s\u2019accordent pour l\u2019instant sur le fait que les formes actuelles d\u2019IA ne peuvent pas en avoir. Elles n\u2019ont pas de corps, pas d\u2019hormones, pas de m\u00e9moire de leur interaction avec le monde et ne sont pas pass\u00e9es par le processus d&#8217;apprentissage de la vie. Elles n\u2019ont pas de m\u00e9moire \u00e9motionnelle \u00e9quivalente \u00e0 celle de l\u2019Homme avec sa construction qui d\u00e9marre dans l\u2019enfance et se poursuit avec l\u2019apprentissage de la vie dans l\u2019adolescence puis l\u2019\u00e2ge adulte. Elles ne d\u00e9tectent pas v\u00e9ritablement nos \u00e9motions. Elles ne font que d\u00e9tecter l&#8217;apparence externe de nos \u00e9motions.<\/p>\n<p>Les robots n\u2019ont pas d\u2019envies, de d\u00e9sirs \u00e0 part le besoin d\u2019\u00e9nergie pour fonctionner. Ils ne connaissent pas la perspective de la mort, sauf dans la science-fiction comme le <strong>HAL<\/strong> de 2001 Odyss\u00e9e de l\u2019Espace qui ne veut pas mourir (aka: \u00eatre d\u00e9branch\u00e9).<\/p>\n<p>Pourtant, comme nous venons de le voir, les IA peuvent interpr\u00e9ter m\u00e9caniquement nos \u00e9motions sans en avoir et interagir avec les Hommes en simulant de l\u2019empathie. Cela reste encore une communication de forme asym\u00e9trique. En pratique, si on ne sait pas encore doter un programme de conscience ou lui permettant de ressentir des \u00e9motions, on peut toutefois les simuler. Mais aucun chatbot ne passe pour l\u2019instant le test de Turing, consistant \u00e0 pouvoir se faire passer pour un Humain.<\/p>\n<p>Est-ce que les travaux de cr\u00e9ation d\u2019AGI (intelligence artificielle g\u00e9n\u00e9rale) permettraient de lui adjoindre une capacit\u00e9 \u00e9motionnelle ? Ce n\u2019est pas le sens des travaux qui semblent lanc\u00e9s. Les startups qui planchent sur l\u2019AGI visent \u00e0 cr\u00e9er des sortes de syst\u00e8mes experts capables de r\u00e9soudre des probl\u00e8mes tr\u00e8s complexes, mais en conservant un raisonnement rationnel. La rationalit\u00e9 ultime est justement de ne faire preuve d\u2019aucune d\u2019\u00e9motion !<\/p>\n<p><strong>Ethique de l\u2019IA \u00e9motionnelle<\/strong><\/p>\n<p>Ce petit tour de l\u2019IA \u00e9motionnelle illustre un leitmotiv des usages potentiels de l\u2019IA : comme toute nouvelle technologie, on y trouve le meilleur comme le pire. Certaines applications cit\u00e9es ci-dessus sont d\u00e9j\u00e0 tr\u00e8s limites c\u00f4t\u00e9 \u00e9thique, comme avec ces syst\u00e8mes d\u2019analyse de la personnalit\u00e9 qui s\u2019attachent plus aux apparences visuelles voire auditives qu\u2019\u00e0 l\u2019histoire des individus ou \u00e0 leur intellect.<\/p>\n<p>Les recherches sur l\u2019\u00e9thique de l\u2019IA et des robots sont nombreuses. En France, <strong>Laurence Devillers<\/strong>, chercheuse au CNRS-LIMSI, et auteure de \u201cDes robots et des hommes\u201d, fait \u00e0 la fois le tri entre les mythes, fantasmes et r\u00e9alit\u00e9 de l\u2019\u00e9tat de l\u2019art en robotique et promeut une ligne de conduite \u00e9thique dans leur exploitation.<\/p>\n<p>Dans <a href=\"http:\/\/people.ict.usc.edu\/~gratch\/CSCI534\/Readings\/OHAC-14-Ethics.pdf\">Ethical issues in affective computing<\/a>, l\u2019Anglais <strong>Roddy Cowie<\/strong> fait aussi un tour assez complet de la question de l\u2019\u00e9thique de l\u2019IA \u00e9motionnelle.<\/p>\n<p>En pratique, les r\u00e9flexions sur l\u2019\u00e9thique de l\u2019IA sont fortement influenc\u00e9es par la science fiction. Comme ses auteurs ont tendance \u00e0 privil\u00e9gier les dystopies aux utopies, nous avons l\u2019embarras du choix pour identifier des sc\u00e9narios qui pr\u00eatent \u00e0 la r\u00e9flexion. C\u2019est particuli\u00e8rement visible dans la s\u00e9rie <strong>Blackmirror<\/strong> qui imagine le pire dans tout un tas de situations d\u2019un futur plus ou moins \u00e9loign\u00e9, int\u00e9grant g\u00e9n\u00e9ralement une association d\u2019IA, de robotique et de mondes virtuels. Est-ce que l\u2019imagination du pire permet de l\u2019\u00e9viter ? L\u2019histoire r\u00e9cente montre que cela d\u00e9pend.<\/p>\n<p>Le chemin le plus court vers la d\u00e9mocratisation des innovations technologiques associe les besoins humains et ceux des entreprises. Les fondements du capitalisme se souciant peu de morale, rien n\u2019est bien s\u00fbr. Si la d\u00e9shumanisation de la relation client via des chatbots permet de faire des \u00e9conomies, les entreprises l\u2019adoptent tout de m\u00eame. Elles ne mesurent pas forc\u00e9ment l\u2019impact \u00e9motionnel de leurs choix sur les clients. Et si elles le font, c\u2019est avec un temps de latence et il peut \u00eatre alors difficile de faire marche arri\u00e8re.<\/p>\n<p>Cette d\u00e9marche se retrouve dans les sc\u00e9narios alambiqu\u00e9s construits par le collectif Utopia Dystopia de Nantes, que vous pouvez parcourir dans le compte-rendu <a href=\"https:\/\/www.stereolux.org\/blog\/utopdystopia-quand-le-design-fiction-interroge-l-intelligence-artificielle\">Interrogeons les futurs de l&#8217;intelligence artificielle<\/a> (67 slides). Il contient divers sc\u00e9narios de manipulations de nos \u00e9motions \u00e0 base d\u2019IA et les r\u00e9actions \u00e9thiques qu\u2019ils peuvent g\u00e9n\u00e9rer.<\/p>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-dbuts-de-lIA-motionnelle_9AD2\/Des-robots-et-des-hommes.jpg\"><img loading=\"lazy\" decoding=\"async\" style=\"background-image: none; padding-top: 0px; padding-left: 0px; margin: 10px 0px 10px 10px; display: inline; padding-right: 0px; border-width: 0px;\" title=\"Des-robots-et-des-hommes\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-dbuts-de-lIA-motionnelle_9AD2\/Des-robots-et-des-hommes_thumb.jpg\" alt=\"Des-robots-et-des-hommes\" width=\"151\" height=\"244\" border=\"0\" \/><\/a>\u00a0\u00a0 <a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-dbuts-de-lIA-motionnelle_9AD2\/Utopia-Dystopia-Stereolux-Design-Friction.jpg\"><img loading=\"lazy\" decoding=\"async\" style=\"background-image: none; padding-top: 0px; padding-left: 0px; margin: 10px 0px 10px 10px; display: inline; padding-right: 0px; border-width: 0px;\" title=\"Utopia Dystopia Stereolux Design Friction\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-dbuts-de-lIA-motionnelle_9AD2\/Utopia-Dystopia-Stereolux-Design-Friction_thumb.jpg\" alt=\"Utopia Dystopia Stereolux Design Friction\" width=\"276\" height=\"242\" border=\"0\" \/><\/a><\/p>\n<p>Les chercheurs en robotique recommandent d\u2019int\u00e9grer la dimension \u00e9thique dans leurs propres travaux. C\u2019\u00e9tait la recommandation de la CERNA (Commission de r\u00e9flexion sur l\u2019\u00c9thique de la Recherche en sciences et technologies du Num\u00e9rique cr\u00e9\u00e9e fin 2012 par l\u2019alliance Allistene des sciences et technologies du num\u00e9rique associant notamment le CEA, le CNRS, l&#8217;Inria et l\u2019Institut Mines-T\u00e9l\u00e9com) dans <a href=\"http:\/\/cerna-ethics-allistene.org\/digitalAssets\/38\/38704_Avis_robotique_livret.pdf\">Ethique de la Recherche en Robotique<\/a> (2014) qui \u201c<em>pr\u00e9conise que les \u00e9tablissements ou institutions de recherche se dotent de comit\u00e9s d\u2019\u00e9thique en sciences et technologies du num\u00e9rique, traitant au cas par cas les questions op\u00e9rationnelles[\u2026]. <\/em><em>Le chercheur doit pr\u00e9munir les syst\u00e8mes qu\u2019il con\u00e7oit contre les effets ind\u00e9sirables, cela pr\u00e9vaut d\u2019autant plus que les robots sont dot\u00e9s d\u2019une autonomie croissance. La confiance que l\u2019on peut placer dans un robot, les possibilit\u00e9s et limites de celui-ci et du couple qu\u2019il forme avec l\u2019utilisateur, la reprise en main, le tra\u00e7age \u2013 c\u2019est-\u00e0-dire la possibilit\u00e9 de rendre compte du comportement &#8211; sont \u00e0 consid\u00e9rer du point de vue \u00e9thique dans la conception du robot. Par l\u2019imitation du vivant et l\u2019interaction affective, le robot peut brouiller les fronti\u00e8res avec l\u2019humain et jouer sur l\u2019\u00e9motion de mani\u00e8re in\u00e9dite. Au-del\u00e0 de la prouesse technologique, la question de l\u2019utilit\u00e9 d\u2019une telle ressemblance doit se poser, et l\u2019\u00e9valuation interdisciplinaire de ses effets doit \u00eatre men\u00e9e, d\u2019autant plus que ces robots seraient plac\u00e9s aupr\u00e8s d\u2019enfants ou de personnes fragiles<\/em>\u201d.<\/p>\n<p>Ceci va dans le bon sens. Il faudra cependant \u00e9viter de focaliser ces questions d\u2019\u00e9thique sur les robots car elles sont \u00e9galement \u00e0 prendre en compte dans nombre d\u2019usages qui n\u2019y font pas appel. Qui plus est, on peut tr\u00e8s bien avoir une recherche parfaitement \u00e9thique mais une innovation qui ne l\u2019est pas. L\u2019assemblage des technologies dans les usages est plus le fait des entreprises et des startups que des chercheurs. Les effets d\u00e9bilitants de certains r\u00e9seaux sociaux ne proviennent pas de travaux de chercheurs et plut\u00f4t de m\u00e9thodes de <em>growth hacking<\/em> jouant avec notre dopamine !<\/p>\n<p>Et la r\u00e9gulation ? Dans un premier temps, le droit g\u00e9n\u00e9rique est naturellement applicable. Sont condamnables les abus de faiblesse, les solutions ayant pour objet de manipuler les utilisateurs, pour les faire r\u00e9aliser des actions \u00e0 l\u2019insu de leur plein gr\u00e9. La loi s\u2019int\u00e9resse cependant peu \u00e0 l\u2019\u00e9thique et \u00e0 la morale. Reste \u00e0 affiner cela pour ce qui est de la manipulation des \u00e9motions utilis\u00e9e comme arme politique ou arme de guerre froide ! Comme toutes les technologies bivalentes, le l\u00e9gislateur devra \u00e0 la fois pr\u00e9server la capacit\u00e9 d\u2019innovation de l\u2019\u00e9cosyst\u00e8me entrepreneurial tout en pr\u00e9munissant les citoyens contre des effets les plus d\u00e9l\u00e9t\u00e8res. La fronti\u00e8re entre les deux est des plus t\u00e9nue et cela risque de perdurer !<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Dans le fameux m\u00e9mo de John McCarthy d\u2019aout 1955, les p\u00e8res fondateurs de la discipline de l\u2019intelligence artificielle en d\u00e9finirent les principes de base. Il s\u2019agissait de transposer dans des machines une bonne partie des capacit\u00e9s d\u2019intelligence humaine, notamment la compr\u00e9hension du langage, la vision et le raisonnement. L\u2019\u00e9motion n\u2019\u00e9tait pas encore au programme. Il [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[33,2659,10],"tags":[3019,3024,3025,3018,2644,3017,3021,3020,3022,3023,2911,62],"class_list":["post-15477","post","type-post","status-publish","format-standard","hentry","category-innovation","category-intelligence-artificielle","category-startups","tag-affective-computing-affectiva","tag-aibo","tag-hanson-robotics","tag-ia-emotionnel","tag-intelligence-artificielle","tag-intelligence-emotionnelle","tag-kismet","tag-laurence-devillers","tag-nao","tag-pepper","tag-sofia","tag-sony"],"views":54117,"_links":{"self":[{"href":"https:\/\/www.oezratty.net\/wordpress\/wp-json\/wp\/v2\/posts\/15477","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.oezratty.net\/wordpress\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.oezratty.net\/wordpress\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.oezratty.net\/wordpress\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.oezratty.net\/wordpress\/wp-json\/wp\/v2\/comments?post=15477"}],"version-history":[{"count":0,"href":"https:\/\/www.oezratty.net\/wordpress\/wp-json\/wp\/v2\/posts\/15477\/revisions"}],"wp:attachment":[{"href":"https:\/\/www.oezratty.net\/wordpress\/wp-json\/wp\/v2\/media?parent=15477"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.oezratty.net\/wordpress\/wp-json\/wp\/v2\/categories?post=15477"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.oezratty.net\/wordpress\/wp-json\/wp\/v2\/tags?post=15477"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}