Lien copié

Reconnaissance des émotions : psychologie au futur.

Share On Facebook
Share On Twitter
Share On Linkedin

Non seulement le visage mais aussi le ton de la voix, les productions écrites, des battements de coeur, le rythme de la respiration : les algorithmes appliqués à la reconnaissance des émotions évaluent tous ces éléments pour analyser et interpréter l’état émotionnel d’un individu, tristesse, peur, joie, dégoût, mépris, colère…. Ces nouvelles technologies semblent promises à un bel avenir, à en juger par leur classement dans le dernier rapport de la Commission européenne sur les technologies du futur (1).

La reconnaissance des émotions s’effectue pour l’essentiel par l’analyse d’images ou de vidéos des visages des individus concernés. A l’origine de cette forme de reconnaissance faciale, on trouve les travaux d’un psychologue américain, Paul Ekman, popularisé dans une série à succès, Lie to Me. Paul Ekman, né en 1934, avait eu l’idée de mettre au point un dictionnaire des expressions faciales permettant de décoder les émotions, en particulier celles que l’on voudrait cacher. P. Ekman pensait que les micro-expressions du visage qui trahissent nos émotions ne dépendent pas des cultures, et peuvent donc faire l’objet d’un classement universel. Les algorithmes ont pris la suite et sont aujourd’hui entraînés sur la base des travaux de P. Ekman. 

Des technologies de pointe pourraient bien booster encore ce domaine de recherche : certains évoquent des tatouages intelligents qui pourraient mesurer l’activité des muscles et de cellules nerveuses, par l’enregistrement de signaux électriques reçus par les muscles faciaux. De petits appareils pour la santé équipés de cette technologie pourraient detecter les variations d’humeur en cas d’anxiété ou de dépression. Des dispositifs équipés de cette technologie pourraient aussi faire office de détecteur de mensonge. Certains permettent déjà de jauger ou de tester les réactions inconscientes des consommateurs face à des produits, des publicités ou des évènements. La jeune société francaise Datakalab (2) est spécialisée dans ce domaine.

Dans d’autres applications, la reconnaissance des émotions est un outil pour apprendre aux robots à se comporter davantage comme des humains. Reconnaître les émotions des humains leur permet de manifester de l’empathie : “le « cœur » d’un robot empathique sera le composant logiciel conçu pour analyser les signaux faciaux et acoustiques des humains, puis le contenu du discours afin d’en dégager les émotions humaines… C’est ce « module d’empathie » qui traitera les informations émises par les humains et dictera au robot ses réactions” explique Pascale Fung, professeure d’électronique et de génie informatique à l’université des sciences et technologies de Hong Kong,  dans le magazine de l’INRIA (3).

De manière générale ces algorithmes seront probablement intégrés un jour dans le smartphone et les jouets : “smart devices are pour current reality, but “sympathetic” devices could be the future“, concluent les auteurs du rapport de la Commission européenne (4). Problèmes éthiques en perspective…

 

 

1- p. 87

2 -https://www.datakalab.com/lab

3-  https://interstices.info/robot-as-tu-du-coeur/

4- p.89

 

Pour en savoir plus :

https://linc.cnil.fr/affective-computing-des-casques-qui-analysent-le-cerveau

0 commentaire

Commenter

Your email address will not be published. Required fields are marked *

Champs obligatoires*