La reconnaissance émotionnelle : un domaine ambigu

Le langage corporel est pour l’intelligence artificielle (IA) source de métadonnées par excellence. Pour autant, rares sont les spécialistes capables de contrôler la fiabilité de l’interprétation artificielle dans le domaine de la corporéité.

L’IA propose certes mais qui doit évaluer sa production ? Qui va juger des logiciels des chercheurs lorsque ce sont ces mêmes chercheurs qui promotionnent eux-mêmes leurs logiciels ?

Des logiciels de reconnaissance émotionnelle sont présentés comme capables de tirer des conclusions sur l’état émotionnel de personnes testées. Or des biais importants les en empêchent.

 

Reconnaissance émotionnelle et reconnaissance faciale : Rien à voir.

Le public a tendance à confondre les logiciels de reconnaissance émotionnelle avec les logiciels de reconnaissance faciale. Car dans les deux cas le logiciel analyse le visage pour en proposer des interprétations. Or, si la reconnaissance faciale a beaucoup progressé, c’est moins vrai des logiciels de reconnaissance émotionnelle. C’est normal : Les éléments à identifier n’ont en fait rien à voir.

La prise en compte des arrières-pensées, ne peut pas être envisagée et traitée par l’intelligence artificielle.  Elle ne peut comprendre à quoi est dû le déplacement des traits. Est-ce dû au ressenti de la personne ? A l’empathie reflétant l’attitude de son interlocuteur ?  À une autre pensée traitée en arrière-plan sans lien avec la situation ? à une autre idée qui lui arrive lié, elle, à la situation ? A un évènement dans l’environnement ? Et ça c’est sans parler d’un autre groupe de raisons aussi important encore…

 

Des biais absolument limitants pour l’IA émotionnelle

Notre visage pour des raisons de survie nous protège contre les autres à notre insu.. Lorsque nous sommes en situation de difficulté, il plaque sur notre visage des émotions que nous ne ressentons pas. Ce masque est totalement inconscient. Une personne mal-à-l’aise va avoir alors tendance à sourire inconsciemment  pour masquer sa gène. Le logiciel conclut à la joie mais il se se trompe sur la nature de ces sourires. Regardez ces trois images

 

 

Cette jeune fille parle de la mort de son père. Elle sourit jusqu’au moment de s’effondrer. Et jusqu’au moment ou elle s’effondre le logiciel décode de la joie.

A contrario dans une relation de proximité entre personnes qui se connaissent bien, il y a beaucoup moins de sourires. Car le vernis social qu’il procure n’est plus nécessaire. Les deux personnes dégagent une image d’austérité alors qu’elles sont simplement bien ensemble.

Un grand nombre de logiciels experts, étiquetés à tort comme Intelligences artificielles, ne devraient pas aujourd’hui circuler dans l’espace public et servir de référence à la mesure des données comportementales (dans les champs comme le recrutement par exemple). Mais une fois de plus lorsque ces logiciels sont présentés par les “experts”, qui ira contredire leurs données ? Des données d’autant moins critiquées qu’elles sont nourries de chiffres.

Il est grand temps d’envisager déplacements faciaux et émotions comme deux types de données différentes, non substituables l’une à l’autre. L’observation des émotions sans réflexions sur la cognition sous-jacente perd tout attrait. La Synergologie sera dans les années à venir d’une aide précieuse à la réflexion dans ce champ, grâce à l’apport de réflexions nouvelles.

 

Si vous avez eu à subir dans votre vie professionnelle, le préjudice de ces outils, n’hésitez pas à prendre contact avec nous : contact@synergologie.org

data-spy="scroll" data-target=".navbar" data-offset="50" data-top-offset="-70"