Une montre intelligente capable de détecter les émotions

samsung-simband détecte les émotions

Une intelligence artificielle capable de détecter les émotions, le ton d’une conversation ou d’un discours. C’est ce que vient de concevoir une équipe de chercheurs américains qui a mis au point cette application portable, installée dans une montre Samsung Simband. 

Une seule conversation peut être interprétée de différentes façons. Discerner les émotions et la tonalité d’un discours, comme tout être humain, c’est le pari du système portable AI, une nouvelle application dont la conception effective est proche.

Cette intelligence artificielle a été mise au point par une équipe de chercheurs du Laboratoire de sciences informatiques et d’intelligence artificielle (CSAIL) et de l’Institut en ingénierie médicale (IMES) du Massachusetts Institute of Technology de Boston (Etats-Unis).

Dans un communiqué, les chercheurs ont expliqué la fonctionnalité de ce système basée sur une application qui peut être intégrée dans une montre connectée ou un bracelet. 

Les scientifiques l’ont testé sur des participants portant une montre Samsung Simband. Cet appareil est capable de recueillir des ondes physiologiques à haute résolution détectant des modifications physiques telles que changements de température, de pression artérielle et du rythme cardiaque, mais aussi les mouvements des bras ou des jambes. Le système est également apte à saisir des données audio et des transcriptions écrites pour analyser le ton ou, l’énergie ou le vocabulaire du locuteur.

L’équipe a ensuite recueilli 31 conversations de plusieurs minutes et testé 2 algorithmes, le 1er catégorisant la nature du discours (triste ou heureux), le second classant des séquences de 5 secondes de conversation comme positives, négatives ou neutres. L’algorithme a par exemple analysé de longs silences ou des sonorités vocales monotones comme relatant des propos tristes tandis que des structures de langage énergiques et variées étaient analysées comme des discussions gaies.

Le système a pu analyser les signaux audio, physiologiques et les transcriptions de textes pour déterminer le ton général d’un discours ou d’une conversation avec un taux de précision de 83%.

“A notre connaissance, il s’agit de la première expérience capable de recueillir à la fois des données physiques et vocales de façon passive, mais fiable pendant que les sujets ont des interactions naturelles et déstructurées. Nos résultats indiquent qu’il est possible de classer la nature émotionnelle d’une conversation en temps réel,” explique Mohammad Ghassemi, co-auteur de l’étude.   

Cette nouvelle technologie pourrait servir de “coach social” à toutes les personnes souffrant notamment du syndrome d’Asperger, un trouble autistique d’origine neurobiologique qui affecte la communication et l’interaction.

Leurs travaux seront présentés à la conférence de “l’Association for the Advancement of Artificial Intelligence” qui doit se tenir la semaine prochaine à San Francisco (Etats-Unis).

PARTAGER

Commentaire Facebook !