Le langage humain contient différents types d’informations. Nous les comprenons de manière inconsciente, mais les expliquer de manière systématique est beaucoup plus difficile. Pour une machine aussi. La chaire du projet NoRDF « Modeling and extracting complex information from natural language » cherche à résoudre cette problématique : comment apprendre aux algorithmes à modéliser et extraire les informations complexes du langage ? Fabian Suchaneck et Chloé Clavel, tous deux chercheurs à Télécom Paris, expliquent les approches de ce nouveau projet
Quels aspects du langage s’agit-t-il de faire comprendre aux machines ?
Fabian Suchaneck : Il s’agit de leur faire comprendre des textes en langage naturel plus compliqués. Les systèmes actuels peuvent comprendre des affirmations simples. Par exemple, la phrase : « Un vaccin contre le Covid-19 a été mis au point » est suffisamment simple pour être comprise par des algorithmes. En revanche, ils ne peuvent pas comprendre les phrases qui vont au-delà d’une seule affirmation, du type : « Si le vaccin est distribué, alors l’épidémie de Covid-19 va s’arrêter en 2021 ». Dans ce cas, la machine ne comprend pas que la condition requise pour que l’épidémie de Covid-19 s’arrête en 2021, est que le vaccin soit distribué. Il s’agit aussi de faire comprendre aux machines quels sont les émotions et sentiments qui sont associés au langage, dont Chloé Clavel est la spécialiste.
Quelles sont les approches privilégiées pour faire comprendre le langage naturel aux algorithmes ?
FS : Nous mettons au point des approches dites neurosymboliques, qui cherchent à combiner des approches symboliques et des approches de type deep learning ou apprentissages profonds. Les approches symboliques utilisent des règles logiques implémentées par l’humain, qui simulent le raisonnement humain. Pour le type de données que nous traitons, c’est fondamental pour pouvoir interpréter ensuite ce qui a été compris par la machine. Le deep learning est un type d’apprentissage automatique où la machine est capable d’apprendre par elle-même. Cela permet d’avoir une meilleure flexibilité pour traiter des données variables et de pouvoir intégrer plus de couches de raisonnement.
D’où proviennent les données que vous analysez ?
FS : Nous pouvons récolter des données lorsque les humains interagissent avec des chatbots d’une entreprise et notamment celles qui proviennent des entreprises partenaires du projet. Nous pouvons aussi extraire des données dans les commentaires d’une page internet, sur les forums ou sur les réseaux sociaux.
Chloé Clavel : Nous pouvons aussi extraire des informations sur les sentiments, les émotions, des attitudes sociales, notamment au sein des dialogues entre les humains ou des humains avec les machines.
À lire sur I’MTech : Des robots assistants pédagogiques
Quelles sont les principales difficultés d’apprentissage du traitement du langage par la machine ?
CC : Il faut construire des modèles robustes aux changements de contextes et de situations. Par exemple, il peut y avoir une variabilité langagière dans l’expression des sentiments d’un individu à l’autre, ce qui implique que de même sentiments peuvent être exprimés par des mots très différents selon la personne. Il y a aussi une variabilité de contextes à prendre en compte. Par exemple, lorsque les humains interagissent avec un agent virtuel, ils ne vont pas se comporter de la même manière qu’avec un humain, donc il est difficile de comparer des données issues de ces différentes sources d’interactions. Pourtant, si nous voulons tendre vers des interactions humain-agent plus fluides et naturelles, nous devons nous inspirer des interactions des humains entre eux.
Comment savoir que la machine analyse correctement les émotions associées à un propos ?
CC : La majorité des méthodes que nous utilisons sont supervisées. Les données qui sont injectées dans les modèles sont annotées de la manière la plus objective possible par des humains. L’idéal est de demander à plusieurs annotateurs d’annoter l’émotion qu’ils perçoivent dans un texte, la perception d’une émotion pouvant être très subjective. Le modèle est ensuite appris sur les données pour lesquelles un consensus entre les annotateurs a pu être trouvé. Au moment de tester la performance du modèle, lorsque nous injectons un texte annoté dans un modèle qui a été entrainé avec des textes similaires, nous pouvons voir si l’annotation qu’il produit est proche de celles qui ont été déterminées par des humains.
L’annotation des émotions étant particulièrement subjective, il est important de déterminer comment le modèle appris a effectivement compris les émotions et les sentiments présents dans le texte. Il y a de nombreux biais de représentativité des données qui peuvent s’immiscer dans le modèle et nous induire en erreur sur l’interprétation qu’a faite la machine. Par exemple, admettons que les personnes plus jeunes soient plus en colère que les personnes âgées dans nos données et que ces deux catégories ne s’expriment pas de la même manière, alors il est possible que le modèle finisse par simplement détecter l’âge des individus et non la colère liée aux propos.
Est-il possible que les algorithmes finissent par adapter leur discours en fonction des émotions perçues ?
CC : C’est un aspect sur lequel des recherches sont menées. Les algorithmes des chatbots doivent être pertinents dans la résolution des problèmes pour lesquels il sont sollicités, mais il faudrait également qu’ils soient capables de fournir une réponse pertinente socialement (par exemple vis-à-vis de la frustration de l’utilisateur ou de son insatisfaction). Ces développements permettront d’améliorer un ensemble d’applications, allant de la relation-client aux robots éducatifs ou d’accompagnement.
Quels enjeux contemporains de société sont associés à la compréhension du langage humain par des machines ?
FS : Cela permettrait notamment de mieux comprendre la perception des actualités sur les réseaux sociaux par les humains, le fonctionnement des fake news, donc de manière générale quel groupe social est sensible à quel type de discours et pourquoi. Les raisons profondes qui font que différents individus adhèrent à différents types de discours sont aujourd’hui encore mal comprises. En plus de l’aspect émotionnel, il y a différentes logiques qui se construisent dans des bulles argumentaires qui ne communiquent pas entre elles.
Afin de pouvoir automatiser la compréhension du langage humain et exploiter les nombreuses données qui lui sont associées, il est donc important de prendre le plus possible de dimensions en compte, comme l’aspect purement logique des propos tenus dans les phrases ainsi que l’analyse des émotions et des sentiments qui les accompagnent.
Par Antonin Counillon
4 comments
Pingback: Chloé Clavel - I'MTech
Pingback: Comment apprendre aux algorithmes à "comprendre" les informations complexes du langage ? - The NoRDF Project
Pingback: Veille Cyber N321 – 08 février 2021 |
Pingback: Veille Sécurité IA – N147 – Veille Sécurité – Intelligence Artificielle