«Nous avons une tendance naturelle à considérer les machines comme des êtres humains.»Martina Mara

L’algorithme empathique

| Auteur / Rédacteur: Auteur : Claudia Hoffmann / Jérémy Gonthier

Pour beaucoup de gens, le robot Sophia crée un malaise. Et confirme la théorie de la «vallée de l'étrange» (uncanny valley): l'acceptation sociale de robots anthropomorphiques chute face à des machines qui nous ressemblent trop, ou pas assez.
Galerie: 6 photos
Pour beaucoup de gens, le robot Sophia crée un malaise. Et confirme la théorie de la «vallée de l'étrange» (uncanny valley): l'acceptation sociale de robots anthropomorphiques chute face à des machines qui nous ressemblent trop, ou pas assez. (Source : Keystone/AP Photo/Niranjan Shrestha)

L’intelligence artificielle doit intégrer l’affect, décoder nos sentiments et anticiper les réactions émotionnelles que les machines ne manquent pas de susciter en nous.

Insultez-vous votre ordinateur lorsqu’il bloque ? Vous surprenez-vous à sourire lorsque l’assistance vocale de votre portable vous donne des réponses absurdes ? Souhaitez-vous « Bonne nuit! » à votre tondeuse à gazon automatique quand elle va se recharger ? Vous n’êtes pas le seul dans ce cas. « Nous avons une tendance naturelle à considérer les machines comme des êtres humains », souligne Martina Mara, professeure de psychologie des robots à l’Université de Linz, en Autriche. Notre cerveau se concentre en effet sur les interactions sociales et réagit de manière involontaire aux stimuli qui leur sont associé.

Par exemple le mouvement: une tondeuse robotisée s’approche et nous pensons déjà qu’elle veut entrer en contact avec nous. « Il faut très peu de choses pour que nous ayons l’impression que les machines possèdent des intentions et des sentiments », relève la chercheuse.

Le psy virtuel

Les machines suscitent aussi des émotions alors même qu’on sait pertinemment qu’elles ne sont pas vivantes, confirme la psychologue Elisa Mekler, directrice du pôle de recherche sur les interaction humains-machines à l’Université de Bâle. Elle étudie notamment les relations que des personnes nouent avec des personnages de jeux vidéo : « Les sentiments décrits sont parfois étonnamment intenses. » Ils sont comparables à ceux que l’on peut avoir à l’égard d’êtres humains: de la sympathie et la fierté à la peur et la culpabilité, lorsque quelque chose de grave leur arrive.

Positives ou négatives, nos expériences émotionnelles restent très bien ancrées dans la mémoire. Un client sera fâché et frustré s’il ne comprend pas bien comment procéder pour acheter un objet en ligne ou qu’il peine à se faire comprendre par un robot assistant. « Les designers et les fabricants ont tout intérêt à créer des produits qui suscitent des sentiments positifs », résume Elisa Mekler.

C’est l’un des objectifs de l’informatique affective, qui doit permettre à l’intelligence artificielle d’apprendre à déchiffrer les émotions humaines et à réagir à celles ci de façon appropriée – et même à simuler des sentiments. Des algorithmes analysent l’expression du visage, la tonalité de la voix ou encore la température et la conductance de la peau. D’autres apprennent à reconnaître les émotions dans des textes.

Pour compléter ce thème
 
Où se situe la limite entre confort et malaise ?
La confiance est cruciale pour que les gens fassent appel aux technologies intelligentes. Etonnamment, il arrive qu’une machine suscite davantage de confiance qu’un être humain.

Les applications sont nombreuses. Le chatbot Karim de la firme X2AI veut offrir un soutien thérapeutique aux réfugiés syriens souffrant de stress post-traumatique. Des systèmes basés sur des caméras et des capteurs sont actuellement développés pour détecter la fatigue ou l’irritation d’un automobiliste et lui suggérer de faire une pause. Et des robots soignants sensibles aux émotions devront un jour pouvoir déceler si un patient est angoissé ou énervé et adapter leur comportement en conséquence.

L’ordinateur se moque de nous

Un problème pour la reconnaissance des émotions est l’importance jouée par le contexte: difficile de faire la différence entre un sourire de satisfaction ou d’embarras. « Des malentendus surviennent facilement entre l’homme et la machine, et des réactions inadéquates conduisent à une perte de confiance », note Mireille Bétrancourt, professeure en technologies de l'information et processus d’apprentissage à l’Université de Genève.

Dans le cadre du projet Eatmint, la chercheuse étudie comment les émotions sont décodées lors d’un travail d’équipe basé sur des collaborations médiatisées par ordinateur et comment elles peuvent être transmises par les utilisateurs. L’ordinateur a adressé une réponse totalement inappropriée (« Comme c’est amusant! ») à un participant qui était frustré de ne pas parvenir à exécuter une tâche. Irrité, ce dernier a interrompu la communication. C’est pourquoi les systèmes sensibles aux émotions doivent tirer des conclusions parfaitement correctes. Pour la chercheuse, il vaut mieux interroger directement les utilisateurs sur leurs sentiments plutôt que de tenter de les déduire de façon indirecte à partir de données – et de risquer de se tromper. MSM

Ajouter un commentaire

copyright

Cette contribution est protégée par le droit d'auteur. Vous voulez l'utiliser pour vos besoins ? Contactez-nous via: support.vogel.de/ (ID: 45901357 / Robotique)