[DÉBAT] Sociobots : fini

[DÉBAT] Sociobots : fini "l'effet Terminator", les robots vont devenir nos meilleurs amis

L'avenir commercial de la robotique passe par la maîtrise des "sociobots", ces machines attachantes qui permettent de lutter contre "l'effet Terminator", explique dans une tribune, Julien de Sanctis, doctorant en philosophie et éthique appliquées à la robotique sociale. Le chercheur animera une rencontre avec le psychiatre Serge Tisseron et l'ingénieur Jérôme Monceaux, "Pourquoi nos robots deviennent-ils empathiques ?", organisée par le collectif Le Mouton Numérique en partenariat avec Socialter, le 12 avril prochain au 104.

Évenement et détails : https://www.facebook.com/events/207854513310340/

Sans préjuger des échanges et définitions qui seront apportés le 12 avril, on peut d’ores et déjà tenter une caractérisation générique des "robots empathiques". Pour être tout à fait précis, il est plus juste de parler de
robots sociaux ou de robotique sociale (social robotics) car la socialité dite artificielle, c’est-à-dire le domaine de recherche visant à rendre les artefacts capables de simuler des comportements sociaux, inclut la modélisation et la simulation d’émotions sans s’y résumer.

J’ai pour habitude de définir le robot comme un dispositif mécatronique conçu pour effectuer de façon autonome ou semi-autonome des tâches 1) que l’humain ne veut pas effectuer (robots aspirateurs), 2) ne peut pas effectuer (robots industriels de haute précision chirurgicale, de déminage ou d’exploration des fonds marins) ou 3) avec plus d’efficacité et/ou d’efficience que si l’humain s’en chargeait (chaînes de montage). Le robot se présente d’emblée comme un objet utilitaire, un outil ; ce que ne dément pas son étymologie, robota signifiant « corvée », « travail forcé » en Tchèque.

Or, nous allons voir que le robot social ne correspond plus tout à fait à cette définition. 

Des machines qui ne servent à rien ?


Comme je l’ai brièvement évoqué, le versant social de la robotique se donne pour objectif de concevoir des artefacts capables de reproduire des comportements sociaux. Il peut s’agir d’une simulation de regard, de curiosité, de peur, du respect du tour de rôle dans la prise de parole ou encore de l’adoption d’un certain type de politesse dans l’interaction. Ceci étant dit, on peut légitimement se demander pourquoi une telle socialisation des robots est recherchée puisque ces derniers sont conçus pour être des outils, c’est-à-dire des moyens au service d’une fin.

Mais c’est précisément sur cette question de l’utilité que la robotique sociale se démarque du reste de l’industrie. Le sociobot est une entité déroutante car, en apparence, il ne semble rien posséder en propre : j’entends par là que tout ce qu’il fait pourrait être accompli par un autre artefact. Quel est donc son facteur différenciant ?

Si l’on en croit Takanori Shibata, concepteur du robot phoque Paro, l’horizon ultime de la socialité artificielle est la création de robots qui ne servent à rien en particulier car potentiellement capables de tout à l’image de la socialité elle-même qui sert à tout en ne servant à rien en particulier. Cette aspiration à l’omnitélie qui caractérise la robotique sociale, c’est-à-dire à la volonté de concevoir une entité sachant tout faire, utile en toutes circonstances, rompt avec les logiques traditionnelles de conception où un artefact donné est développé en vue d’une fin particulière.

En dehors du secteur médical au sens large, peu de sociobots sont conçus avec un objectif utilitaire précis. Les robots sociaux sont des plateformes à potentiels. C’est leur design et leur comportementalisation qui, dans un premier temps, priment pour les concepteurs, pas leur utilité. Il est vrai que certains d’entre eux intègrent des fonctions à faible valeur ajoutée déjà disponibles sur nos téléphones (agenda, photographie, lancement de liste de lecture etc.), mais celles-ci ne sont pas tant recherchées pour elles-mêmes que pour leur mode d’activation socialisée. Bien qu’il ne s’agisse pas d’un robot, le sésame vocal « Okay, Google… » nécessaire à l’utilisation de l’enceinte « intelligente » Google Home illustre bien cette idée.

À l’heure actuelle, l’intérêt premier du robot social n’est donc pas à chercher dans sa ou ses fonctionnalités, mais dans la socialisation de son utilité potentielle. Il reste qu’utilité socialisée ne rime pas nécessairement avec utilité sociale… 

Pourquoi rendre nos machines « sociables » ?


« Sociable » est l’adjectif caractérisant une personne apte à vivre en société
. La robotique sociale cherche donc à concevoir des artefacts pourvus d’une telle aptitude. La socialité est ici perçue comme un gage d’acceptabilité des robots par le grand public. En effet, leurs concepteurs postulent que nous serons d’autant plus enclins à accueillir favorablement les robots qu’ils seront dotés d’une « intelligence » sociale similaire à la nôtre, au moins sur ses bases. En philosophie, on dirait que ce mimétisme conduit à une réduction du fossé ontologique entre l’humain et la machine, interrogeant les catégories selon lesquelles nous nous pensons habituellement ce couple créateur/créature.

La dimension émotionnelle de la socialité artificielle répond en grande partie à cet impératif d’acceptabilité. Comme l’affirme Serge Tisseron, « [un robot] n’aura pas plus de cœur qu’une machine à laver, mais à la différence de celle-ci, il sera capable de simuler l’affection que tout être humain attend de ses semblables – ou au moins de certains d’entre eux. Et c’est ce qui donnera envie de l’acheter ! En effet, nous n’avons guère envie d’héberger sous notre toit une créature de métal qui nous bat constamment aux échecs ou au Memory, qui nous demande si nous avons bien pris nos médicaments et nous rappelle l’heure d’aller nous coucher. Ce n’est donc pas l’intelligence des robots qui sera mise en avant pour nous convaincre d’en acheter, mais leur « cœur ». L’intelligence artificielle fait peur, l’empathie artificielle sera là pour nous rassurer. » 

Bien que Tisseron sous-estime certainement le potentiel commercial de l’IA nouvellement prise en otage par le marketing – comme l’atteste cette publicité Huawei -, il est vrai que les émotions informatiquement simulées (EIS) peuvent servir la cause des sociobots, notamment grâce à l’attachement qu’elles susciteront chez leurs possesseurs. En d’autres termes, le devenir-émotionnel des artefacts permet de lutter contre l’ « effet Terminator ».

Par ailleurs, l’importance des EIS ne tient pas qu’à la capacité des robots à simuler des émotions ou à en susciter en nous, mais également à celle de détecter les nôtres et de s’y adapter : ce que Tisseron nomme « empathie artificielle ». Si les sociobots sont destinés à devenirs des partenaires existentiels, il est nécessaire de veiller à ce que les conditions de bonne cohabitation soient respectées. L’empathie artificielle est une des pistes suivies pour prévenir le rejet des robots par la population : elle aurait la vertu de générer chez l’utilisateur le sentiment d’être compris par l’artefact, d’empêcher les dissonances comportementales, bref de parer au risque qu’Arnold Schwarzenegger détruise le chauffeur de taxi à chaque course, pour les connaisseurs. 

Du bon usage des émotions en robotique sociale

 

Ces différents partis pris qui, disons-le, sont loin d’être sortis du chapeau des roboticiens, ne sont pas exempts d’interrogations. Pour Tisseron, l’un des principaux risques liés à l’empathie artificielle est celui de la préférence ontologique. Bien qu’il n’utilise pas cette formule, c’est bien de cela dont il s’agit : le psychiatre craint qu’une proportion non négligeable d’entre nous finisse par préférer interagir avec des robots programmés pour ne jamais nous décevoir qu’avec nos semblables humains.

Mais là n’est pas le seul enjeu soulevé par le sujet. Comment ne pas penser à l’énorme potentiel de persuasion que ces machines pourraient avoir sur les jeunes générations natives de l’ère numérique ? Comment éviter que ces machines sombrent dans les pratiques captologiques les moins scrupuleuses et ne deviennent des « chevaux de Troie émotionnels » de puissances dont l’intérêt ne réside pas nécessairement dans le bien commun ?

Ces questions seront abordées le 12 avril car, outre son objectif de dissémination intellectuelle et de critique constructive de l’ « empathie artificielle », la rencontre-débat aura pour objet d’inviter à la réflexion sur ce que j’appelle une technopraxie appliquée à la robotique sociale. J’entends par là le développement d’une certaine pratique de l’éthique de/par conception (ethics by design). Autrement dit, il s’agira de s’interroger sur le devenir concret des EIS pour anticiper les pratiques souhaitables que nous devons leur associer. Voilà qui devrait permettre de lier utilité socialisée et utilité sociale des robots.



1 : Par autonomie, il faut entendre la capacité, au moins partielle, d’agir par lui-même sur le réel, et de faire face à l’imprévu. Cette autonomie peut être opérationnelle ou décisionnelle.
2 : J’utilise ce néologisme comme synonyme de robot social.
3 : Paro est un robot phoque en peluche utilisé en « thérapie animale », notamment avec les personnes âgées et les patients atteints de la maladie d’Alzheimer.
4 : Il y aurait beaucoup à dire sur ce qualificatif…
5 : « Sociable », CNRTL.
6 : Ibid., p.11
7 : Ce qui n’est pas sans révéler le paradoxe dans lequel nous sommes tous pris à des degrés, à savoir que nous craignons l’IA tout en la désirant, et qui fait de nous des moutons (noirs) numériques.
8 : Je préfère la formule d’émotion informatiquement simulées à celles, trop floue donc peu rigoureuse, d’émotions artificielles.
9 : Une rhétorique peu scrupuleuse dirait « comprendre ». Pourquoi pas, mais il s’agit de le démontrer. C’est là que le bât blesse.

 

 

 


 


 

 


 


 





 

 

 

 

Abonnez vous !
Où trouver SOCIALTER en kiosque ?

TOP 5 stories

  • Le tourisme de masse peut-il être « Zéro déchet » ?

    Le tourisme de masse peut-il être « Zéro déchet » ?

    Chaque année, les vacanciers sont plus nombreux sur les (...)
    >
  • Yánis Varoufákis : «Si je deviens un bon politicien, flinguez-moi»

    Yánis Varoufákis : «Si je deviens un bon politicien, flinguez-moi»

    Cet entretien, présenté ici dans sa version longue, (...)
    >
  • À l'Arche, on vient faire de l'artisanat après le boulot

    À l'Arche, on vient faire de l'artisanat après le boulot

    Ce soir, c’est atelier béton. Les participantes (...)
    >
  • Mobile home office : cadre sup' le jour, campeur la nuit

    Mobile home office : cadre sup' le jour, campeur la nuit

    Ils sont managers, chercheurs ou consultants. Ils ont un « vrai (...)
    >
  • Les plateformes, amies ou ennemies du freelance ?

    Les plateformes, amies ou ennemies du freelance ?

    Cet entretien a été initialement publié dans le (...)
    >

TOP 5 contribution

  • [Tribune] Philippe Bihouix : contre l'ouverture de mines de terres rares en France

    [Tribune] Philippe Bihouix : contre l'ouverture de mines de terres rares en France

    Nous pensions entrer dans une ère heureuse de (...)
    >
  • "Pourquoi j'ai choisi de vivre zéro déchet." Episode 1/5. Aline, 22 ans, adepte de micro-écologie.

    Dans nos sociétés hygiénistes, les (...)
    >
  • "Faire du profit pour faire du profit ne nous séduit plus!" Le cri de 500 étudiants.

    Parmi notre génération d’étudiants, (...)
    >
  • Au programme de l'école du XXIe siècle: cours de créativité, d'empathie et de connaissance de soi.

    Au programme de l'école du XXIe siècle: cours de créativité, d'empathie et de connaissance de soi.

    Créativité, connaissance de soi, (...)
    >
  • Crème de la Crème : quand les échanges entre générations relancent l'innovation

    Crème de la Crème : quand les échanges entre générations relancent l'innovation

    [Contenu sponsorisé]La majorité des moments forts et (...)
    >