La science du toucher humain – et pourquoi il est si difficile de le reproduire dans les robots

Par Perla Maiolino, Université d’Oxford

Les robots voient désormais le monde avec une facilité qui n’appartenait autrefois qu’à la science-fiction. Ils peuvent reconnaître des objets, naviguer dans des espaces encombrés et trier des milliers de colis chaque heure. Mais demandez à un robot de toucher quelque chose avec douceur, en toute sécurité ou de manière significative, et les limites apparaissent instantanément.

En tant que chercheur en robotique douce travaillant sur la peau artificielle et les corps sensibles, j’ai vu à quel point essayer de donner aux robots une sensation de toucher nous oblige à reconnaître à quel point le toucher humain est incroyablement sophistiqué.

Mon travail a commencé avec la question apparemment simple de savoir comment les robots peuvent découvrir le monde à travers leur corps. Développez des capteurs tactiles, recouvrez-en entièrement une machine, traitez les signaux et, à première vue, vous devriez obtenir quelque chose qui ressemble à du toucher.

Rien de tel qu’une simple carte de pression sans la touche humaine. Notre peau contient différents types de mécanorécepteurs, chacun étant connecté à différents stimuli tels que les vibrations, l’étirement ou la texture. Notre résolution spatiale est remarquablement fine et, surtout, le toucher est actif : nous appuyons, glissons et ajustons constamment, transformant la sensation brute en perception grâce à une interaction dynamique.

Les ingénieurs peuvent parfois simuler une version à l’échelle du doigt, mais reproduire cela sur l’ensemble d’un corps mou et donner à un robot la capacité d’interpréter ce riche flux sensoriel est un défi d’un tout autre ordre.

Travailler sur la peau artificielle a également rapidement révélé une autre idée : une grande partie de ce que nous appelons « l’intelligence » ne réside pas uniquement dans le cerveau. La biologie offre des exemples intéressants, le plus célèbre étant celui de la pieuvre.

Les poulpes répartissent la plupart de leurs neurones dans leurs membres. Leurs études sur le comportement moteur montrent qu’un bras de poulpe peut générer et adapter localement des schémas de mouvement basés sur des entrées sensorielles avec des entrées limitées du cerveau.

Leurs corps mous et souples contribuent directement à leur fonctionnement dans le monde. Et ce type d’intelligence distribuée et incarnée, où le comportement émerge de l’interaction du corps, des matériaux et de l’environnement, a de plus en plus d’influence en robotique.

Le toucher pourrait aussi être le premier sens qui se développe dans le ventre humain. Les neurosciences du développement montrent que la sensibilité tactile commence vers huit semaines de gestation, puis se propage dans tout le corps au cours du deuxième trimestre. Bien avant que la vision ou l’audition ne soient fonctionnelles de manière fiable, le fœtus explore son environnement par le toucher. On pense que cela aide à façonner la manière dont les enfants commencent à développer une compréhension du poids, de la résistance et du soutien – la physique de base du monde.

Cette distinction est également importante pour la robotique. Pendant des décennies, les robots se sont largement appuyés sur des caméras et du lidar (une méthode de détection qui utilise des impulsions lumineuses pour mesurer la distance) tout en évitant tout contact physique. Mais nous ne pouvons pas nous attendre à ce que les machines acquièrent des compétences de niveau humain dans le monde physique si elles en font à peine l’expérience par le toucher.

La simulation peut enseigner un comportement utile à un robot, mais sans véritable exploration physique, elle risque uniquement d’établir son intelligence plutôt que de la développer. Pour apprendre comme les humains, les robots ont besoin de sens du corps.

Une main de robot « douce » dotée de capteurs tactiles développés par le Soft Robotics Lab de l’Université d’Oxford saisit une pomme. Vidéo : Institut de robotique d’Oxford.

L’une des approches de mon groupe consiste à donner aux robots une « intelligence locale » dans leur corps sensoriel. Les humains bénéficient de la souplesse des tissus mous : la peau se déforme de manière à augmenter l’adhérence, la friction et filtrer les signaux sensoriels avant qu’ils n’atteignent le cerveau. C’est une forme d’intelligence directement ancrée dans l’anatomie.

Les recherches en robotique douce et en informatique anatomique soutiennent que le corps peut décharger une partie de la charge de travail sur le cerveau. En construisant des robots avec des structures souples et un traitement de bas niveau, afin qu’ils puissent ajuster la prise ou la posture en fonction d’un retour tactile sans attendre une commande centrale, nous espérons créer des machines qui interagissent de manière plus sûre et plus naturelle avec le monde physique.

L'ergothérapeute Ruth Allecock utilise le robot d'entraînement « Mona »
L’ergothérapeute Ruth Allecock utilise le robot d’entraînement « Mona ». Perla Maiolino/Institut de robotique d’OxfordCC BY-NC-SA

Les soins de santé sont un domaine dans lequel cette capacité peut faire une profonde différence. Mon groupe a récemment développé un simulateur robotique de patient pour former les ergothérapeutes (OT). Les étudiants s’entraînent souvent les uns sur les autres, ce qui rend difficile l’apprentissage des compétences tactiles nécessaires pour soutenir quelqu’un en toute sécurité. Avec de vrais patients, les stagiaires doivent équilibrer le toucher fonctionnel et émotionnel, respecter les limites personnelles et reconnaître les signaux subtils de douleur ou d’inconfort. Les recherches sur le contact social et émotionnel montrent à quel point ces signaux sont importants pour le bien-être humain.

Pour aider les stagiaires à comprendre ces interactions, notre simulateur, appelé Mona, génère des réponses comportementales pratiques. Par exemple, lorsqu’un ergothérapeute exerce une pression sur un point douloureux simulé sur la peau artificielle, le robot répond verbalement et avec un petit « accroc » physique au corps pour simuler l’inconfort.

De même, si l’apprenant tente de déplacer un membre au-delà de ce que le patient simulé peut tolérer, le robot se raidit ou résiste, donnant une indication réaliste que le mouvement doit être arrêté. En capturant les interactions tactiles à travers une peau artificielle, notre simulateur fournit des retours jamais trouvés auparavant dans la formation OT.

Des robots qui s’en soucient

À l’avenir, des robots dotés de corps sûrs et sensibles pourraient aider à faire face à la pression croissante exercée sur les services sociaux. À mesure que la population vieillit, de nombreuses familles se retrouvent soudainement à élever, déménager ou subvenir aux besoins de leurs proches sans formation traditionnelle. Les « robots de soins » y contribueront, ce qui pourrait permettre aux membres de la famille de pouvoir s’occuper plus longtemps à la maison.

Sans surprise, les progrès dans le développement de ces types de robots semblent être beaucoup plus lents que prévu initialement – ​​même au Japon, qui a introduit certains des premiers prototypes de robots de soins. L’un des exemples les plus avancés est Airec, un robot humanoïde développé dans le cadre du programme Moonshot du gouvernement japonais pour faciliter les tâches de soins infirmiers et de soins aux personnes âgées. Lancé en 2019, ce programme aux multiples facettes, « une R&D ambitieuse basée sur des idées audacieuses », vise une « société où les gens pourront être libérés des contraintes du corps, de l’esprit, de l’espace et du temps d’ici 2050 ».

La société japonaise Airec est la plus avancée dans le développement de robots de soins. Vidéo de Global Update.

Cependant, partout dans le monde, il est difficile de traduire des prototypes de recherche en robots contrôlés. Les coûts de développement élevés, les exigences strictes en matière de sécurité et l’absence d’un marché commercial clair ont ralenti les progrès. Mais même si les obstacles techniques et réglementaires sont importants, ils sont progressivement surmontés.

Les robots qui peuvent partager en toute sécurité un espace physique proche avec les humains doivent ressentir et toucher la façon dont ils interagissent avec leur corps. Cette sensibilité de l’ensemble du corps est ce qui différenciera la prochaine génération de robots souples des machines rigides d’aujourd’hui.

Nous sommes encore loin des robots capables d’effectuer ces tâches intimes de manière autonome. Mais la construction de machines tactiles change déjà notre compréhension du toucher. Chaque pas vers l’intelligence tactile robotique met en évidence l’extraordinaire sophistication de notre propre corps et le lien profond entre la sensation, le mouvement et ce que nous appelons l’intelligence.

Cet article a été lancé en collaboration avec le programme des professeurs, qui fait partie de Prototypes for Humanity, une initiative mondiale qui présente et accélère l’innovation académique pour résoudre les défis sociaux et environnementaux. The Conversation est le partenaire média de Prototypes for Humanity 2025.la conversation

Perla Maiolino, professeure agrégée de sciences de l’ingénieur, membre de l’Oxford Robotics Institute, Université d’Oxford

Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lisez l’article original.


la conversation
Une source indépendante d’informations et d’opinions, tirée de la communauté universitaire et de recherche et livrée directement au public.

la conversation
Une source indépendante d’informations et d’opinions, tirée de la communauté universitaire et de recherche et livrée directement au public.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici