La nouvelle main du robot fonctionne au toucher et non à la vue

Blog

MaisonMaison / Blog / La nouvelle main du robot fonctionne au toucher et non à la vue

Nov 13, 2023

La nouvelle main du robot fonctionne au toucher et non à la vue

Ces capteurs simples permettent à un robot de fonctionner uniquement par le toucher, lui permettant de manipuler des objets depuis une boîte de soupe jusqu'à un canard en caoutchouc. De nombreux robots suivent les objets par « vue » lorsqu'ils travaillent avec eux, mais par voie optique.

Ces capteurs simples permettent à un robot de fonctionner uniquement au toucher, lui permettant de manipuler des objets, depuis une boîte de soupe jusqu'à un canard en caoutchouc.

De nombreux robots suivent les objets par « vue » lorsqu'ils travaillent avec eux, mais les capteurs optiques ne peuvent pas prendre en compte la forme complète d'un objet lorsqu'il est dans l'obscurité ou partiellement masqué. Désormais, une nouvelle technique peu coûteuse permet à une main robotique de « sentir » la forme d'un objet inconnu et de le manipuler adroitement en se basant uniquement sur cette information.

Le roboticien Xiaolong Wang de l'Université de Californie à San Diego et son équipe voulaient savoir si une coordination complexe pouvait être réalisée en robotique en utilisant uniquement de simples données tactiles. Les chercheurs ont fixé 16 capteurs de contact, coûtant chacun environ 12 dollars, à la paume et aux doigts d'une main robotique à quatre doigts. Ces capteurs indiquent simplement si un objet touche la main ou non. « Même si un seul capteur ne capte pas grand-chose, plusieurs d'entre eux peuvent vous aider à capturer différents aspects de l'objet », explique Wang. Dans ce cas, la tâche du robot était de faire pivoter les objets placés dans sa paume.

Les chercheurs ont d’abord effectué des simulations pour collecter un grand volume de données tactiles alors qu’une main de robot virtuel pratiquait la rotation d’objets, notamment des balles, des cuboïdes irréguliers et des cylindres. En utilisant les informations de contact binaires (« toucher » ou « pas de contact ») provenant de chaque capteur, l'équipe a construit un modèle informatique qui détermine la position d'un objet à chaque étape du processus de manipulation et déplace les doigts pour le faire pivoter de manière fluide et stable.

Ensuite, ils ont transféré cette capacité pour faire fonctionner une véritable main de robot, qui manipulait avec succès des objets inédits tels que des pommes, des tomates, des boîtes de soupe et des canards en caoutchouc. Le transfert du modèle informatique vers le monde réel a été relativement simple car les données binaires des capteurs étaient très simples ; le modèle ne reposait pas sur une physique simulée avec précision ni sur des mesures exactes. "C'est important car la modélisation de capteurs tactiles haute résolution en simulation reste un problème ouvert", explique Lerrel Pinto, de l'Université de New York, qui étudie les interactions des robots avec le monde réel.

En fouillant dans ce que la main du robot perçoit, Wang et ses collègues ont découvert qu'elle pouvait recréer la forme entière de l'objet à partir de données tactiles, éclairant ainsi ses actions. "Cela montre qu'il existe suffisamment d'informations provenant du toucher pour permettre de reconstruire la forme de l'objet", explique Wang. Lui et son équipe devraient présenter leurs travaux en juillet lors d'une conférence internationale intitulée Robotics: Science and Systems.

Pinto se demande si le système échouerait lors de tâches plus complexes. "Au cours de nos expériences avec des capteurs tactiles", dit-il, "nous avons découvert que des tâches telles que dépiler des gobelets et ouvrir un bouchon de bouteille étaient beaucoup plus difficiles, et peut-être plus utiles, que la rotation d'objets."

Le groupe de Wang vise à aborder des mouvements plus complexes dans ses travaux futurs ainsi qu'à ajouter des capteurs à des endroits tels que les côtés des doigts. Les chercheurs tenteront également d’ajouter une vision pour compléter les données tactiles afin de gérer des formes complexes.

Cet article a été initialement publié sous le titre « Sight Unseen » dans Scientific American 329, 1, 12 (juillet 2023).

est ce que je:10.1038/scientificamerican0723-12

Ananya est une journaliste et traductrice indépendante basée en Inde. Elle couvre la technologie, l'environnement et les sciences marines. Suivez-la sur Twitter @punarpuli

Lauren Leffer

William Brady et The Conversation US

Anne Stone et The Conversation US

Keith Kloor | Avis

Jacob Job

Julie Arbit, Brad Bottoms, Earl Lewis et The Conversation États-Unis | Avis

Ananya