Con un novedoso método de simulación, los robots pueden adivinar el peso, la suavidad y otras propiedades físicas de un objeto simplemente recogiéndolo.
Una persona que saca trastos de un ático a menudo puede adivinar el contenido de una caja con solo levantarla y sacudirla, sin necesidad de ver qué hay dentro. Investigadores del MIT, Amazon Robotics y la Universidad de Columbia Británica han enseñado a robots a hacer algo similar.
Desarrollaron una técnica que permite a los robots usar únicamente sensores internos para conocer el peso, la suavidad o el contenido de un objeto al levantarlo y sacudirlo suavemente. Con este método, que no requiere herramientas de medición externas ni cámaras, el robot puede calcular con precisión parámetros como la masa de un objeto en cuestión de segundos.
Esta técnica de bajo costo podría ser especialmente útil en aplicaciones donde las cámaras podrían ser menos efectivas, como clasificar objetos en un sótano oscuro o limpiar escombros dentro de un edificio que se derrumbó parcialmente después de un terremoto.
La clave de su enfoque es un proceso de simulación que incorpora modelos del robot y del objeto para identificar rápidamente las características de ese objeto a medida que el robot interactúa con él.
La técnica de los investigadores es tan eficaz para estimar la masa de un objeto como otros métodos más complejos y costosos que incorporan visión artificial. Además, su enfoque, eficiente en el uso de datos, es lo suficientemente robusto como para abordar diversos escenarios imprevistos.
“Esta idea es general, y creo que apenas estamos explorando lo que un robot puede aprender de esta manera. Mi sueño sería que los robots salieran al mundo, tocaran y movieran objetos en su entorno, y descubrieran por sí solos las propiedades de todo aquello con lo que interactúan”, afirma Peter Yichen Chen, investigador posdoctoral del MIT y autor principal de un artículo sobre esta técnica .
Entre sus coautores se encuentran su colega posdoctoral del MIT, Chao Liu; el doctorado Pingchuan Ma (promoción de 2025); el máster en Ingeniería (promoción de 2024) y Dylan Randle y Yuri Ivanov, de Amazon Robotics; los profesores de ingeniería eléctrica e informática del MIT, Daniela Rus, quien dirige el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT; y Wojciech Matusik, quien dirige el Grupo de Diseño y Fabricación Computacional del CSAIL. La investigación se presentará en la Conferencia Internacional sobre Robótica y Automatización.
Detección de señales
El método de los investigadores aprovecha la propiocepción, que es la capacidad de un humano o un robot de detectar su movimiento o posición en el espacio.
Por ejemplo, una persona que levanta una mancuerna en el gimnasio puede sentir su peso en la muñeca y el bíceps, incluso si la sostiene en la mano. De la misma manera, un robot puede sentir el peso de un objeto a través de las múltiples articulaciones de su brazo.
«Un humano no tiene mediciones superprecisas de los ángulos articulares de los dedos ni de la cantidad exacta de torque que aplicamos a un objeto, pero un robot sí. Aprovechamos estas capacidades», afirma Liu.
Cuando el robot levanta un objeto, el sistema de los investigadores recoge señales de los codificadores articulares del robot, que son sensores que detectan la posición de rotación y la velocidad de sus articulaciones durante el movimiento.
La mayoría de los robots cuentan con codificadores articulares dentro de los motores que impulsan sus partes móviles, añade Liu. Esto hace que su técnica sea más rentable que otros enfoques, ya que no requiere componentes adicionales como sensores táctiles o sistemas de seguimiento visual.
Para estimar las propiedades de un objeto durante las interacciones robot-objeto, su sistema se basa en dos modelos: uno que simula el robot y su movimiento y otro que simula la dinámica del objeto.
“Tener un gemelo digital preciso del mundo real es realmente importante para el éxito de nuestro método”, añade Chen.
Su algoritmo “observa” el movimiento del robot y del objeto durante una interacción física y utiliza datos del codificador conjunto para trabajar al revés e identificar las propiedades del objeto.
Por ejemplo, un objeto más pesado se moverá más lento que uno liviano si el robot aplica la misma cantidad de fuerza.
Simulaciones diferenciables
Utilizan una técnica llamada simulación diferenciable, que permite al algoritmo predecir cómo pequeños cambios en las propiedades de un objeto, como la masa o la suavidad, afectan la posición final de la articulación del robot. Los investigadores crearon sus simulaciones utilizando la biblioteca Warp de NVIDIA, una herramienta de desarrollo de código abierto compatible con simulaciones diferenciables.
Una vez que la simulación diferenciable coincide con los movimientos reales del robot, el sistema ha identificado la propiedad correcta. El algoritmo puede hacerlo en cuestión de segundos y solo necesita observar una trayectoria real del robot en movimiento para realizar los cálculos.
“Técnicamente, siempre que conozcas el modelo del objeto y cómo el robot puede aplicar fuerza a ese objeto, deberías poder determinar el parámetro que quieres identificar”, dice Liu.
Los investigadores utilizaron su método para conocer la masa y la suavidad de un objeto, pero su técnica también podría determinar propiedades como el momento de inercia o la viscosidad de un fluido dentro de un recipiente.
Además, debido a que su algoritmo no necesita un amplio conjunto de datos para entrenamiento como algunos métodos que dependen de visión por computadora o sensores externos, no sería tan susceptible a fallas cuando se enfrenta a entornos invisibles u objetos nuevos.
En el futuro, los investigadores quieren intentar combinar su método con la visión por computadora para crear una técnica de detección multimodal aún más potente.
Este trabajo no pretende sustituir la visión artificial. Ambos métodos tienen sus ventajas y desventajas. Pero aquí hemos demostrado que, sin una cámara, ya podemos determinar algunas de estas propiedades, afirma Chen.
También quieren explorar aplicaciones con sistemas robóticos más complicados, como robots blandos, y objetos más complejos, incluidos líquidos en movimiento o medios granulares como arena.
A largo plazo, esperan aplicar esta técnica para mejorar el aprendizaje de los robots, permitiendo que los futuros robots desarrollen rápidamente nuevas habilidades de manipulación y se adapten a los cambios en sus entornos.
Determinar las propiedades físicas de los objetos a partir de datos ha sido un desafío en robótica desde hace mucho tiempo, especialmente cuando solo se dispone de mediciones limitadas o con ruido. Este trabajo es significativo porque demuestra que los robots pueden inferir con precisión propiedades como la masa y la suavidad utilizando únicamente sus sensores articulares internos, sin depender de cámaras externas ni herramientas de medición especializadas, afirma Miles Macklin, director sénior de tecnología de simulación de NVIDIA, quien no participó en esta investigación.
Este trabajo está financiado, en parte, por Amazon y el Programa de Investigación GIST-CSAIL. MIT News. A. Z. Traducido al español