Los profesores de toda la universidad están creando robots avanzados e inteligentes con capacidades de gran alcance.
La investigación en robótica de Stanford se remonta a más de 50 años. Uno de los primeros avances fue Shakey , desarrollado por SRI, una institución afiliada a Stanford, en 1966, que se parecía a una torre tambaleante de piezas de computadora. Con el tiempo, los diseños se han vuelto más elegantes y sofisticados. Hoy en día, los robots de Stanford incluyen un buceador humanoide de aguas profundas, un trepador parecido a un geco y un robot blando que crece como una enredadera.
Este otoño, se inauguró el nuevo Centro de Robótica de Stanford , que ofrece un espacio para que la investigación en robótica siga floreciendo en Stanford Engineering. El centro incluye seis bahías para probar y exhibir robots, incluidas áreas que se asemejan a cocinas, dormitorios, hospitales y almacenes. Los profesores de Stanford Engineering están ansiosos por utilizar el espacio no solo para avanzar en sus diseños, sino también para trabajar más de cerca con sus colegas. «Realizaremos nuestra investigación codo a codo en un espacio abierto», dice Karen Liu , profesora de informática. «Tendremos más colaboración en la investigación, porque ahora somos vecinos».
He aquí una breve visión del trabajo que algunos de nuestros profesores están realizando en este espacio.
Renee Zhao: Robots blandos para cirugía mínimamente invasiva
Los órganos humanos son blandos y esponjosos. Los dispositivos médicos en general no lo son. Esto es un problema para hacer que las cirugías sean menos invasivas, ya que insertar un tubo a través de un vaso sanguíneo u otro tracto corporal puede ser difícil y potencialmente dañino. “Nos interesan los sistemas blandos porque en ellos, esencialmente, tienes infinitos grados de libertad: cada punto material puede deformarse”, dice Renee Zhao , profesora adjunta de ingeniería mecánica. “Es mejor para interactuar con los seres humanos porque tenemos tejidos blandos”.
Utilizando robots similares al origami hechos de plástico blando e imanes, Zhao está desarrollando los robots médicos del futuro. Algunos de sus diseños se inspiran en los movimientos de animales, como el brazo de un pulpo, la trompa de un elefante y una lombriz de tierra que avanza lentamente.
Su último proyecto parece un cilindro flotante del tamaño de una píldora con una hélice. Utilizando una réplica de polímero de los vasos sanguíneos del cerebro, probó si este nadador podría navegar con éxito por los giros y vueltas para reducir el tamaño de un coágulo de sangre y tratar un derrame cerebral. Los investigadores mueven el robot utilizando un campo magnético y un joystick. En un futuro quirófano, Zhao dice que los médicos podrían rastrear al robot a través de rayos X, lo que les permitiría guiarlo hasta un coágulo de sangre. «Uno de los mayores desafíos para los procedimientos que utilizan radiología intervencionista es la capacidad de seguimiento y navegación», dice. Al eliminar esas limitaciones, dice, «queremos revolucionar la cirugía mínimamente invasiva existente».
Karen Liu: Imitar el movimiento humano para ayudarnos a desplazarnos
El objetivo de Liu, que se inspiró originalmente en personajes de videojuegos, es comprender cómo nos movemos . “La pregunta fundamental es si podemos entender cómo funciona el cuerpo humano hasta el punto de poder recrearlo”, afirma.
Para lograrlo, está enseñando a los robots a moverse de forma más parecida a la nuestra. Mediante el uso de varios sensores que captan vídeo, aceleración, par motor y otras variables, los investigadores reúnen datos que pueden introducirse en “gemelos digitales”, modelos informáticos que se basan en esa información para predecir por sí solos el movimiento humano.
Una de las aplicaciones en las que trabaja Liu es un exoesqueleto robótico que puede predecir cuándo el usuario pierde el equilibrio y activarse cuando es necesario para evitar una caída. Aprender del movimiento humano es fundamental porque este exoesqueleto tendrá un conocimiento íntimo de su portador, obtenido a partir de sensores y algoritmos de aprendizaje automático. «Es una máquina que solo te brinda asistencia cuando la necesitas», dice, lo que es posible gracias a un profundo conocimiento de cómo se mueven los humanos y el usuario individual.
Jeannette Bohg: Comprender cómo nuestras manos manipulan los objetos
Para que los robots sean funcionales en lugares como nuestros hogares, necesitan poder agarrar una variedad de objetos, lo cual es más complicado de lo que parece. Para Jeannette Bohg , profesora adjunta de informática, la forma en que usamos nuestras manos es un rompecabezas tentador .
Por ejemplo, si ponemos un vaso de agua sobre una mesita de noche, el robot con inteligencia artificial no solo tiene que localizar el vaso transparente y ver dónde se deforman los bordes, sino que también tiene que sujetarlo con la presión adecuada: si lo hace con demasiada fuerza, se romperá; si lo hace con demasiada suavidad, se resbalará. Además, tiene que tener en cuenta la fricción del vaso y la condensación que lo hace resbaladizo. “No es posible escribir con precisión cómo se debe sujetar un vaso, como se puede escribir con precisión una partida de ajedrez”, afirma Bohg. “No tenemos toda la información sobre el entorno y no podemos describir la interacción entre nuestras manos y estos objetos con la suficiente precisión”.
Para resolver este problema, Bohg recurre a métodos de aprendizaje automático. Como es imposible indicarle a un robot mediante un código cómo debe coger un objeto, Bohg demuestra acciones y registra datos en sensores de visión y tacto. Después, a lo largo de muchos ejemplos, la IA aprende a realizar la acción de agarrar. “Si tuviéramos robots que pudieran manipular todas estas cosas, serían muy útiles de muchas maneras diferentes en nuestro mundo”, afirma Bohg.
Canción Shuran: Ayudando a los robots domésticos a generalizarse
Un obstáculo para la construcción de nuevos robots es la recopilación de datos de entrenamiento. Tradicionalmente, esto requeriría que un técnico capacitado operara el robot a través de múltiples demostraciones. Pero ese proceso es muy costoso y difícil de escalar, explica Shuran Song , profesor adjunto de ingeniería eléctrica.
Song está ayudando a resolver ese problema a través de UMI, la Interfaz Universal de Manipulación. UMI es esencialmente una garra mecánica con una cámara con lente ojo de pez acoplada a ella. La pinza tiene una curva de aprendizaje fácil: los expertos en robótica solo necesitan apretar un gatillo para abrirla y cerrarla. Los datos de video recopilados por la cámara se pueden traducir fácilmente para los robots. Aproximadamente 300 repeticiones grabadas de lavado de platos, por ejemplo, son suficientes para entrenar a un par de brazos robóticos para que limpien de forma independiente los utensilios de cocina. «Esta es una forma mucho más fácil de ampliar la recopilación de datos», dice Song.
La pinza se ha utilizado para entrenar algunos brazos robóticos, así como un robot cuadrúpedo parecido a un perro. La herramienta portátil puede recopilar datos en una amplia variedad de entornos, lo que permite superar lo que había sido una barrera para la construcción de robots más inteligentes: una gran cantidad de datos de entrenamiento. Y más datos, además de los avances en el aprendizaje automático, ayudarán a que los robots puedan percibir su entorno más allá de un conjunto reducido de tareas, de forma similar a nuestra propia percepción. Song añade: «Estamos tratando de darle al robot una capacidad similar para percibir un entorno 3D».
Monroe Kennedy III: Mejores prótesis gracias a la colaboración
Una vez que un robot puede actuar de forma autónoma y tomar decisiones independientes, ¿puede también ser un compañero de equipo eficaz? Para colaborar, ya seas humano o robot, “tienes que hacer las cosas de una manera muy integrada”, dice Monroe Kennedy III , profesor adjunto de ingeniería mecánica, “lo que significa que necesitas poder modelar el comportamiento y la intención del compañero de equipo con el que estás trabajando”.
Una de las formas en que está explorando este desafío es mediante el diseño de un brazo protésico inteligente . La prótesis tiene 22 grados de libertad: puede flexionarse y doblarse de más formas que las prótesis actuales. Pero a un usuario con una amputación en el hombro le resultaría difícil controlar un dispositivo de este tipo por sí solo.
Para superar este reto, Monroe está probando si, a través de sensores que registran los movimientos del usuario, la prótesis puede aprender más sobre él, hasta el punto de que el brazo robótico pueda inferir su intención y ayudar a ejecutar acciones. “Puede entender, desde dónde miras y cómo estás enviando señales innatas, qué tarea quieres hacer”, dice Kennedy.
Al igual que muchos especialistas en robótica, a Monroe le han preguntado si los robots le quitarán trabajo a la gente. Si bien enfatiza que la sociedad debe considerar esos riesgos y abordarlos tanto como sea posible, en general se muestra optimista sobre el papel de los robots en la sociedad. “Mi objetivo en robótica es abordar las tareas aburridas, sucias y peligrosas para la humanidad”, dice. “Creo que los beneficios de eso son inmensos”.
Esta historia fue publicada originalmente por Stanford Engineering.
Autor
Calle Chrobak