El Portal de las Tecnologías para la Innovación

Categoría: Papers de Investigación Científica

El robot de cuidado de ancianos ayuda a las personas a sentarse y ponerse de pie, y las atrapa si se caen.

El nuevo diseño podría ayudar a las personas mayores a medida que envejecen en casa. La población de Estados Unidos es más vieja que nunca. Hoy, la edad promedio del país es de 38,9 años, casi una década mayor que en 1980. Y se prevé que el número de adultos mayores de 65 años aumente de 58 millones a 82 millones para 2050. El desafío de cuidar a las personas mayores, en un contexto de escasez de cuidadores, el aumento de los costos de la atención médica y la evolución de las estructuras familiares, es un problema social cada vez más urgente. Para abordar el reto del cuidado de las personas mayores, un equipo de ingenieros del MIT está recurriendo a la robótica. Han construido y probado el Robot de Asistencia Corporal para Personas Mayores (E-BAR), un robot móvil diseñado para brindar apoyo físico a las personas mayores y evitar que se caigan al desplazarse por sus hogares. E-BAR actúa como un conjunto de manubrios robóticos que siguen a una persona por detrás. El usuario puede caminar de forma independiente o apoyarse en los brazos del robot. El robot puede soportar todo el peso de la persona, levantándola de una posición sentada a una de pie y viceversa siguiendo una trayectoria natural. Además, los brazos del robot pueden atraparla inflando rápidamente los airbags laterales si comienza a caer. Con su diseño, los investigadores esperan prevenir las caídas, que hoy en día son la principal causa de lesiones en adultos de 65 años o más.  “Muchos adultos mayores subestiman el riesgo de caídas y se niegan a usar ayudas físicas, que son engorrosas, mientras que otros sobreestiman el riesgo y podrían no hacer ejercicio, lo que conlleva una disminución de la movilidad”, afirma Harry Asada, profesor de Ingeniería Ford en el MIT. “Nuestro concepto de diseño consiste en proporcionar a los adultos mayores con problemas de equilibrio manubrios robóticos para estabilizar su cuerpo. Los manubrios se pueden colocar en cualquier lugar y brindan apoyo en cualquier momento y lugar”. En su versión actual, el robot se opera por control remoto. En futuras versiones, el equipo planea automatizar gran parte de su funcionalidad, permitiéndole seguir y asistir físicamente al usuario de forma autónoma. Los investigadores también están trabajando en optimizar el dispositivo para hacerlo más delgado y maniobrable en espacios reducidos. “Creo que el cuidado de personas mayores es el próximo gran reto”, afirma Roberto Bolli, diseñador de E-BAR y estudiante de posgrado del Departamento de Ingeniería Mecánica del MIT. “Todas las tendencias demográficas apuntan a una escasez de cuidadores, un excedente de personas mayores y un fuerte deseo de que las personas mayores envejezcan en casa. Lo vemos como una frontera inexplorada en Estados Unidos, pero también como un reto intrínsecamente interesante para la robótica”. Bolli y Asada presentarán un artículo que detalla el diseño de E-BAR en la Conferencia IEEE sobre Robótica y Automatización (ICRA) a finales de este mes. https://youtube.com/watch?v=DlT6vHx4Dz4%3Fenablejsapi%3D1%26origin%3Dhttps%253A%252F%252Fnews.mit.edu El grupo de Asada en el MIT desarrolla diversas tecnologías y asistentes robóticos para asistir a las personas mayores. En los últimos años, otros han desarrollado algoritmos de predicción de caídas, diseñado robots y dispositivos automatizados, incluyendo andadores robóticos, bolsas de aire portátiles autoinflables y estructuras robóticas que sujetan a la persona con un arnés y se mueven con ella al caminar. Al diseñar E-BAR, Asada y Bolli buscaron un robot que realizara básicamente tres tareas: proporcionar soporte físico, prevenir caídas y moverse de forma segura y discreta junto con una persona. Además, buscaron eliminar cualquier arnés para brindar al usuario mayor independencia y movilidad. “A la mayoría de las personas mayores no les gusta usar arneses ni dispositivos de asistencia”, dice Bolli. “La idea detrás de la estructura E-BAR es que proporciona soporte para el peso corporal, asistencia activa para la marcha y protección contra caídas, a la vez que ofrece una vista frontal completamente despejada. Puedes salir en cualquier momento”. El equipo buscó diseñar un robot específicamente para el envejecimiento en casa o para ayudar en centros de atención. A partir de entrevistas con adultos mayores y sus cuidadores, establecieron varios requisitos de diseño, entre ellos que el robot debía pasar por las puertas de la casa, permitir al usuario dar una zancada completa y soportar todo su peso para facilitar el equilibrio, la postura y la transición de estar sentado a estar de pie. El robot consta de una base pesada de 100 kg, cuyas dimensiones y estructura fueron optimizadas para soportar el peso de una persona promedio sin volcarse ni resbalarse. Debajo de la base hay un juego de ruedas omnidireccionales que le permiten moverse en cualquier dirección sin pivotar, si es necesario. (Imagine las ruedas de un coche desplazándose para deslizarse entre dos coches, sin tener que aparcar en paralelo). De la base del robot se extiende un cuerpo articulado compuesto por 18 barras interconectadas, o enlaces, que se reconfiguran como una grúa plegable para levantar a una persona de la posición sentada a la de pie, y viceversa. Dos brazos con manillares se extienden desde el robot en forma de U, entre los cuales una persona puede apoyarse y apoyarse si necesita apoyo adicional. Finalmente, cada brazo del robot incorpora bolsas de aire fabricadas con un material suave pero fácil de agarrar, que se inflan instantáneamente para sujetar a una persona en caso de caída, sin causar hematomas en el impacto. Los investigadores creen que E-BAR es el primer robot capaz de sujetar a una persona que cae sin dispositivos portátiles ni arnés. Probaron el robot en el laboratorio con un adulto mayor que se ofreció como voluntario para usarlo en diversas situaciones domésticas. El equipo descubrió que E-BAR podía ayudar activamente a la persona mientras se agachaba para recoger algo del suelo y se estiraba para alcanzar un objeto de un estante, tareas que pueden ser difíciles de realizar manteniendo el equilibrio. El robot también pudo levantar a la persona por encima del borde de una bañera, simulando la tarea de

Leer más »

La mano robótica mueve objetos con agarres similares a los humanos

Una mano robótica desarrollada en la EPFL puede recoger 24 objetos diferentes con movimientos similares a los humanos que surgen de forma espontánea, gracias a materiales y estructuras flexibles, en lugar de programación. Al extender la mano para agarrar un objeto, como una botella, generalmente no se necesita conocer su posición exacta en el espacio para cogerla con éxito. Pero, como explica el investigador de la EPFL Kai Junge, si se quiere crear un robot capaz de coger una botella, es necesario conocer con gran precisión todo el entorno. “Como humanos, no necesitamos mucha información externa para agarrar un objeto, y creemos que esto se debe a las interacciones flexibles que se producen en la interfaz entre un objeto y una mano humana”, afirma Junge, estudiante de doctorado del Laboratorio de Diseño y Fabricación de Robots Computacionales ( CREATE ) de la Escuela de Ingeniería, dirigido por Josie Hughes. “Esta flexibilidad es lo que nos interesa explorar para los robots”. En robótica, los materiales flexibles son aquellos que se deforman, doblan y aplastan. En el caso de la mano robótica ADAPT (Rigidez Programable Antropomórfica, Diestra y Adaptativa) del Laboratorio CREATE, los materiales flexibles son relativamente simples: tiras de silicona envueltas alrededor de una muñeca y dedos mecánicos, además de articulaciones con resortes, combinadas con un brazo robótico flexible. Pero esta flexibilidad estratégicamente distribuida es lo que permite al dispositivo agarrar una amplia variedad de objetos mediante agarres autoorganizados que surgen automáticamente, en lugar de estar programados. En una serie de experimentos, la mano ADAPT, que puede controlarse remotamente, logró recoger 24 objetos con una tasa de éxito del 93 %, utilizando agarres autoorganizados que imitaron el agarre humano natural con una similitud directa del 68 %. La investigación se publicó en Nature Communications Engineering . Inteligencia robótica ‘de abajo hacia arriba’ Mientras que una mano robótica tradicional necesitaría un motor para accionar cada articulación, la mano ADAPT solo cuenta con 12 motores, alojados en la muñeca, para sus 20 articulaciones. El resto del control mecánico se realiza mediante resortes, que pueden endurecerse o aflojarse para ajustar la flexibilidad de la mano, y mediante la «piel» de silicona, que también puede añadirse o retirarse. En cuanto al software, la mano ADAPT está programada para moverse a través de tan solo cuatro puntos de referencia generales, o posiciones, para levantar un objeto. Cualquier adaptación adicional necesaria para completar la tarea se produce sin programación ni retroalimentación adicional; en robótica, esto se denomina control de bucle abierto. Por ejemplo, cuando el equipo programó el robot para utilizar un movimiento determinado, este pudo adaptar su postura de agarre a diversos objetos, desde un simple tornillo hasta un plátano. Los investigadores analizaron esta extrema robustez —gracias a la flexibilidad distribuida espacialmente del robot— con más de 300 agarres y los compararon con una versión rígida de la mano. Nos interesa explotar la inteligencia mecánica distribuida de diferentes partes del cuerpo, como la piel, los músculos y las articulaciones, en oposición a la inteligencia de arriba hacia abajo del cerebro.Kai Junge, Laboratorio CREATE “Desarrollar robots que puedan realizar interacciones o tareas que los humanos realizan automáticamente es mucho más difícil de lo que la mayoría de la gente cree”, afirma Junge. “Por eso nos interesa explotar esta inteligencia mecánica distribuida de diferentes partes del cuerpo, como la piel, los músculos y las articulaciones, en contraposición a la inteligencia descendente del cerebro”. Equilibrio entre cumplimiento y control Junge enfatiza que el objetivo del estudio ADAPT no fue necesariamente crear una mano robótica que pudiera agarrar como un humano, sino mostrar por primera vez cuánto puede lograr un robot solo con obediencia. Tras demostrar esto sistemáticamente, el equipo de la EPFL está aprovechando el potencial de la conformidad al reintegrar elementos del control de bucle cerrado en la mano ADAPT, incluyendo la retroalimentación sensorial (mediante la incorporación de sensores de presión a la piel de silicona) y la inteligencia artificial. Este enfoque sinérgico podría dar lugar a robots que combinen la robustez de la conformidad ante la incertidumbre con la precisión del control de bucle cerrado. “Una mejor comprensión de las ventajas de los robots compatibles podría mejorar enormemente la integración de los sistemas robóticos en entornos altamente impredecibles o en entornos diseñados para humanos”, resume Junge. Referencias Junge, K., Hughes, J. La compatibilidad biomimética distribuida espacialmente permite una manipulación robótica antropomórfica robusta. Commun Eng 4, 76 (2025). https://doi.org/10.1038/s44172-025-00407-4 EPFL News. C. L. Traducido al español

Leer más »

Un paso hacia la comprensión de la inteligencia de las máquinas a la manera humana

Investigadores de la EPFL han descubierto unidades clave en grandes modelos de IA que parecen ser importantes para el lenguaje, reflejando el sistema lingüístico del cerebro. Al desactivar estas unidades específicas, los modelos empeoraron considerablemente en las tareas lingüísticas. Los modelos de lenguaje grande (LLM) no solo son buenos para comprender y usar el lenguaje, también pueden razonar o pensar lógicamente, resolver problemas y algunos incluso pueden predecir los pensamientos, creencias o emociones de las personas con las que interactúan. A pesar de estos impresionantes logros, aún no comprendemos del todo el funcionamiento interno de los LLM, en particular cómo las distintas unidades o módulos realizan distintas tareas. Por ello, investigadores del Laboratorio de NeuroAI, perteneciente a la Facultad de Ciencias de la Computación y la Comunicación (IC) y a la Facultad de Ciencias de la Vida (SV), y del Laboratorio de Procesamiento del Lenguaje Natural (IC), se propusieron averiguar si los LLM cuentan con unidades o módulos especializados que realizan tareas específicas. Esto se inspira en redes descubiertas en el cerebro humano, como la Red del Lenguaje , la Red de Demanda Múltiple y la red de la Teoría de la Mente . En un artículo presentado este mes en la Conferencia Anual 2025 del Capítulo de las Naciones de las Américas de la Asociación de Lingüística Computacional ,En Albuquerque, Estados Unidos, los investigadores explican cómo investigaron 18 LLM populares y descubrieron que ciertas unidades, de hecho, parecen formar una red central centrada en el lenguaje. Inspirándonos en enfoques neurocientíficos que han mapeado la organización funcional de nuestro cerebro, comparamos la actividad de una unidad al leer oraciones reales con la de listas de palabras aleatorias. Las unidades que reaccionaron más activamente a oraciones reales se identificaron como «unidades selectivas del lenguaje», al igual que la Red Lingüística de nuestro cerebro, explicó el profesor adjunto Martin Schrimpf, director del Laboratorio de NeuroAI. Menos de 100 neuronas extremadamente relevantes Para comprobar la función causal de las unidades selectivas del idioma identificadas, los investigadores las eliminaron y, por separado, eliminaron diferentes conjuntos de unidades aleatorias. A continuación, compararon las diferencias en lo que ocurrió a continuación. Al eliminar las unidades específicas del idioma, pero no las aleatorias, los modelos dejaron de generar texto coherente y no obtuvieron buenos resultados en los parámetros lingüísticos. Los resultados muestran que estas unidades son realmente importantes para el modelo. La principal sorpresa para nosotros fue que probablemente hay menos de 100 neuronas (aproximadamente el 1 % de las unidades) que parecen ser extremadamente relevantes para cualquier aspecto relacionado con la capacidad del modelo para producir y comprender el lenguaje, y que, al interrumpirlas, el modelo falla por completo de repente —explicó Badr AlKhamisi, asistente de doctorado en los laboratorios de NeuroAI y PNL y autor principal del artículo—. Existen investigaciones sobre aprendizaje automático e interpretabilidad que han identificado algunas redes o unidades en un modelo relevantes para el lenguaje, pero requirió mucho entrenamiento y fue mucho más complejo que simplemente usar el mismo localizador empleado en neurociencia humana. Realmente no esperábamos que esto funcionara tan bien —continuó—. Además de las unidades selectivas del lenguaje, esto planteó una pregunta natural: ¿podrían aplicarse también a los LLM los mismos localizadores diseñados para identificar otras redes cerebrales, como la Teoría de la Mente o las redes de demanda múltiple? Utilizando estos localizadores, los investigadores de la EPFL intentaron evaluar si otras unidades dentro de los modelos se especializaban en razonamiento o pensamiento social y descubrieron que algunos modelos poseían estas unidades de tareas específicas mientras que otros no. Más preguntas En algunos modelos encontramos unidades de razonamiento y pensamiento especializadas, y en otros no. Una pregunta interesante ahora mismo es: ¿de dónde proviene esto? ¿Por qué algunos modelos tienen esta preferencia? ¿Se relaciona esto con su rendimiento en indicadores relacionados? Si existen unidades algo aisladas, ¿permite esto que el modelo tenga un mejor rendimiento? Quizás esto se relacione con la forma en que se entrenan los modelos o con los datos con los que se entrenan, y esta es una línea de investigación adicional —dijo Schrimpf—. Otras investigaciones futuras se centrarán en intentar descubrir qué sucede en los modelos multimodelo: modelos que no solo se entrenan con texto sino que también pueden procesar otras modalidades de información, incluidas imágenes, vídeo y sonido. Estoy muy interesado en esto, ya que los humanos operamos con información del habla y la visión. La pregunta es: si usamos un modelo multimodal y le damos, por ejemplo, el lenguaje como información visual, de forma similar a la lectura de un texto, ¿presentará los mismos déficits lingüísticos que al eliminar la Red Lingüística en los LLM, en comparación con una tarea visual donde tiene que identificar varios objetos o realizar razonamiento matemático? ¿Se mantendrán intactos?, preguntó AlKhamissi. En términos más generales, los investigadores creen que estos estudios ayudan a resolver el enigma del funcionamiento interno de los grandes modelos de lenguaje, relacionándolos con la neurociencia y estableciendo conexiones con el funcionamiento del cerebro humano. Si consideramos el daño que sufre la Red del Lenguaje en el cerebro de las personas que han sufrido un ictus, a menudo presentan graves deficiencias del lenguaje, mientras que todo lo demás permanece intacto. Es muy similar en este caso, con el componente del lenguaje LLM, que simplemente produce un galimatías, y aunque no lo hemos probado, probablemente podría funcionar bien en todo lo demás. Esperamos que estos modelos nos ayuden a comprendernos mejor a nosotros mismos y a nuestro cerebro, allanando el camino para un diagnóstico y tratamiento de enfermedades más avanzados», concluyó Schrimpf. El Laboratorio NeuroAI es parte del Instituto Neuro-X de la EPFL , una comunidad colaborativa e interdisciplinaria que reúne a equipos de la Escuela de Ciencias de la Computación y la Comunicación de la EPFL, la Escuela de Ciencias Vivas y la Escuela de Ingeniería . EPFL News. T. P. Traducido al español

Leer más »

Estudio de IBM: Los directores ejecutivos apuestan por la IA mientras superan los obstáculos empresariales

Un nuevo estudio global del Instituto de Valor Empresarial de IBM (NYSE: IBM ) descubrió que los directores ejecutivos encuestados están comprometidos con el avance de las soluciones de IA en toda su organización incluso cuando enfrentan desafíos por la aceleración de la adopción de tecnología. • Los directores ejecutivos encuestados dicen que esperan que la tasa de crecimiento de las inversiones en IA se duplique en los próximos dos años.• El 50% de los directores ejecutivos encuestados informan que la rápida inversión ha resultado en una tecnología desconectada dentro de su organización.6 de mayo de 2025 ARMONK, NY, 6 de mayo de 2025 – Un nuevo estudio global del Instituto de Valor Empresarial de IBM (NYSE: IBM ) descubrió que los directores ejecutivos encuestados están comprometidos con el avance de las soluciones de IA en toda su organización incluso cuando enfrentan desafíos por la aceleración de la adopción de tecnología. El estudio de CEO de IBM*, que encuestó a 2.000 CEO de todo el mundo, reveló que los ejecutivos encuestados esperan que la tasa de crecimiento de las inversiones en IA se duplique en los próximos dos años, y el 61 % confirma que están adoptando activamente agentes de IA hoy y se preparan para implementarlos a escala. Según los resultados, el 68 % de los directores ejecutivos encuestados considera que la arquitectura de datos integrada en toda la empresa es fundamental para la colaboración interfuncional, y el 72 % considera que los datos propietarios de su organización son clave para aprovechar el valor de la IA generativa. Sin embargo, la investigación indica que las organizaciones podrían tener dificultades para desarrollar un entorno de datos eficaz: la mitad (50 %) de los encuestados reconoce que el ritmo de las inversiones recientes ha dejado a su organización con una tecnología fragmentada y desconectada. En el prólogo del estudio, el vicepresidente de IBM, Gary Cohn, escribe: «A medida que se acelera la adopción de la IA, generando mayor eficiencia y aumentos de productividad, la recompensa final solo llegará a los directores ejecutivos con la valentía de asumir el riesgo como una oportunidad. Es decir, centrarse en lo que se puede controlar, especialmente cuando hay tanto que no se puede controlar. Cuando el entorno empresarial es incierto, utilizar la IA y los datos empresariales para identificar dónde se tiene influencia es una ventaja competitiva. En este punto, los líderes que no están aprovechando la IA y sus propios datos para avanzar están tomando la decisión empresarial consciente de no competir». “Los directores ejecutivos están equilibrando la presión del retorno de la inversión (ROI) a corto plazo y la inversión en innovación a largo plazo en lo que respecta a la adopción de la IA”, afirmó Mohamad Ali, vicepresidente sénior y director de Consultoría de IBM . “Pero sabemos que las organizaciones que siguen innovando, especialmente en periodos de incertidumbre, emergerán más fuertes y mejor posicionadas para aprovechar nuevas oportunidades”. Otros hallazgos clave incluyen: Los directores ejecutivos se enfrentan a presiones competitivas de retorno de la inversión a corto plazo e innovación a largo plazo Los directores ejecutivos consideran que el liderazgo estratégico y el talento especializado son esenciales para liberar el valor de la IA, en medio de las brechas de experiencia y habilidades. Para ver el estudio completo, visite: https://www.ibm.com/thought-leadership/institute-business-value/en-us/c-suite-study/ceo *Metodología del estudio El IBM Institute for Business Value, en colaboración con Oxford Economics, encuestó a 2000 directores ejecutivos de 33 países y 24 sectores entre febrero y abril de 2025. Las preguntas de la encuesta abarcaron diversas áreas clave, como el rendimiento organizacional, las prioridades estratégicas y los retos de la innovación. La encuesta también exploró cómo las empresas gestionan el cambio, adoptan tecnologías como la IA, toman decisiones, los enfoques de liderazgo, las estrategias de talento, la preparación cultural para la transformación, las iniciativas de colaboración y las preocupaciones regulatorias. El IBM Institute for Business Value, el centro de investigación y liderazgo intelectual de IBM, combina datos globales de investigación y rendimiento con la experiencia de expertos del sector y académicos líderes para ofrecer perspectivas que impulsan a los líderes empresariales a ser más inteligentes. Para obtener más información sobre liderazgo intelectual de primer nivel, visite: www.ibm.com/ibv . Para recibir más información, suscríbase al boletín IdeaWatch: https://ibm.co/ibv-ideawatch . IBM News. Traducido al español

Leer más »

Un laboratorio de marcha innovador en un zapato

Diseñado por bioingenieros de Johns Hopkins, Re-Kinesis fue nombrado finalista en el Desafío de Start-Up 2025 del Instituto Nacional sobre el Envejecimiento, que reconoce a los investigadores que han creado tecnologías innovadoras con el potencial de avanzar en intervenciones para enfermedades relacionadas con la edad. La marcha de una persona, o su forma de estar de pie y caminar, puede revelar información valiosa sobre su salud. En pacientes mayores, especialmente, estas métricas son importantes, ya que pueden ayudar a los médicos a supervisar la rehabilitación de accidentes cerebrovasculares o a evaluar el riesgo de demencia. Sin embargo, obtener una visión completa de la marcha de un paciente —no solo su cadencia de paso y distribución del peso, sino también la cinemática de las extremidades inferiores— requiere costosos análisis de laboratorio y meses de laboriosas pruebas presenciales. La carga tanto para los pacientes como para los médicos es inmensa. Junjen Chen, Engr ’20, ’24 (MS), egresado recientemente del programa de maestría en ingeniería biomédica de la Universidad Johns Hopkins, y Anway Pimpalkar , quien obtendrá su maestría en ingeniería biomédica a finales de este mes, lideran un equipo que apunta a hacer que el análisis de la marcha sea tan simple como ponerse los zapatos. Chen y Pimpalkar cofundaron Re-Kinesis, un sensor de pie portátil que recopila métricas integrales de la marcha de sus usuarios. El producto fue nombrado finalista en el 2025 Start-Up Challenge del Instituto Nacional sobre el Envejecimiento , que reconoce a investigadores y emprendedores que han creado tecnologías innovadoras basadas en la ciencia con el potencial de avanzar en los campos del envejecimiento y las intervenciones para enfermedades relacionadas con la edad. El NIA nos ha asignado mentores emprendedores y clínicos que nos ayudarán a alcanzar nuestras metas. En definitiva, depende de nosotros aprovechar al máximo estas conexiones y recursos.Anway PimpalkarClase de 2025Junto con Chen y Pimpalkar, el equipo de Re-Kinesis incluye a los mentores técnicos Nitish Thakor , Ariel Slepyan y Samuel Bello ; los mentores clínicos Preeti Raghavan , Ryan Roemmich y Jennifer Schrack ; y los mentores industriales y comerciales Rahul Kaliki , Christina DeMur y Jason Troutner . Chen y Pimpalkar se conocieron cuando ambos trabajaban como ayudantes de cátedra en el curso de Principios de Diseño de Instrumentación Biomédica de Thakor. Allí, conocieron a uno de los estudiantes de Thakor, el estudiante de doctorado Ariel Slepyan, experto en ingeniería eléctrica que había diseñado sensores táctiles de alta resolución y velocidad. Preguntándose cómo podrían aplicar estos sensores en la práctica, conocieron a Raghavan, médico especialista en rehabilitación de accidentes cerebrovasculares, quien los inspiró a hacer más accesible la evaluación de la marcha. O, como lo expresó Pimpalkar: «¿Qué pasaría si tomáramos todo el laboratorio y lo redujéramos al tamaño de tu zapato?» Normalmente, las evaluaciones de la marcha requieren que los pacientes usen una cinta de correr en una sala grande equipada con cámaras en todos los lados. Si bien los datos recopilados en laboratorios especializados son precisos, médicos y pacientes rara vez tienen acceso a ellos debido a los altos costos, la complejidad y la dificultad para programar citas. Por lo tanto, datos similares recopilados por los sensores Re-Kinesis —un laboratorio de marcha portátil que los pacientes pueden usar fácilmente fuera de la clínica— suponen un cambio radical. «Básicamente, democratiza la detección de la marcha para las poblaciones mayores y económicamente desfavorecidas y desatendidas y subrepresentadas», afirma Chen. Con el apoyo de la Fundación Nacional de Ciencias (NIA) I-Corp y Johns Hopkins Technology Ventures , el equipo de Re-Kinesis logró desarrollar un producto galardonado. Fueron seleccionados junto con otros 20 finalistas de un grupo de aproximadamente 300 solicitantes y recibieron $10,000 para continuar desarrollando sus plantillas. Todos los finalistas también participarán en un programa de aceleración de verano en el NIA, donde trabajarán en el perfeccionamiento de sus productos y su lanzamiento al mercado. Identificador gráfico «La investigación salva vidas»Más coberturaEl impacto de los recortes de financiaciónSin investigación —y el apoyo federal que la hace posible— los avances científicos se ven afectados y los tratamientos que salvarían vidas en el futuro están en riesgo. «El NIA nos ha asignado mentores emprendedores y clínicos que nos ayudarán a alcanzar nuestras metas. En definitiva, depende de nosotros aprovechar al máximo estas conexiones y recursos», afirma Pimpalkar. «Independientemente de si ganamos el gran premio, será una experiencia fructífera para nosotros y para todos los demás miembros del equipo». Mientras tanto, el equipo está desarrollando una interfaz intuitiva para que médicos y pacientes puedan consultar los datos recopilados de las plantillas. También están entrevistando a clientes potenciales, desde hospitales de la zona hasta la división de medicina deportiva de la Academia Militar de EE. UU. «Ha sido una trayectoria extraordinaria», afirma Chen. «Nos llevó años construir Re-Kinesis desde cero y finalmente estamos cobrando impulso. Nos entusiasma seguir impulsando Re-Kinesis con un equipo tan excelente y lograr un impacto aún mayor». Universidad Johns Hopkins News. Traducido al español

Leer más »

El sistema permite a los robots identificar las propiedades de un objeto mediante su manipulación.

Con un novedoso método de simulación, los robots pueden adivinar el peso, la suavidad y otras propiedades físicas de un objeto simplemente recogiéndolo. Una persona que saca trastos de un ático a menudo puede adivinar el contenido de una caja con solo levantarla y sacudirla, sin necesidad de ver qué hay dentro. Investigadores del MIT, Amazon Robotics y la Universidad de Columbia Británica han enseñado a robots a hacer algo similar. Desarrollaron una técnica que permite a los robots usar únicamente sensores internos para conocer el peso, la suavidad o el contenido de un objeto al levantarlo y sacudirlo suavemente. Con este método, que no requiere herramientas de medición externas ni cámaras, el robot puede calcular con precisión parámetros como la masa de un objeto en cuestión de segundos. Esta técnica de bajo costo podría ser especialmente útil en aplicaciones donde las cámaras podrían ser menos efectivas, como clasificar objetos en un sótano oscuro o limpiar escombros dentro de un edificio que se derrumbó parcialmente después de un terremoto. La clave de su enfoque es un proceso de simulación que incorpora modelos del robot y del objeto para identificar rápidamente las características de ese objeto a medida que el robot interactúa con él.  La técnica de los investigadores es tan eficaz para estimar la masa de un objeto como otros métodos más complejos y costosos que incorporan visión artificial. Además, su enfoque, eficiente en el uso de datos, es lo suficientemente robusto como para abordar diversos escenarios imprevistos. “Esta idea es general, y creo que apenas estamos explorando lo que un robot puede aprender de esta manera. Mi sueño sería que los robots salieran al mundo, tocaran y movieran objetos en su entorno, y descubrieran por sí solos las propiedades de todo aquello con lo que interactúan”, afirma Peter Yichen Chen, investigador posdoctoral del MIT y autor principal de un artículo sobre esta técnica . Entre sus coautores se encuentran su colega posdoctoral del MIT, Chao Liu; el doctorado Pingchuan Ma (promoción de 2025); el máster en Ingeniería (promoción de 2024) y Dylan Randle y Yuri Ivanov, de Amazon Robotics; los profesores de ingeniería eléctrica e informática del MIT, Daniela Rus, quien dirige el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT; y Wojciech Matusik, quien dirige el Grupo de Diseño y Fabricación Computacional del CSAIL. La investigación se presentará en la Conferencia Internacional sobre Robótica y Automatización. Detección de señales El método de los investigadores aprovecha la propiocepción, que es la capacidad de un humano o un robot de detectar su movimiento o posición en el espacio. Por ejemplo, una persona que levanta una mancuerna en el gimnasio puede sentir su peso en la muñeca y el bíceps, incluso si la sostiene en la mano. De la misma manera, un robot puede sentir el peso de un objeto a través de las múltiples articulaciones de su brazo. «Un humano no tiene mediciones superprecisas de los ángulos articulares de los dedos ni de la cantidad exacta de torque que aplicamos a un objeto, pero un robot sí. Aprovechamos estas capacidades», afirma Liu. Cuando el robot levanta un objeto, el sistema de los investigadores recoge señales de los codificadores articulares del robot, que son sensores que detectan la posición de rotación y la velocidad de sus articulaciones durante el movimiento.  La mayoría de los robots cuentan con codificadores articulares dentro de los motores que impulsan sus partes móviles, añade Liu. Esto hace que su técnica sea más rentable que otros enfoques, ya que no requiere componentes adicionales como sensores táctiles o sistemas de seguimiento visual. Para estimar las propiedades de un objeto durante las interacciones robot-objeto, su sistema se basa en dos modelos: uno que simula el robot y su movimiento y otro que simula la dinámica del objeto. “Tener un gemelo digital preciso del mundo real es realmente importante para el éxito de nuestro método”, añade Chen. Su algoritmo “observa” el movimiento del robot y del objeto durante una interacción física y utiliza datos del codificador conjunto para trabajar al revés e identificar las propiedades del objeto. Por ejemplo, un objeto más pesado se moverá más lento que uno liviano si el robot aplica la misma cantidad de fuerza. Simulaciones diferenciables Utilizan una técnica llamada simulación diferenciable, que permite al algoritmo predecir cómo pequeños cambios en las propiedades de un objeto, como la masa o la suavidad, afectan la posición final de la articulación del robot. Los investigadores crearon sus simulaciones utilizando la biblioteca Warp de NVIDIA, una herramienta de desarrollo de código abierto compatible con simulaciones diferenciables. Una vez que la simulación diferenciable coincide con los movimientos reales del robot, el sistema ha identificado la propiedad correcta. El algoritmo puede hacerlo en cuestión de segundos y solo necesita observar una trayectoria real del robot en movimiento para realizar los cálculos. “Técnicamente, siempre que conozcas el modelo del objeto y cómo el robot puede aplicar fuerza a ese objeto, deberías poder determinar el parámetro que quieres identificar”, dice Liu. Los investigadores utilizaron su método para conocer la masa y la suavidad de un objeto, pero su técnica también podría determinar propiedades como el momento de inercia o la viscosidad de un fluido dentro de un recipiente. Además, debido a que su algoritmo no necesita un amplio conjunto de datos para entrenamiento como algunos métodos que dependen de visión por computadora o sensores externos, no sería tan susceptible a fallas cuando se enfrenta a entornos invisibles u objetos nuevos. En el futuro, los investigadores quieren intentar combinar su método con la visión por computadora para crear una técnica de detección multimodal aún más potente. Este trabajo no pretende sustituir la visión artificial. Ambos métodos tienen sus ventajas y desventajas. Pero aquí hemos demostrado que, sin una cámara, ya podemos determinar algunas de estas propiedades, afirma Chen. También quieren explorar aplicaciones con sistemas robóticos más complicados, como robots blandos, y objetos más complejos, incluidos líquidos en movimiento o medios granulares como arena. A largo plazo, esperan aplicar esta técnica

Leer más »

Una novela gráfica explica el impacto ambiental de la IA

El Centro de Ciencias del Aprendizaje (LEARN) de la EPFL publica Utop’IA, una novela gráfica educativa que explora el impacto ambiental de la inteligencia artificial. El libro, desarrollado en colaboración con el autor e ilustrador Herji, se presentará en un evento público en el Centro de Aprendizaje Rolex a las 18:30 h del martes 20 de mayo. La inteligencia artificial (IA) nos rodea. Aparece en los titulares y el discurso público, y afecta a prácticamente todos los ámbitos de la sociedad. Pero esta tecnología también es experta en pasar desapercibida. Para muchos, es un concepto abstracto, algo nebuloso e inalcanzable. Sin embargo, consume enormes cantidades de recursos reales. Esto es lo que Aïcha, una estudiante ficticia de maestría en IA, y su amigo Félix descubren en Utop’IA, una novela gráfica educativa desarrollada en colaboración con el autor e ilustrador Herji como parte de un proyecto iniciado por LEARN . “Explorar la IA desde una perspectiva ambiental pone de relieve su lado físico y tangible”, afirma Sonia Agrebi, experta en sociología digital y gestora de proyectos LEARN. “ Utop’IA examina cómo la IA puede tener un impacto tanto positivo como negativo en el medio ambiente. Como sociedad, utilizamos la IA sin darnos cuenta de sus repercusiones. Nuestro objetivo no es moralizar ni culpar, sino cuestionar las percepciones y explicar conceptos para concienciar sobre los problemas que rodean a la IA”. Utop’IA cuenta con un sólido razonamiento y evidencia científica, ya que cada detalle fue revisado por un comité de expertos de la EPFL en IA, sostenibilidad y ciencias del aprendizaje. «La IA desempeña un papel cada vez más importante en nuestra vida cotidiana, pero me alarma que se hable tan poco de su impacto ambiental. Utop’IA ofrece perspectivas comprensibles sobre este complejo tema», afirma Francesco Mondada, miembro del comité en su calidad de profesor de robótica y director académico de LEARN. «Por ejemplo, puede que sea divertido experimentar con los generadores de imágenes de IA, pero la gente no comprende el gran consumo de recursos que consumen». Nuestro objetivo no es moralizar ni señalar con el dedo, sino más bien desafiar las percepciones y explicar conceptos para generar conciencia sobre los problemas que rodean a la IA.Sonia Agrebi, experta en sociología digital y gestora de proyectos LEARN. La novela gráfica, publicada por EPFL Press , está dirigida principalmente a adolescentes y busca ayudar a profesores de secundaria a debatir las ventajas y desventajas ecológicas de la IA. «Un gran reto fue encontrar el equilibrio adecuado entre los costes y los beneficios ambientales», afirma Herji. «Capté esta disonancia creando parejas de personajes que expresan diferentes puntos de vista. Las explicaciones las da una profesora, pero no es la típica experta distante y autoproclamada. No quería establecer una línea divisoria entre ella y los demás personajes». Entre Utop’IA y MIAM La historia comienza en Utop’IA, donde un guía —cuya pomposa forma de hablar recuerda al texto generado por ChatGPT— muestra a los protagonistas un mundo limpio y tranquilo, repleto de carteles de «Melon Usk» y «Jeff Pesos». Aquí, software y dispositivos inteligentes conservan energía y agua, monitorizan la calidad del aire y reducen, clasifican y reciclan residuos. La acción se traslada entonces a MIAM —un juego de palabras con la palabra francesa «delicioso»—, donde un científico veterano asume el papel de guía turístico. En este mundo de minas, fábricas y contaminación, el impacto físico de la IA es evidente. 1,4 millones de kilómetros de cable submarino —suficiente para dar la vuelta al mundo 30 veces— transportan el tráfico de datos del que depende internet. Grandes centros de datos consumen enormes cantidades de energía y agua. Y se extraen metales y tierras raras del suelo para producir decenas de miles de millones de dispositivos digitales y otros objetos conectados. Pero Utop’IA ofrece más que una visión polarizada. También explora un punto medio, estableciendo un posible camino hacia una IA sostenible que beneficie a la sociedad en su conjunto. «Toda innovación importante transforma la sociedad profundamente, y la IA no es la excepción», afirma Sascha Nick, profesora y científica del Laboratorio de Economía Ambiental y Urbana (LEURE) de la EPFL , quien también formó parte del comité de revisión del libro. «Se habla mucho de las capacidades técnicas de la IA, pero debemos preguntarnos cómo encaja en nuestra sociedad y cómo debe supervisarse y gestionarse. La IA tiene el potencial de lograr cosas increíbles. Pero solo podrá alcanzar ese potencial si la gestionamos adecuadamente. Debemos mantenernos alerta y desafiar continuamente la corriente dominante. Actualmente, estamos poniendo mucho poder en manos de un pequeño número de empresas con sede en Estados Unidos y China». Actividades para profesores Utop’IA , que estará disponible como descarga gratuita a partir del 20 de mayo, busca fomentar el pensamiento crítico y ayudar a los jóvenes lectores a comprender mejor el funcionamiento de la IA. LEARN también ha desarrollado una serie de juegos educativos sin dispositivos y otras actividades para acompañar el libro. «Trabajamos con un pequeño grupo de docentes para poner a prueba nuestras ideas, obtener retroalimentación y adaptar los materiales a las necesidades de sus aulas», explica Agrebi. Las actividades están diseñadas para iniciar conversaciones, ayudando a los estudiantes a comprender el funcionamiento interno de la IA. Como dice Eliza, la docente del libro, la IA «no es artificial ni inteligente». Al final, es lo que nosotros, como seres humanos, hacemos de ella. Utop’IA se presentará en un evento público en el Centro de Aprendizaje Rolex de la EPFL a las 18:30 h del martes 20 de mayo. El lanzamiento incluirá conversaciones con Herji, miembros del comité de revisión del libro y el equipo de LEARN que está detrás del proyecto. También habrá una exposición que mostrará el trabajo realizado tras bambalinas para el diseño del libro y los materiales educativos que lo acompañan. Tras el evento, habrá un cóctel. La entrada es gratuita, pero es necesario registrarse. Puede inscribirse  aquí .La novela gráfica estará disponible para la venta y descarga gratuita a partir del 20 de mayo.  Para consultas de los medios de comunicación , se puede obtener un enlace de descarga para la novela gráfica solicitándolo a Manon Reber ( manon.reber@epfl.ch ), encargada de

Leer más »

Adaptación de la realidad aumentada a la sociedad

La ETH de Zúrich está creando un nuevo centro de investigación sobre realidad aumentada que implica una estrecha colaboración con Google. Uno de los codirectores de la ETH, Christian Holz, explica la importancia de la creación de redes en este campo.  En resumen Christian Holz, ¿qué significa realmente la realidad aumentada?La visión de la realidad aumentada es más antigua de lo que se cree. Ivan Sutherland, pionero de los gráficos por computadora, publicó su concepto Ultimate Display —una pantalla de computadora que satisface todos los sentidos humanos— hace 60 años. Hoy en día, generalmente se trata de abrir nuevas dimensiones de la realidad, por ejemplo, con gafas inteligentes e interactivas que pueden ampliar y mejorar la percepción de las personas. ¿Es engañosa la impresión o la realidad aumentada aún está en sus primeras etapas?En cierto sentido, ya vivimos en una realidad aumentada a través de nuestros smartphones, pues usamos sus servicios a diario. Pero la tecnología y las interfaces entre el mundo real y el virtual siguen evolucionando; por ejemplo, usamos relojes inteligentes interactivos para consultar mensajes o hacer llamadas. ¿Qué temas investigarán en el nuevo centro?Las interfaces entre lo real y lo virtual funcionan a la perfección con dispositivos convencionales. Así, si presiono una tecla en el teclado de mi portátil, la letra correspondiente aparece en el documento virtual de mi pantalla. En la realidad aumentada, en cambio, el contenido virtual se integra directamente en mi entorno físico: el teclado aparece sobre la mesa frente a mí y el documento flota en el aire junto a él. Pero ¿cómo puede el sistema reconocer y comprender el mundo que me rodea? ¿Cómo sabe dónde está mi mano y si estoy escribiendo o simplemente gesticulando? ¿Y cómo podemos integrar humanos virtuales y objetos 3D en el mundo para que parezcan engañosamente reales y podamos interactuar con ellos de forma plausible? Estas son preguntas clave de investigación que estudiaremos en el centro. ETH Zürich News. D. L. Traducido al español

Leer más »

Uso de IA para explorar la estructura 3D del genoma

Dos metros de ADN se concentran en el núcleo de cada célula humana. Bin Zhang quiere saber cómo funciona la expresión génica en este minúsculo espacio. Dentro de cada célula humana se encuentran 2 metros de ADN comprimidos en un núcleo cuyo diámetro es de apenas una centésima de milímetro. Para caber en ese diminuto espacio, el genoma debe plegarse formando una estructura compleja llamada cromatina, compuesta de ADN y proteínas. La estructura de dicha cromatina, a su vez, ayuda a determinar cuáles genes se expresarán en una célula determinada. Las neuronas, las células cutáneas y las células inmunitarias expresan genes diferentes según cuáles sean accesibles para su transcripción. Descifrar estas estructuras experimentalmente es un proceso laborioso, lo que dificulta la comparación de las estructuras genómicas tridimensionales presentes en diferentes tipos de células. El profesor Bin Zhang del MIT está adoptando un enfoque computacional para abordar este desafío, utilizando simulaciones por computadora e inteligencia artificial generativa para determinar estas estructuras. “La regulación de la expresión genética depende de la estructura tridimensional del genoma, por lo que la esperanza es que si podemos comprender plenamente esas estructuras, podremos comprender de dónde proviene esta diversidad celular”, afirma Zhang, profesor asociado de química. De la granja al laboratorio Zhang se interesó por primera vez en la química cuando su hermano, que era cuatro años mayor, compró algunos equipos de laboratorio y comenzó a realizar experimentos en casa. Traía tubos de ensayo y reactivos a casa y hacía el experimento allí. En aquel entonces no tenía ni idea de lo que hacía, pero me fascinaban los colores brillantes, el humo y los olores que emanaban de las reacciones. Eso me cautivó muchísimo, dice Zhang. Su hermano se convirtió más tarde en la primera persona de la aldea rural de Zhang en ir a la universidad. Esa fue la primera vez que Zhang intuyó que podría tener un futuro diferente al de seguir los pasos de sus padres, agricultores de la provincia china de Anhui. “De niño, nunca me habría imaginado dedicarme a la ciencia ni trabajar como profesor en Estados Unidos”, dice Zhang. “Cuando mi hermano fue a la universidad, eso realmente abrió mi perspectiva y me di cuenta de que no tenía que seguir el camino de mis padres y convertirme en agricultor. Eso me llevó a pensar que podía ir a la universidad y estudiar más química”. Zhang asistió a la Universidad de Ciencia y Tecnología de Hefei, China, donde se especializó en física química. Disfrutó de sus estudios y descubrió la química computacional y la investigación computacional, que se convirtieron en su nueva fascinación. “La química computacional combina la química con otras materias que me apasionan —matemáticas y física— y aporta rigor y razonamiento a las reglas, que de otro modo serían más empíricas”, afirma. “Podría usar la programación para resolver problemas de química interesantes y poner a prueba mis propias ideas rápidamente”. Tras graduarse de la universidad, decidió continuar sus estudios en Estados Unidos, donde recordaba haber considerado «la cumbre académica». En Caltech, trabajó con Thomas Miller, profesor de química que utilizaba métodos computacionales para comprender procesos moleculares como el plegamiento de proteínas. Para su investigación doctoral, Zhang estudió una proteína transmembrana que actúa como canal para permitir el paso de otras proteínas a través de la membrana celular. Esta proteína, llamada translocón, también puede abrir una compuerta lateral dentro de la membrana, de modo que las proteínas que deben estar incrustadas en ella puedan salir directamente a ella. «Es una proteína realmente extraordinaria, pero no estaba claro cómo funcionaba», dice Zhang. «Construí un modelo computacional para comprender los mecanismos moleculares que determinan las características moleculares que permiten que ciertas proteínas entren en la membrana, mientras que otras se secretan». Volviendo al genoma Tras finalizar sus estudios de posgrado, la investigación de Zhang se centró en el genoma y no en las proteínas. En la Universidad Rice, realizó un posdoctorado con Peter Wolynes, profesor de química que había realizado numerosos descubrimientos clave en la dinámica del plegamiento de proteínas. En la época en que Zhang se incorporó al laboratorio, Wolynes centró su atención en la estructura del genoma, y ​​Zhang decidió hacer lo mismo. A diferencia de las proteínas, que tienden a tener regiones altamente estructuradas que pueden estudiarse mediante cristalografía de rayos X o crio-EM, el ADN es una molécula muy globular que no se presta a ese tipo de análisis. Unos años antes, en 2009, investigadores del Instituto Broad, la Facultad de Medicina de la Universidad de Massachusetts, el MIT y la Universidad de Harvard desarrollaron una técnica para estudiar la estructura del genoma mediante la reticulación del ADN en el núcleo celular. Los investigadores pueden entonces determinar qué segmentos se encuentran cerca uno del otro fragmentando el ADN en muchos fragmentos diminutos y secuenciándolo. Zhang y Wolynes utilizaron datos generados por esta técnica,  conocida como Hi-C , para explorar la cuestión de si el ADN forma nudos cuando se condensa en el núcleo, de forma similar a cómo una tira de luces navideñas puede enredarse cuando se mete en una caja para guardarla. Si el ADN fuera como un polímero normal, cabría esperar que se enredara y formara nudos. Pero eso podría ser muy perjudicial para la biología, porque el genoma no permanece inactivo. Tiene que pasar por la división celular, y además toda esta maquinaria molecular tiene que interactuar con el genoma y transcribirlo en ARN, y la presencia de nudos crearía muchas barreras innecesarias, afirma Zhang. Descubrieron que, a diferencia de las luces de Navidad, el ADN no forma nudos ni siquiera cuando está empaquetado en el núcleo de la célula, y construyeron un modelo computacional que les permitió probar hipótesis sobre cómo el genoma es capaz de evitar esos enredos. Desde que se incorporó al profesorado del MIT en 2016, Zhang ha seguido desarrollando modelos del comportamiento del genoma en el espacio tridimensional mediante simulaciones de dinámica molecular. En un área de investigación, su laboratorio estudia cómo las diferencias entre las estructuras genómicas de las

Leer más »
Scroll al inicio