El Portal de las Tecnologías para la Innovación

Categoría: Robótica y Automatización

El DJI Mavic 4 Pro permite tomar fotos desde cualquier ángulo para narradores aéreos

La cámara principal Hasselblad de 100 MP, las cámaras telefoto duales CMOS grandes y el Infinity Gimbal con rotación de 360° se combinan para crear la mejor cámara aérea. DJI, líder mundial en drones civiles y tecnología de cámaras creativas, presenta hoy el DJI Mavic 4 Pro. Con un nuevo sensor Hasselblad de 100 MP y grandes cámaras CMOS duales alojadas en un Infinity Gimbal con rotación de 360°, un tiempo máximo de vuelo de 51 minutos, detección de obstáculos omnidireccional mejorada y transmisión de video HD de 30 km, el Mavic 4 Pro es un verdadero punto de inflexión para que los creadores lleven su contenido a nuevas alturas. “Cuando lanzamos el modelo anterior, este fue el primer dron con una combinación de triple cámara que permitía a los creadores de contenido cambiar la composición de las tomas con un solo toque”, afirmó Ferdinand Wolf, Director de Experiencia de Producto de DJI. “El innovador estabilizador Infinity con rotación de 360° del Mavic 4 Pro va un paso más allá y ofrece aún más opciones de grabación. Tenemos muchas ganas de ver cómo la gente experimenta con sus tomas y las posibilidades cinematográficas que esto abre”.   Tres cámaras en un solo dron El Mavic 4 Pro cuenta con un avanzado sistema de triple cámara con distancias focales de 28 mm, 70 mm y 168 mm, que permite capturar desde paisajes extensos con gran angular hasta primeros planos detallados con teleobjetivo. Las tres cámaras incorporan la tecnología Dual Native ISO Fusion, que combina a la perfección las ventajas de los ajustes ISO altos y bajos y el apilamiento de imágenes RAW de hasta 5 fotogramas, junto con funciones como Panoramas libres y Enfoque del sujeto para garantizar una calidad de imagen de alta consistencia. La cámara principal Hasselblad CMOS 4/3 utiliza un nuevo sensor de 100 MP y es compatible con la reconocida Solución de Color Natural Hasselblad (HNCS) para una fidelidad de color excepcional. Captura impresionantes imágenes de 100 MP, llenas de detalle y nitidez, y ofrece una flexibilidad de posproducción sin precedentes. Su versátil apertura de f/2.0 a f/11 permite filmar con nitidez en condiciones de poca luz, a la vez que genera llamativos efectos de destellos de 10 rayos. Equipada con un sensor de 48 MP y 1/1,3 pulgadas y una apertura de f/2,8, la cámara telefoto mediana de 70 mm ofrece una calidad de imagen mejorada gracias a su nuevo motor de procesamiento de imágenes. La distancia focal de 70 mm permite crear perspectivas comprimidas que resaltan los sujetos, ideales para retratos dinámicos y grabaciones con movimientos de cámara orbitales. Equipada con un sensor de 50 MP y 1/1,5 pulgadas y una amplia apertura de f/2,8, la cámara teleobjetivo de 168 mm utiliza un algoritmo de cardán específicamente optimizado, adaptado a su óptica de teleobjetivo, para ofrecer una calidad de imagen y una estabilidad inigualables en fotografía aérea de largo alcance. Su amplio alcance reduce drásticamente la percepción de profundidad y crea una perspectiva aplanada que aísla a los sujetos con una claridad excepcional. Combinado con el Enfoque del Sujeto, capturar primeros planos impresionantes se vuelve muy sencillo. Además, captura Panoramas Libres increíblemente detallados, que revelan amplios horizontes al alejar el zoom y paisajes urbanos intrincados al acercarlo. Vídeo de calidad profesional para todos Si bien las tres cámaras admiten grabación de video HDR 4K/60 fps, la cámara principal Hasselblad va aún más allá, ofreciendo video HDR 6K/60 fps y un impresionante rango dinámico de hasta aproximadamente 16 pasos¹ . Los teleobjetivos medio y teleobjetivo ofrecen rangos dinámicos de 14 y 13 pasos, respectivamente. Para aquellos que buscan agregar tensión dramática e impacto visual al reducir la velocidad, tanto la cámara principal Hasselblad como la cámara telefoto mediana admiten grabación de video en 4K/120 fps, mientras que la cámara telefoto graba en 4K/100 fps 1 . La reproducción uniforme del color en todo el metraje está garantizada gracias a las tres cámaras que cuentan con perfiles de color D-Log, D-Log M y HLG de 10 bits. Rompa los límites con el Gimbal Infinito de 360° Nunca antes visto en un dron DJI, el Mavic 4 Pro presenta un innovador estabilizador capaz de realizar una rotación completa de 360° y tomas ascendentes de 70° para obtener ángulos sin precedentes. Captura espectaculares ángulos holandeses directamente desde la cámara o reinventa la narrativa aérea con movimientos fluidos que desafían la gravedad. Aún más seguro en condiciones de poca luz Seis sensores ojo de pez de alto rendimiento con poca luz y procesadores duales otorgan al Mavic 4 Pro un conocimiento ambiental de alta resolución. Puede evitar obstáculos omnidireccionalmente a velocidades de hasta 18 m/s con poca luz. Ya sea navegando por cañones o paisajes urbanos con poca señal de satélite, este sistema visual de alto rendimiento garantiza un posicionamiento preciso del dron. Además, gracias a las tecnologías de posicionamiento visual en tiempo real y creación de mapas, el Mavic 4 Pro memoriza rutas de vuelo cuando hay suficiente luz y puede regresar a casa sin GPS . El Mavic 4 Pro cuenta con ActiveTrack 360° 1 , que destaca incluso en condiciones de poca luz, ofreciendo un seguimiento cinematográfico con estabilidad mejorada. Una vez iniciado el seguimiento, el Mavic 4 Pro puede mantener al sujeto enfocado incluso si está parcialmente oculto por arbustos o si se encuentra en un puente. También detecta vehículos a una distancia de hasta 200 m 1 con reconocimiento direccional, ideal para ofrecer cinematografía automotriz de calidad profesional. Ampliando los límites de la capacidad de vuelo El diseño aerodinámico del Mavic 4 Pro, su eficiente sistema de propulsión y su batería de 95 Wh ofrecen tiempos de vuelo de hasta 51 minutos, velocidades máximas de hasta 90 km/h y una autonomía de 41 km (25,4 millas) ¹ . Ya sea que se exploren ubicaciones, se practiquen maniobras, se capturen time-lapses o se tomen fotos panorámicas con un teleobjetivo, los usuarios tienen suficiente tiempo de vuelo para operar con facilidad y confianza. El potencial del

Leer más »

When autonomous mobility learns to wonder

Autonomous mobility already exists… to some extent. Building an autonomous vehicle that can safely navigate an empty highway is one thing. The real challenge lies in adapting to the dynamic and messy reality of urban environments. Unlike the grid-like streets of many American cities, European roads are often narrow, winding and irregular. Urban environments have countless intersections without clear markings, pedestrian-only zones, roundabouts and areas where bicycles and scooters share the road with cars. Designing an autonomous mobility system that can safely operate in these conditions requires more than just sophisticated sensors and cameras. It’s mostly about tackling a tremendous challenge: predicting the dynamics of the world, in other words, understanding how humans navigate within given urban environments. Pedestrians, for example, often make spontaneous decisions such as darting across a street, suddenly changing direction, or weaving through crowds. A kid might run after a dog. Cyclists and scooters further complicate the equation, with their agile and often unpredictable maneuvers. “Autonomous mobility, whether in the form of self-driving cars or delivery robots, must evolve beyond merely reacting to the present moment. To navigate our complex, dynamic world, these AI-driven systems need the ability to imagine, anticipate, and simulate possible futures—just as humans do when we wonder what might happen next. In essence, AI must learn to wonder”, says Alexandre Alahi, head of EPFL’s Visual Intelligence for Transportation Laboratory (VITA). Pushing the boundaries of prediction: GEM At VITA laboratory, the goal of making AI “wonder” is becoming a reality. This year, the team has had seven papers accepted to the prestigious Conference on Computer Vision and Pattern Recognition (CVPR’25). Each contribution introduces a novel method to help AI systems imagine, predict, and simulate possible futures—from forecasting human motion to generating entire video sequences. In the spirit of open science, all models and datasets are being released as open source, empowering the global research community and industry to build upon and extend this work. Together, these contributions represent a unified effort to give autonomous mobility the ability not just to react, but to truly anticipate the world around them. One of the most innovative models is designed to predict video sequences from a single image captured by a camera mounted on a vehicle (or any egocentric view). Called GEM (Generalizable Ego-Vision Multimodal World Model), it helps autonomous systems anticipate future events by learning how scenes evolve over time. As part ot the Swiss AI Initiative, and in collaboration with four other institutions (University of Bern, SDSC, University of Zurich and ETH Zurich), they trained their model using 4000 hours of videos spanning autonomous driving, egocentric human activities (meaning, activities from the first person point of view) and drone footage. GEM learns how people and objects move in different environments. It uses this knowledge to generate entirely new video sequences that imagine what might happen next in a given scene, whether it’s a pedestrian crossing the street or a car turning at an intersection. These imagined scenarios can even be controlled by adding cars and pedestrians, making GEM a powerful tool for safely training and testing autonomous systems in a wide range of realistic situations. To make these predictions, the model looks simultaneously at several types of information, also called modalities. It analyzes RGB images—which are standard color video frames—to understand the visual context of a scene, and depth maps to grasp its 3D structure. These two data types together allow the model to interpret both what is happening and where things are in space. GEM also takes into account the movement of the camera (ego-motion), human poses, and object dynamics over time. By learning how all of these signals evolve together across thousands of real-world situations, It can generate coherent, realistic sequences that reflect how a scene might change in the next few seconds. “The tool can function as a realistic simulator for vehicles, drones and other robots, enabling the safe testing of control policies in virtual environments before deploying them in real-world conditions. It can also assist in planning by helping these robots anticipate changes in their surroundings, making decision-making more robust and context-aware,” says Mariam Hassan, Ph.D student at VITA lab. The road to predictions Predicting human behavior is a complex and multi-faceted challenge, and GEM represents just one piece of the VITA Lab’s broader effort to tackle it. While GEM focuses on generating the videos of the future and exposing autonomous systems to diverse virtual scenarios, other research projects from Professor Alahi’s team are tackling lower levels of abstractions to enhance prediction with robustness, generalizability, and social awareness. For example, one of them aims to certify where people will move, even when the data is incomplete or slightly off. Meanwhile, MotionMap tackles the inherent unpredictability of human motion through a probabilistic approach. This probabilistic approach helps systems prepare for unexpected movements in dynamic environments. These efforts form a comprehensive framework that maps out the complex interactions at play in crowded urban settings. There are still challenges: long-term consistency, high-fidelity spatial accuracy, and computational efficiency are still evolving. At the heart of it all lies the toughest question: how well shall we predict people who don’t always follow patterns? Human decisions are shaped by intent, emotion, and context—factors that aren’t always visible to machines. About the Swiss AI InitiativeLaunched in December 2023 by EPFL and ETH Zurich, the Swiss AI Initiative is supported by more than 10 academic institutions across Switzerland. With over 800 researchers involved and access to 10 million GPU hours, it stands as the world’s largest open science and open source effort dedicated to AI foundation models. The model developed by VITA lab, in collaboration with four other institutions (University of Bern, SDSC, University of Zurich and ETH Zurich) is among the first major models to emerge from this ambitious collaboration. It was trained on the Alps supercomputer at the Swiss National Supercomputing Centre (CSCS), which provided the massive computational power needed to process vast amounts of multimodal data. Autonomous mobility in SwitzerlandIn Switzerland, fully autonomous mobility

Leer más »

Cuando la movilidad autónoma aprende a maravillarse

La movilidad autónoma ya existe… hasta cierto punto. Construir un vehículo autónomo que pueda circular con seguridad por una autopista vacía es una cosa. El verdadero reto reside en adaptarse a la dinámica y caótica realidad de los entornos urbanos. A diferencia de las calles cuadriculadas de muchas ciudades estadounidenses, las carreteras europeas suelen ser estrechas, sinuosas e irregulares. Los entornos urbanos presentan innumerables intersecciones sin señalización clara, zonas peatonales exclusivas, rotondas y zonas donde bicicletas y patinetes comparten la vía con coches. Diseñar un sistema de movilidad autónoma que pueda operar con seguridad en estas condiciones requiere algo más que sensores y cámaras sofisticados. Se trata principalmente de afrontar un enorme reto: predecir la dinámica del mundo; en otras palabras, comprender cómo se desenvuelven los humanos en entornos urbanos determinados. Los peatones, por ejemplo, suelen tomar decisiones espontáneas, como cruzar la calle a toda velocidad, cambiar de dirección repentinamente o sortear multitudes. Un niño podría correr tras un perro. Los ciclistas y los patinetes complican aún más la ecuación, con sus maniobras ágiles y a menudo impredecibles. La movilidad autónoma, ya sea en forma de coches autónomos o robots de reparto, debe evolucionar más allá de la simple reacción al momento presente. Para desenvolverse en nuestro mundo complejo y dinámico, estos sistemas impulsados ​​por IA necesitan la capacidad de imaginar, anticipar y simular futuros posibles, tal como lo hacemos los humanos cuando nos preguntamos qué podría suceder a continuación. En esencia, la IA debe aprender a preguntarse, afirma Alexandre Alahi, director del Laboratorio de Inteligencia Visual para el Transporte (VITA) de la EPFL. Ampliando los límites de la predicción: GEM En el laboratorio VITA, el objetivo de hacer que la IA «maraville» se está haciendo realidad. Este año, el equipo ha aceptado siete artículos en la prestigiosa Conferencia sobre Visión Artificial y Reconocimiento de Patrones (CVPR’25). Cada contribución introduce un método novedoso para ayudar a los sistemas de IA a imaginar, predecir y simular futuros posibles, desde la predicción del movimiento humano hasta la generación de secuencias de vídeo completas. En el espíritu de la ciencia abierta, todos los modelos y conjuntos de datos se publican como código abierto, lo que permite a la comunidad investigadora y a la industria global desarrollar y ampliar este trabajo. En conjunto, estas contribuciones representan un esfuerzo conjunto para dotar a la movilidad autónoma de la capacidad no solo de reaccionar, sino de anticiparse al mundo que la rodea. Uno de los modelos más innovadores está diseñado para predecir secuencias de vídeo a partir de una sola imagen captada por una cámara instalada en un vehículo (o cualquier vista egocéntrica). Denominado GEM (Modelo Mundial Multimodal Generalizable de Visión Egocéntrica), ayuda a los sistemas autónomos a anticipar eventos futuros al aprender cómo evolucionan las escenas con el tiempo. Como parte de la Iniciativa Suiza de IA, y en colaboración con otras cuatro instituciones (Universidad de Berna, SDSC, Universidad de Zúrich y ETH Zúrich), entrenaron su modelo utilizando 4000 horas de vídeos que abarcan conducción autónoma, actividades humanas egocéntricas (es decir, actividades desde una perspectiva en primera persona) y grabaciones de drones. GEM aprende cómo se mueven las personas y los objetos en diferentes entornos. Utiliza este conocimiento para generar secuencias de vídeo completamente nuevas que imaginan lo que podría suceder a continuación en una escena determinada, ya sea un peatón cruzando la calle o un coche girando en una intersección. Estos escenarios imaginarios pueden incluso controlarse añadiendo coches y peatones, lo que convierte a GEM en una potente herramienta para entrenar y probar sistemas autónomos de forma segura en una amplia gama de situaciones realistas. Para realizar estas predicciones, el modelo analiza simultáneamente varios tipos de información, también llamados modalidades. Analiza imágenes RGB (fotogramas de vídeo a color estándar) para comprender el contexto visual de una escena, y mapas de profundidad para comprender su estructura 3D. Estos dos tipos de datos, en conjunto, permiten al modelo interpretar tanto lo que sucede como la ubicación de los objetos en el espacio. GEM también tiene en cuenta el movimiento de la cámara (ego-motion), las poses humanas y la dinámica de los objetos a lo largo del tiempo. Al comprender cómo evolucionan todas estas señales en conjunto en miles de situaciones del mundo real, puede generar secuencias coherentes y realistas que reflejan cómo podría cambiar una escena en los próximos segundos. La herramienta puede funcionar como un simulador realista para vehículos, drones y otros robots, lo que permite probar de forma segura las políticas de control en entornos virtuales antes de implementarlas en condiciones reales. También puede ayudar en la planificación, ayudando a estos robots a anticipar los cambios en su entorno, lo que hace que la toma de decisiones sea más robusta y contextualizada, afirma Mariam Hassan, estudiante de doctorado en el laboratorio VITA. El camino hacia las predicciones Predecir el comportamiento humano es un desafío complejo y multifacético, y GEM representa solo una parte del esfuerzo más amplio del Laboratorio VITA para abordarlo. Mientras que GEM se centra en generar los videos del futuro y exponer sistemas autónomos a diversos escenarios virtuales, otros proyectos de investigación del equipo del profesor Alahi abordan niveles de abstracción más bajos para mejorar la predicción con robustez, generalización y conciencia social. Por ejemplo, uno de ellos busca certificar el movimiento de las personas, incluso cuando los datos están incompletos o son ligeramente erróneos. Por otro lado, MotionMap aborda la imprevisibilidad inherente del movimiento humano mediante un enfoque probabilístico. Este enfoque probabilístico ayuda a los sistemas a prepararse para movimientos inesperados en entornos dinámicos. Estos esfuerzos conforman un marco integral que mapea las complejas interacciones que ocurren en entornos urbanos abarrotados. Aún existen desafíos: la consistencia a largo plazo, la precisión espacial de alta fidelidad y la eficiencia computacional siguen evolucionando. En el centro de todo esto se encuentra la pregunta más difícil: ¿qué tan bien podemos predecir a las personas que no siempre siguen patrones? Las decisiones humanas están condicionadas por la intención, la emoción y el contexto,

Leer más »

Un viaje de colaboración e innovación con la solución de manejo de equipaje de Vanderlande

el viaje de nuestra cámara 3D cuenta una historia inspiradora de colaboración e innovación global. No todos los días se presencia un proyecto que literalmente recorre el mundo, y en este caso, completó el ciclo: desde nuestra sede de Zivid aquí en Noruega, pasando por Japón y los Países Bajos, hasta llegar ahora a casa, al Aeropuerto de Oslo (Avinor) . Para mí, el viaje de nuestra cámara 3D cuenta una historia inspiradora de colaboración e innovación global. Zivid es una empresa basada en la tecnología, sin duda. Pero más que eso, se basa en personas que disfrutan resolviendo problemas complejos, colaborando a través de las fronteras y logrando que las cosas funcionen en el mundo real. Este proyecto es un gran ejemplo de ello: En resumen: Zivid desarrolla cámaras 3D de primera categoría aquí en Noruega, comúnmente utilizadas en sistemas robóticos. Algunas de estas cámaras viajaron a Tokio, donde nuestro socio japonés, Mujin , las integró en un sistema robótico de manejo de equipaje. Mujin luego colabora estrechamente con Vanderlande , quien utiliza ese mismo sistema en su solución de carga robótica BAGLOAD. ¿Y dónde se realizó la primera implementación? ¡Justo aquí en Noruega, en el aeropuerto de Oslo, donde se instalaron las cámaras! Este proyecto nos recuerda que la gran innovación se construye mediante la colaboración global, la ambición compartida y la voluntad de explorar nuevas rutas. Más allá del itinerario de viaje, esta es una historia sobre el éxito de los negocios modernos en un entorno conectado, sin fronteras y colaborativo. En Oslo, el trabajo pesado y repetitivo en la sala de equipajes ahora lo realizan robots. Y estos robots utilizan datos de las cámaras Zivid para ver y comprender su entorno. No se trata solo de eficiencia o rendimiento, sino de facilitar el trabajo a quienes trabajan en tierra. Estamos orgullosos de desempeñar un papel pequeño pero esencial en esto, y estoy realmente feliz de ver que nuestra tecnología se utiliza en algo que afecta a tanta gente todos los días. Ahora, cuando tome un vuelo desde Oslo, probablemente mire la zona de equipaje de forma un poco diferente. Sé que puedo confiar en que el sistema funcionará a la perfección, y me enorgullece saber que esto se debe en parte a una innovación de Norwegian que se está implementando aquí, en nuestra oficina. ZIVID News. Traducido al español

Leer más »

Robotic hand moves objects with human-like grasps

A robotic hand developed at EPFL can pick up 24 different objects with human-like movements that emerge spontaneously, thanks to compliant materials and structures rather than programming. When you reach out your hand to grasp an object like a bottle, you generally don’t need to know the bottle’s exact position in space to pick it up successfully. But as EPFL researcher Kai Junge explains, if you want to make a robot that can pick up a bottle, you must know everything about the surrounding environment very precisely. “As humans, we don’t really need too much external information to grasp an object, and we believe that’s because of the compliant – or soft – interactions that happen at the interface between an object and a human hand,” says Junge, a PhD student in the School of Engineering’s Computational Robot Design & Fabrication (CREATE) Lab, led by Josie Hughes. “This compliance is what we are interested in exploring for robots.” In robotics, compliant materials are those that deform, bend, and squish. In the case of the CREATE Lab’s robotic ADAPT hand (Adaptive Dexterous Anthropomorphic Programmable sTiffness), the compliant materials are relatively simple: strips of silicone wrapped around a mechanical wrist and fingers, plus spring-loaded joints, combined with a bendable robotic arm. But this strategically distributed compliance is what allows the device to pick up a wide variety of objects using “self-organized” grasps that emerge automatically, rather than being programmed. In a series of experiments, the ADAPT hand, which can be controlled remotely, was able to pick up 24 objects with a success rate of 93%, using self-organized grasps that mimicked a natural human grasp with a direct similarity of 68%. The research has been published in Nature Communications Engineering. ‘Bottom-up’ robotic intelligence While a traditional robotic hand would need a motor to actuate each joint, the ADAPT hand has only 12 motors, housed in the wrist, for its 20 joints. The rest of the mechanical control comes from springs, which can be made stiffer or looser to tune the hand’s compliance, and from the silicone ‘skin’, which can also be added or removed. As for software, the ADAPT hand is programmed to move through just four general waypoints, or positions, to lift an object. Any further adaptations required to complete the task occur without additional programming or feedback; in robotics, this is called ‘open loop’ control. For example, when the team programmed the robot to use a certain motion, it was able to adapt its grasp pose to various objects ranging from a single bolt to a banana. The researchers analyzed this extreme robustness — thanks to the robot’s spatially distributed compliance — with over 300 grasps and compared them against a rigid version of the hand. We are interested in exploiting the distributed mechanical intelligence of different body parts like skin, muscles, and joints, as opposed to the top-down intelligence of the brain.Kai Junge, CREATE Lab “Developing robots that can perform interactions or tasks that humans do automatically is a lot harder than most people expect,” Junge says. “That’s why we are interested in exploiting this distributed mechanical intelligence of different body parts like skin, muscles, and joints, as opposed to the top-down intelligence of the brain.” Balancing compliance and control Junge emphasizes that the goal of the ADAPT study was not necessarily to create a robotic hand that can grasp like a human, but to show for the first time how much a robot can achieve through compliance alone. Now that this has been demonstrated systematically, the EPFL team is building on the potential of compliance by re-integrating elements of closed-loop control into the ADAPT hand, including sensory feedback – via the addition of pressure sensors to the silicone skin – and artificial intelligence. This synergistic approach could lead to robots that combine compliance’s robustness to uncertainty, and the precision of closed-loop control. “A better understanding of the advantages of compliant robots could greatly improve the integration of robotic systems into highly unpredictable environments, or into environments designed for humans,” Junge summarizes. References Junge, K., Hughes, J. Spatially distributed biomimetic compliance enables robust anthropomorphic robotic manipulation. Commun Eng 4, 76 (2025). https://doi.org/10.1038/s44172-025-00407-4 EPFL News. C. L.

Leer más »

El robot de cuidado de ancianos ayuda a las personas a sentarse y ponerse de pie, y las atrapa si se caen.

El nuevo diseño podría ayudar a las personas mayores a medida que envejecen en casa. La población de Estados Unidos es más vieja que nunca. Hoy, la edad promedio del país es de 38,9 años, casi una década mayor que en 1980. Y se prevé que el número de adultos mayores de 65 años aumente de 58 millones a 82 millones para 2050. El desafío de cuidar a las personas mayores, en un contexto de escasez de cuidadores, el aumento de los costos de la atención médica y la evolución de las estructuras familiares, es un problema social cada vez más urgente. Para abordar el reto del cuidado de las personas mayores, un equipo de ingenieros del MIT está recurriendo a la robótica. Han construido y probado el Robot de Asistencia Corporal para Personas Mayores (E-BAR), un robot móvil diseñado para brindar apoyo físico a las personas mayores y evitar que se caigan al desplazarse por sus hogares. E-BAR actúa como un conjunto de manubrios robóticos que siguen a una persona por detrás. El usuario puede caminar de forma independiente o apoyarse en los brazos del robot. El robot puede soportar todo el peso de la persona, levantándola de una posición sentada a una de pie y viceversa siguiendo una trayectoria natural. Además, los brazos del robot pueden atraparla inflando rápidamente los airbags laterales si comienza a caer. Con su diseño, los investigadores esperan prevenir las caídas, que hoy en día son la principal causa de lesiones en adultos de 65 años o más.  “Muchos adultos mayores subestiman el riesgo de caídas y se niegan a usar ayudas físicas, que son engorrosas, mientras que otros sobreestiman el riesgo y podrían no hacer ejercicio, lo que conlleva una disminución de la movilidad”, afirma Harry Asada, profesor de Ingeniería Ford en el MIT. “Nuestro concepto de diseño consiste en proporcionar a los adultos mayores con problemas de equilibrio manubrios robóticos para estabilizar su cuerpo. Los manubrios se pueden colocar en cualquier lugar y brindan apoyo en cualquier momento y lugar”. En su versión actual, el robot se opera por control remoto. En futuras versiones, el equipo planea automatizar gran parte de su funcionalidad, permitiéndole seguir y asistir físicamente al usuario de forma autónoma. Los investigadores también están trabajando en optimizar el dispositivo para hacerlo más delgado y maniobrable en espacios reducidos. “Creo que el cuidado de personas mayores es el próximo gran reto”, afirma Roberto Bolli, diseñador de E-BAR y estudiante de posgrado del Departamento de Ingeniería Mecánica del MIT. “Todas las tendencias demográficas apuntan a una escasez de cuidadores, un excedente de personas mayores y un fuerte deseo de que las personas mayores envejezcan en casa. Lo vemos como una frontera inexplorada en Estados Unidos, pero también como un reto intrínsecamente interesante para la robótica”. Bolli y Asada presentarán un artículo que detalla el diseño de E-BAR en la Conferencia IEEE sobre Robótica y Automatización (ICRA) a finales de este mes. https://youtube.com/watch?v=DlT6vHx4Dz4%3Fenablejsapi%3D1%26origin%3Dhttps%253A%252F%252Fnews.mit.edu El grupo de Asada en el MIT desarrolla diversas tecnologías y asistentes robóticos para asistir a las personas mayores. En los últimos años, otros han desarrollado algoritmos de predicción de caídas, diseñado robots y dispositivos automatizados, incluyendo andadores robóticos, bolsas de aire portátiles autoinflables y estructuras robóticas que sujetan a la persona con un arnés y se mueven con ella al caminar. Al diseñar E-BAR, Asada y Bolli buscaron un robot que realizara básicamente tres tareas: proporcionar soporte físico, prevenir caídas y moverse de forma segura y discreta junto con una persona. Además, buscaron eliminar cualquier arnés para brindar al usuario mayor independencia y movilidad. “A la mayoría de las personas mayores no les gusta usar arneses ni dispositivos de asistencia”, dice Bolli. “La idea detrás de la estructura E-BAR es que proporciona soporte para el peso corporal, asistencia activa para la marcha y protección contra caídas, a la vez que ofrece una vista frontal completamente despejada. Puedes salir en cualquier momento”. El equipo buscó diseñar un robot específicamente para el envejecimiento en casa o para ayudar en centros de atención. A partir de entrevistas con adultos mayores y sus cuidadores, establecieron varios requisitos de diseño, entre ellos que el robot debía pasar por las puertas de la casa, permitir al usuario dar una zancada completa y soportar todo su peso para facilitar el equilibrio, la postura y la transición de estar sentado a estar de pie. El robot consta de una base pesada de 100 kg, cuyas dimensiones y estructura fueron optimizadas para soportar el peso de una persona promedio sin volcarse ni resbalarse. Debajo de la base hay un juego de ruedas omnidireccionales que le permiten moverse en cualquier dirección sin pivotar, si es necesario. (Imagine las ruedas de un coche desplazándose para deslizarse entre dos coches, sin tener que aparcar en paralelo). De la base del robot se extiende un cuerpo articulado compuesto por 18 barras interconectadas, o enlaces, que se reconfiguran como una grúa plegable para levantar a una persona de la posición sentada a la de pie, y viceversa. Dos brazos con manillares se extienden desde el robot en forma de U, entre los cuales una persona puede apoyarse y apoyarse si necesita apoyo adicional. Finalmente, cada brazo del robot incorpora bolsas de aire fabricadas con un material suave pero fácil de agarrar, que se inflan instantáneamente para sujetar a una persona en caso de caída, sin causar hematomas en el impacto. Los investigadores creen que E-BAR es el primer robot capaz de sujetar a una persona que cae sin dispositivos portátiles ni arnés. Probaron el robot en el laboratorio con un adulto mayor que se ofreció como voluntario para usarlo en diversas situaciones domésticas. El equipo descubrió que E-BAR podía ayudar activamente a la persona mientras se agachaba para recoger algo del suelo y se estiraba para alcanzar un objeto de un estante, tareas que pueden ser difíciles de realizar manteniendo el equilibrio. El robot también pudo levantar a la persona por encima del borde de una bañera, simulando la tarea de

Leer más »

La mano robótica mueve objetos con agarres similares a los humanos

Una mano robótica desarrollada en la EPFL puede recoger 24 objetos diferentes con movimientos similares a los humanos que surgen de forma espontánea, gracias a materiales y estructuras flexibles, en lugar de programación. Al extender la mano para agarrar un objeto, como una botella, generalmente no se necesita conocer su posición exacta en el espacio para cogerla con éxito. Pero, como explica el investigador de la EPFL Kai Junge, si se quiere crear un robot capaz de coger una botella, es necesario conocer con gran precisión todo el entorno. “Como humanos, no necesitamos mucha información externa para agarrar un objeto, y creemos que esto se debe a las interacciones flexibles que se producen en la interfaz entre un objeto y una mano humana”, afirma Junge, estudiante de doctorado del Laboratorio de Diseño y Fabricación de Robots Computacionales ( CREATE ) de la Escuela de Ingeniería, dirigido por Josie Hughes. “Esta flexibilidad es lo que nos interesa explorar para los robots”. En robótica, los materiales flexibles son aquellos que se deforman, doblan y aplastan. En el caso de la mano robótica ADAPT (Rigidez Programable Antropomórfica, Diestra y Adaptativa) del Laboratorio CREATE, los materiales flexibles son relativamente simples: tiras de silicona envueltas alrededor de una muñeca y dedos mecánicos, además de articulaciones con resortes, combinadas con un brazo robótico flexible. Pero esta flexibilidad estratégicamente distribuida es lo que permite al dispositivo agarrar una amplia variedad de objetos mediante agarres autoorganizados que surgen automáticamente, en lugar de estar programados. En una serie de experimentos, la mano ADAPT, que puede controlarse remotamente, logró recoger 24 objetos con una tasa de éxito del 93 %, utilizando agarres autoorganizados que imitaron el agarre humano natural con una similitud directa del 68 %. La investigación se publicó en Nature Communications Engineering . Inteligencia robótica ‘de abajo hacia arriba’ Mientras que una mano robótica tradicional necesitaría un motor para accionar cada articulación, la mano ADAPT solo cuenta con 12 motores, alojados en la muñeca, para sus 20 articulaciones. El resto del control mecánico se realiza mediante resortes, que pueden endurecerse o aflojarse para ajustar la flexibilidad de la mano, y mediante la «piel» de silicona, que también puede añadirse o retirarse. En cuanto al software, la mano ADAPT está programada para moverse a través de tan solo cuatro puntos de referencia generales, o posiciones, para levantar un objeto. Cualquier adaptación adicional necesaria para completar la tarea se produce sin programación ni retroalimentación adicional; en robótica, esto se denomina control de bucle abierto. Por ejemplo, cuando el equipo programó el robot para utilizar un movimiento determinado, este pudo adaptar su postura de agarre a diversos objetos, desde un simple tornillo hasta un plátano. Los investigadores analizaron esta extrema robustez —gracias a la flexibilidad distribuida espacialmente del robot— con más de 300 agarres y los compararon con una versión rígida de la mano. Nos interesa explotar la inteligencia mecánica distribuida de diferentes partes del cuerpo, como la piel, los músculos y las articulaciones, en oposición a la inteligencia de arriba hacia abajo del cerebro.Kai Junge, Laboratorio CREATE “Desarrollar robots que puedan realizar interacciones o tareas que los humanos realizan automáticamente es mucho más difícil de lo que la mayoría de la gente cree”, afirma Junge. “Por eso nos interesa explotar esta inteligencia mecánica distribuida de diferentes partes del cuerpo, como la piel, los músculos y las articulaciones, en contraposición a la inteligencia descendente del cerebro”. Equilibrio entre cumplimiento y control Junge enfatiza que el objetivo del estudio ADAPT no fue necesariamente crear una mano robótica que pudiera agarrar como un humano, sino mostrar por primera vez cuánto puede lograr un robot solo con obediencia. Tras demostrar esto sistemáticamente, el equipo de la EPFL está aprovechando el potencial de la conformidad al reintegrar elementos del control de bucle cerrado en la mano ADAPT, incluyendo la retroalimentación sensorial (mediante la incorporación de sensores de presión a la piel de silicona) y la inteligencia artificial. Este enfoque sinérgico podría dar lugar a robots que combinen la robustez de la conformidad ante la incertidumbre con la precisión del control de bucle cerrado. “Una mejor comprensión de las ventajas de los robots compatibles podría mejorar enormemente la integración de los sistemas robóticos en entornos altamente impredecibles o en entornos diseñados para humanos”, resume Junge. Referencias Junge, K., Hughes, J. La compatibilidad biomimética distribuida espacialmente permite una manipulación robótica antropomórfica robusta. Commun Eng 4, 76 (2025). https://doi.org/10.1038/s44172-025-00407-4 EPFL News. C. L. Traducido al español

Leer más »

Más allá de las llamas: Cómo los bomberos del condado de Ventura están transformando la respuesta a los incendios forestales con drones DJI

A medida que los incendios forestales se intensifican en Estados Unidos, aumenta la urgencia de responder con mayor rapidez y eficacia. En el condado de Ventura, California, donde el clima extremo y la baja humedad han convertido la temporada de incendios forestales en una batalla que dura todo el año, los bomberos se enfrentan a incendios más grandes y rápidos que nunca. Para enfrentar este desafío, el Departamento de Bomberos del Condado de Ventura (VCFD) está recurriendo a la tecnología de drones para obtener una ventaja, no solo durante incendios activos, sino en todas las etapas de la misión de extinción de incendios. – Sean Ameche, Capitán de bomberos, Departamento de bomberos del condado de Ventura Más allá del incendio: Drones en la fase de limpieza Si bien la tecnología de drones desempeña un papel cada vez mayor en la respuesta activa a incendios , su impacto no termina cuando se controlan las llamas. En el condado de Ventura, se han vuelto indispensables en la siguiente etapa, igualmente crítica: la limpieza. Esto implica localizar y extinguir focos de incendio persistentes que podrían reavivarse si no se controlan. Tradicionalmente, la fase de limpieza ha sido un proceso lento y laborioso, que requería que los bomberos recorrieran extensas áreas de terreno quemado durante días. Ahora, con imágenes térmicas aéreas y mapeo automatizado, el VCFD puede realizar el mismo trabajo con mayor rapidez, seguridad y precisión. Con el DJI Matrice 4T , el VCFD ha transformado su enfoque en las operaciones posteriores a los incendios. El rendimiento estable del dron con vientos fuertes, junto con las cámaras térmicas y con zoom, permite a las tripulaciones detectar incluso las señales de calor más pequeñas, a veces tan pequeñas como una colilla de cigarrillo, y guiar a los equipos de tierra directamente a esas ubicaciones. Además, su telémetro láser garantiza un posicionamiento preciso, y su capacidad para operar de día o de noche proporciona información aérea en tiempo real siempre que sea necesario.  – Jimmy Hidalgo, Capitán de Bomberos, Departamento de Bomberos del Condado de Ventura De la planificación a la acción Para el VCFD, la limpieza es un proceso estructurado de tres fases: planificación de la misión, recopilación de datos y análisis. Comienza definiendo un área de mapeo según el perímetro y el terreno del incendio. A partir de ahí, el dron ejecuta una ruta de vuelo automatizada para recopilar imágenes visuales y térmicas. Una vez recopilados los datos, se procesan con herramientas como Nova Maps para generar imágenes aéreas integradas y análisis de puntos calientes en tiempo real. Este proceso brinda al personal de comando y a los equipos de campo una imagen unificada de dónde concentrar sus esfuerzos, lo que ayuda a confirmar que las líneas de contención están resistiendo y que el incendio está realmente extinguido. – Nick Cleary, Jefe de División, Departamento de Bomberos del Condado de Ventura Mapeo en tiempo real, impacto en el mundo real Durante el incendio Kenneth a principios de este año, el VCFD utilizó drones para mapear el perímetro del incendio y localizar focos residuales cerca de viviendas. Los drones permitieron un vuelo seguro y estable sobre terreno irregular, incluso con vientos superiores a 48 km/h, guiando a los bomberos directamente hacia las amenazas restantes. Después de la misión, las imágenes térmicas y visuales se procesaron en mapas georreferenciados, lo que proporcionó a los equipos una visión confiable del estado del incendio a medida que la situación evolucionaba. Más allá de los incendios forestales: versatilidad en el campo Los drones también están demostrando ser útiles en emergencias más allá de los incendios forestales. Durante un incidente nocturno con materiales peligrosos, el VCFD utilizó la cámara con zoom y el foco del DJI Mavic 3T para evaluar la situación antes de desplegar un equipo de intervención. Este reconocimiento aéreo ayudó a los socorristas a evaluar la cantidad y el tipo de material en el lugar e identificar peligros potenciales, sin poner al personal en riesgo innecesario. Mirando hacia el futuro: el próximo capítulo en respuesta aérea Recientemente, el Departamento de Bomberos del Condado de Ventura registró más de 513 kilómetros de vuelo con drones durante un solo mes de operaciones contra incendios forestales, lo que refleja la importancia que han adquirido los drones para la lucha contra incendios moderna. A medida que su adopción continúa creciendo, el departamento también está explorando nuevas capacidades como la Cabina Virtual y probando la tecnología de Drones como Equipo de Primera Respuesta (DFR) para brindar un apoyo aún más rápido en una gama más amplia de emergencias. Ya sea para contener un incendio activo, asegurar un área durante la limpieza o evaluar de manera segura sitios peligrosos, los drones están ayudando al VCFD a trabajar más rápido, mantenerse más seguro y actuar con mayor confianza. – Sean Ameche, Capitán de bomberos, Departamento de bomberos del condado de Ventura En DJI, estamos orgullosos de apoyar a los bomberos y equipos de emergencia que lideran el camino, en el condado de Ventura y más allá DJI News. Traducido al español

Leer más »

Por qué la experiencia del cliente debe impulsar la revolución de los vehículos eléctricos

La única manera de impulsar la adquisición de vehículos eléctricos (VE) en el mundo del motor es priorizar la experiencia del cliente.   Las deficiencias actuales en la infraestructura de carga y la prestación de servicios han creado una brecha entre la promesa de la movilidad eléctrica y la realidad de la propiedad, y se acaba el tiempo para corregir el rumbo. Publicado·12 de mayo de 2025 Tiempo de lectura·9 minutos Es tarde y se enciende la luz de advertencia de combustible. Puede que no haya suficiente en el tanque, así que es hora de buscar una gasolinera. Pero en todas las estaciones hay largas filas o surtidores fuera de servicio. Finalmente, aparece una gasolinera que funciona, pero la boquilla del surtidor no encaja en el coche y el sistema automatizado no acepta efectivo, tarjetas ni pagos sin contacto. Para pagar hay que instalar una aplicación y crear una cuenta. Esto parece una pesadilla, pero si imaginamos que el combustible en cuestión es en realidad electricidad y las gasolineras son puntos de carga públicos, entonces esta historia no es un sueño, es una realidad para muchos propietarios de vehículos eléctricos. Una oportunidad para lograr una buena experiencia del cliente En todas las empresas, pero particularmente dentro de los sectores en los que los bienes y servicios han alcanzado el estatus de producto básico, los niveles y la consistencia de la CX que una marca puede ofrecer son su único punto real de diferenciación positiva o negativa. Una mala experiencia del cliente aleja a los clientes. Una buena experiencia del cliente atrae a los clientes en términos de lealtad y promoción de la marca. De hecho, la mayoría de los consumidores estarían dispuestos a pagar más por un producto o servicio si este incluyera una experiencia premium. Pero nadie pagaría conscientemente un precio superior por un producto o servicio que, debido a deficiencias en la experiencia del cliente, ofreciera una experiencia de usuario deficiente. Sin embargo, gracias al estado actual de la infraestructura de carga y a la relación entre las partes interesadas que la desarrollan, comprar y disfrutar de un vehículo eléctrico de batería se ha convertido precisamente en ese tipo de propuesta. Una experiencia del cliente deficiente se vendió a un precio superior. Los clientes saben lo que compran, pero ¿saben en qué se están metiendo? Es fácil argumentar que, dado que comprar un vehículo eléctrico es una decisión consciente, los propietarios han realizado la debida diligencia. Entienden cómo funcionan las redes de carga y lo diferente que es de la experiencia de recarga de combustibles fósiles. Los conductores de vehículos eléctricos son pioneros, pioneros que se ven a sí mismos moldeando la experiencia del cliente para que otros sigan su ejemplo. La industria automotriz también destacará la edad del propio mercado de vehículos eléctricos. Los vehículos eléctricos de batería solo han estado ampliamente disponibles durante unos 15 años, y solo ahora estamos alcanzando una etapa en la que es posible invertir con confianza en la infraestructura y los servicios de apoyo, con el foco puesto tanto en el crecimiento sostenible como en la rentabilidad financiera. Pero incluso si los propietarios de vehículos eléctricos históricamente estaban preparados para afrontar las dificultades y las dificultades, ¿qué tan preparadas han estado las organizaciones del ecosistema automotriz para recopilar y compartir datos relevantes y usarlos para mejorar los servicios, identificar y eliminar puntos críticos y comenzar a trazar una experiencia óptima para el cliente general? Las ventas de vehículos eléctricos crecen más rápido que las redes de carga Aunque las ventas de vehículos se desplomaron a lo largo de 2024, la proporción de vehículos eléctricos de batería e híbridos enchufables sigue creciendo año tras año y en cada región. En EE. UU., las ventas de vehículos eléctricos aumentaron un 11 % en comparación con 2023, mientras que en la Unión Europea, las ventas combinadas de híbridos enchufables y vehículos eléctricos de batería representaron el 20 % de todos los coches nuevos vendidos en 2024. Estos hitos de ventas no significan que haya varios millones más de usuarios pioneros con conocimientos tecnológicos en el mercado. A medida que un mercado crece, evoluciona y se diversifica para adaptarse a nuevos tipos de clientes, nuevas personalidades, nuevos deseos, necesidades y expectativas. Y esto es sin duda el caso hoy en día. Es igual de probable que los clientes hayan elegido un vehículo eléctrico por las subvenciones gubernamentales, el inventario disponible o la estructura de comisiones de los vendedores en los concesionarios, como por un deseo innato de ser ecológicos. Hay que reconocer que los fabricantes de equipos originales (OEM) han sido meticulosos a la hora de proporcionar información fácil de entender sobre el estilo de vida de los vehículos eléctricos, incluso si toda la comunicación y las guías han enfatizado lo positivo. Sin embargo, los concesionarios deben implicarse, en igual medida, para garantizar que los clientes potenciales comprendan exactamente qué esperar al optar por un vehículo eléctrico. Esto, a su vez, implica que los vendedores han tenido que recibir formación y familiarizarse a fondo con el tema. Y, en el contexto de la reducción de la mano de obra y el aumento de las exigencias salariales, no todos los concesionarios han logrado atraer y retener a empleados con la combinación adecuada de habilidades técnicas y interpersonales para ayudar a los consumidores a comprar con confianza. Como resultado, muchos conductores de vehículos eléctricos actuales se embarcan en un viaje de descubrimiento. Es más, una vez en ese camino, su orientación dependerá de lo bien informados que estuvieran durante el proceso de venta y del esfuerzo invertido en integrar al cliente al ecosistema de los vehículos eléctricos. Los consumidores que se vuelven ecológicos no deberían terminar viendo números rojos A medida que aumenta la propiedad de vehículos eléctricos, disminuye el porcentaje de conductores con acceso a la carga en casa. Solo en el Reino Unido, hay 8 millones de domicilios —el equivalente al 30 % de la población— sin aparcamiento en casa ni en la calle. En

Leer más »
Scroll al inicio