El Portal de las Tecnologías para la Innovación

Categoría: Robótica y Automatización

Los ingenieros permiten que un dron determine su posición en la oscuridad y en el interior

Un nuevo sistema de baja potencia que utiliza ondas de radiofrecuencia da un paso importante hacia la navegación autónoma de drones interiores. En el futuro, los drones autónomos podrían usarse para transportar inventario entre grandes almacenes. Un dron podría volar a una estructura semi-oscura del tamaño de varios campos de fútbol, recorriendo cientos de pasillos idénticos antes de atracar en el lugar preciso donde se necesita su envío. La mayoría de los drones de hoy en día probablemente tendrían dificultades para completar esta tarea, ya que los drones generalmente navegan al aire libre usando GPS, que no funciona en entornos interiores. Para la navegación interior, algunos drones emplean visión por computadora o lidar, pero ambas técnicas no son confiables en ambientes oscuros o habitaciones con paredes lisas o características repetitivas. Los investigadores del MIT han introducido un nuevo enfoque que permite a un dron auto-localizarse, o determinar su posición, en ambientes interiores, oscuros y de baja visibilidad. La auto-localización es un paso clave en la navegación autónoma. Los investigadores desarrollaron un sistema llamado MiFly, en el que un dron utiliza ondas de radiofrecuencia (RF), reflejadas por una sola etiqueta colocada en su entorno, para autolocalizarse de forma autónoma. Reproducir video Debido a que MiFly permite la autolocalización con una sola etiqueta pequeña, que podría colocarse en una pared como una pegatina, sería más barato y más fácil de implementar que los sistemas que requieren múltiples etiquetas. Además, dado que la etiqueta MiFly refleja las señales enviadas por el dron, en lugar de generar su propia señal, se puede operar con muy baja potencia. Dos radares estándar montados en el dron le permiten localizar en relación con la etiqueta. Esas mediciones se fusionan con datos de los drones a bordo de la computadora, lo que le permite estimar su trayectoria. Los investigadores llevaron a cabo cientos de experimentos de vuelo con drones reales en ambientes interiores, y encontraron que MiFly localizó consistentemente el dron a menos de 7 centímetros. “A medida que mejora nuestra comprensión de la percepción y la computación, a menudo nos olvidamos de las señales que están más allá del espectro visible. Aquí, weizve miró más allá del GPS y la visión por computadora a ondas milimétricas, y al hacerlo, weyve abrió nuevas capacidades para drones en entornos interiores que antes no eran posibles, dice Fadel Adib, profesor asociado en el Departamento de Ingeniería Eléctrica y Ciencias de la Computación, director del grupo Signal Kinetics en el MIT Media Lab, y autor principal de un papel sobre MiFly. Adib está acompañado en el artículo por los co-autores principales y asistentes de investigación Maisy Lam y Laura Dodds; Aline Eid, ex postdoctorado que ahora es profesor asistente en la Universidad de Michigan; y Jimmy Hester, CTO y cofundador de Atheraxon, Inc. La investigación se presentará en la Conferencia IEEE sobre Comunicaciones Informáticas. Señales retrodispersadas Para permitir que los drones se auto-localizaran en ambientes oscuros e interiores, los investigadores decidieron utilizar señales de ondas milimétricas. Las ondas milimétricas, que se utilizan comúnmente en los radares modernos y los sistemas de comunicación 5G, funcionan en la oscuridad y pueden viajar a través de materiales cotidianos como cartón, plástico y paredes interiores. Se propusieron crear un sistema que pudiera funcionar con una sola etiqueta, por lo que sería más barato y más fácil de implementar en entornos comerciales. Para garantizar que el dispositivo permaneciera de baja potencia, diseñaron una etiqueta de retrodispersión que refleja las señales de ondas milimétricas enviadas por un radar a bordo de drones. El dron utiliza esos reflejos para auto-localizarse. Pero el radar de los drones recibiría señales reflejadas de todo el entorno, no solo de la etiqueta. Los investigadores superaron este desafío empleando una técnica llamada modulación. Configuraron la etiqueta para agregar una pequeña frecuencia a la señal que dispersa de nuevo al dron. “Ahora, los reflejos del entorno circundante vuelven a una frecuencia, pero los reflejos de la etiqueta vuelven a una frecuencia diferente. Esto nos permite separar las respuestas y solo mirar la respuesta de la etiqueta, dice” Dodds. Sin embargo, con solo una etiqueta y un radar, los investigadores solo pudieron calcular las mediciones de distancia. Necesitaban múltiples señales para calcular la ubicación de los drones. En lugar de usar más etiquetas, agregaron un segundo radar al dron, montando uno horizontalmente y otro verticalmente. El radar horizontal tiene una polarización horizontal, lo que significa que envía señales horizontalmente, mientras que el radar vertical tendría una polarización vertical. Incorporaron la polarización en las antenas de los tags para que pudiera aislar las señales separadas enviadas por cada radar. “Las gafas de sol polarizadas reciben una cierta polarización de la luz y bloquean otras polarizaciones. Aplicamos el mismo concepto a las ondas milimétricas, explica” Lam. Además, aplicaron diferentes frecuencias de modulación a las señales verticales y horizontales, reduciendo aún más la interferencia. Estimación precisa de la ubicación Esta arquitectura de doble polarización y doble modulación proporciona a los drones una ubicación espacial. Pero los drones también se mueven en ángulo y giran, por lo que para permitir que un dron navegue, debe estimar su posición en el espacio con respecto a seis grados de libertad — con datos de trayectoria que incluyen tono, guiñada y balanceo, además de lo habitual hacia adelante/hacia atrás, izquierda/derecha y arriba/abajo. “La rotación del dron agrega mucha ambigüedad a las estimaciones de ondas milimétricas. Este es un gran problema porque los drones giran bastante mientras vuelan, dice Dodds. Superaron estos desafíos utilizando los drones a bordo de la unidad de medición inercial, un sensor que mide la aceleración, así como los cambios de altitud y actitud. Al fusionar esta información con las mediciones de ondas milimétricas reflejadas por la etiqueta, permiten a MiFly estimar la pose completa de seis grados de libertad del dron en solo unos pocos milisegundos. Probaron un avión no tripulado equipado con MiFly en varios ambientes interiores, incluido su laboratorio, el espacio de vuelo en el MIT y los tenues túneles debajo de los edificios del campus. El

Leer más »

Creando un lenguaje común

El nuevo miembro de la facultad Kaiming He discute el papel de AI a reducir las barreras entre los campos científicos y fomentar la colaboración entre las disciplinas científicas. Mucho ha cambiado en los 15 años desde que Kaiming era un estudiante de doctorado. “Cuando estás en tu etapa de Doctorado, hay un muro alto entre diferentes disciplinas y materias, e incluso había un muro alto dentro de la informática,” dice. “El tipo sentado a mi lado podría estar haciendo cosas que completamente no podía entender.” En los siete meses transcurridos desde que se unió al MIT Schwarzman College of Computing como el Douglas Ross (1954) Profesor de Desarrollo de Carrera de Tecnología de Software en el Departamento de Ingeniería Eléctrica y Ciencias de la Computación, dice que está experimentando algo que en su opinión es “muy raro en la historia científica humana” — un descenso de las paredes que se expande a través de diferentes disciplinas científicas. “No hay forma de que pueda entender la física de alta energía, la química o la frontera de la investigación en biología, pero ahora estamos viendo algo que puede ayudarnos a romper estos muros,” dice, “y esa es la creación de un lenguaje común que se ha encontrado en AI.” Construyendo el puente de IA Según He, este cambio comenzó en 2012 a raíz de la revolución “deep learning,” un punto en el que se dio cuenta de que este conjunto de métodos de aprendizaje automático basados en redes neuronales era tan poderoso que podría ser utilizado en mayor medida. “En este punto, la visión por computadora — ayudando a las computadoras a ver y percibir el mundo como si fueran seres humanos — comenzó a crecer muy rápidamente, porque resulta que puedes aplicar esta misma metodología a muchos problemas diferentes y muchas áreas diferentes,” dice Él. “Así que la comunidad de visión por computadora creció rápidamente porque estos diferentes subtemas ahora podían hablar un lenguaje común y compartir un conjunto común de herramientas.” A partir de ahí, dice que la tendencia comenzó a expandirse a otras áreas de la informática, incluido el procesamiento del lenguaje natural, el reconocimiento del habla y la robótica, creando la base para ChatGPT y otros avances hacia la inteligencia general artificial (AGI). “Todo esto ha sucedido en la última década, lo que nos lleva a una nueva tendencia emergente que realmente espero, y que está viendo la metodología de IA propagar otras disciplinas científicas,” dice. Uno de los ejemplos más famosos, dice, es AlphaFold, un programa de inteligencia artificial desarrollado por Google DeepMind, que realiza predicciones de la estructura de la proteína. “Es una disciplina científica muy diferente, un problema muy diferente, pero la gente también está utilizando el mismo conjunto de herramientas de IA, la misma metodología para resolver estos problemas,” Él dice, “y creo que eso es solo el comienzo.” El futuro de la IA en la ciencia Desde que llegó al MIT en febrero de 2024, dice que ha hablado con profesores en casi todos los departamentos. Algunos días se encuentra en conversación con dos o más profesores de orígenes muy diferentes. “Ciertamente no entiendo completamente su área de investigación, pero solo introducirán algún contexto y luego podremos comenzar a hablar sobre aprendizaje profundo, aprendizaje automático, [y] modelos de redes neuronales en sus problemas,” dice. “En este sentido, estas herramientas de IA son como un lenguaje común entre estas áreas científicas: las herramientas de aprendizaje automático ‘traducen’ su terminología y conceptos en términos que puedo entender, y luego puedo aprender sus problemas y compartir mi experiencia, y a veces proponer soluciones u oportunidades para que exploren.” La expansión a diferentes disciplinas científicas tiene un potencial significativo, desde el uso de análisis de video para predecir las tendencias climáticas y climáticas hasta acelerar el ciclo de investigación y reducir los costos en relación con el descubrimiento de nuevos medicamentos. Si bien las herramientas de IA proporcionan un beneficio claro para el trabajo de los colegas científicos de Heas, también señala el efecto recíproco que pueden tener, y han tenido, en la creación y el avance de la IA. “Los científicos proporcionan nuevos problemas y desafíos que nos ayudan a continuar evolucionando estas herramientas,” dice Él. “Pero también es importante recordar que muchas de las herramientas de IA actuales provienen de áreas científicas anteriores —, por ejemplo, las redes neuronales artificiales se inspiraron en observaciones biológicas; los modelos de difusión para la generación de imágenes se motivaron a partir del término físico.” “La ciencia y la IA no son sujetos aislados. Hemos estado acercándonos al mismo objetivo desde diferentes perspectivas, y ahora nos estamos juntando.” Y qué mejor lugar para que se unan que el MIT. “No es sorprendente que el MIT pueda ver este cambio antes que muchos otros lugares,” dice. “[The MIT Schwarzman College of Computing] creó un entorno que conecta a diferentes personas y les permite sentarse juntos, hablar juntos, trabajar juntos, intercambiar sus ideas, mientras hablan el mismo idioma — e Iimm viendo que esto comienza a suceder.” En términos de cuándo los muros se reducirán por completo, señala que esta es una inversión a largo plazo que no ocurrirá de la noche a la mañana. “Décadas atrás, las computadoras se consideraban de alta tecnología y necesitabas conocimientos específicos para entenderlas, pero ahora todo el mundo está usando una computadora,” Él dice. “Espero que en 10 o más años, todos usarán algún tipo de IA de alguna manera para su investigación — es solo sus herramientas básicas, su lenguaje básico y pueden usar IA para resolver sus problemas. MIT News. K. P. Traducido al español

Leer más »

Cambio climático y aprendizaje automático — lo bueno, lo malo y lo desconocido

El aprendizaje automático puede impulsar iniciativas de acción climática, pero su uso generalizado podría tener implicaciones negativas, según Priya Donti de Climate Change AI. El aprendizaje automático y el cambio climático tienen una relación complicada: El aprendizaje automático puede permitir acciones amigables con el clima, pero también puede perjudicar los objetivos de sostenibilidad, dada su gran demanda de recursos energéticos y su papel en los modelos y tendencias comerciales adversos al clima.Trabaja de forma inteligente con nuestro boletín Thinking ForwardPerspectivas de expertos del MIT, entregadas todos los martes por la mañana.Sí, a Iird también le gusta suscribirse al boletín de AI at WorkCorreo electrónico: Las organizaciones necesitan superar continuamente los límites de las diversas tecnologías de aprendizaje automático para enfrentar los desafíos del cambio climático mientras consideran sus costos de energía, según el profesor del MIT Priya Donti. Hablando en el Conferencia de Sostenibilidad del MIT 2024», Donti dijo que las organizaciones también deben seguir siendo pragmáticas sobre cómo el aprendizaje automático puede alterar los esfuerzos o crear incertidumbre en torno al cumplimiento de objetivos de sostenibilidad social más amplios.  “Hay muchos efectos sutiles pero transformadores que el aprendizaje automático tiene a los que deberíamos prestar atención en el contexto del clima,” dijo Donti, cofundador y presidente de Cambio Climático AI, una organización sin fines de lucro global centrada en la intersección del cambio climático y el aprendizaje automático.  Lo bueno: el aprendizaje automático avanza los objetivos de sostenibilidad El aprendizaje automático puede ayudar con las soluciones climáticas en varios frentes, incluida la mejora de la eficiencia de los sistemas eléctricos y los edificios inteligentes y la aceleración de la investigación en ciencias climáticas. Donti y sus coautores destacaron estas innovaciones en un 2022 papel eso detalla cómo las aplicaciones de aprendizaje automático se pueden aplicar al cambio climático en varias categorías amplias:   Convertir los datos sin procesar en información procesable. No siempre es posible recopilar datos sobre el terreno a la escala necesaria para comprender las emisiones de gases de efecto invernadero —, por ejemplo, al recopilar información de áreas donde se está produciendo la deforestación o capturar las características de eficiencia energética de los edificios inteligentes en toda una ciudad. La combinación de imágenes satelitales y aéreas con aprendizaje automático puede proporcionar información que se puede extrapolar a una escala más amplia. Por ejemplo, una coalición de organizaciones sin fines de lucro llamada Rastro Climático utiliza una combinación de imágenes satelitales y datos sobre el terreno para recopilar inventarios de emisiones independientes para diferentes sectores.  Previsión mejorada. Los sistemas de aprendizaje automático pueden procesar datos para descubrir relaciones entre variables para mejorar el pronóstico. Por ejemplo, los datos históricos sobre el clima y la producción de energía solar se pueden utilizar para pronosticar cómo sería la producción de energía solar en un futuro próximo. Esto podría facilitar una mejor gestión de la red eléctrica. Toma de decisiones automatizada. Los programas de aprendizaje automático pueden analizar información en tiempo real para calibrar automáticamente la temperatura de edificios, centros de datos o entornos de refrigeración de manera eficiente. Mantenimiento predictivo. El tiempo de inactividad de los activos es perjudicial para las operaciones comerciales, por lo que la capacidad de identificar y abordar problemas potenciales antes de que ocurran es una gran ventaja de eficiencia. Por ejemplo, la compañía ferroviaria alemana Deutsche Bahn está utilizando el aprendizaje automático para identificar fallas en la infraestructura de conmutación ferroviaria, lo que le permite hacer arreglos proactivos que mantienen los trenes funcionando a tiempo, dijo Donti. Otro ejemplo son los proveedores de gas natural que utilizan datos de sensores e imágenes aéreas y satelitales para detectar anomalías que predicen fugas de metano antes de que ocurran.  Descubrimiento de ciencia e ingeniería. El aprendizaje automático puede analizar los resultados de los experimentos para acelerar el descubrimiento en áreas como la síntesis de moléculas o sorbentes de dióxido de carbono. El aprendizaje automático también puede ayudar a aproximar simulaciones intensivas en tiempo, lo que permite un rendimiento general más rápido del modelo y salidas de mayor resolución.  Gestión de datos para flujos de trabajo sobre cambio climático. Los datos son clave para el proceso de modelado. El aprendizaje automático puede ayudar a las organizaciones a igualar y fusionar conjuntos de datos de diversas fuentes.  Dada la heterogeneidad de los desafíos del cambio climático, se necesitan estos diversos enfoques. “Necesitamos asegurarnos de que estamos fomentando un ecosistema diverso que pueda enfrentar este conjunto de desafíos, en lugar de combinar un conjunto particular de técnicas de IA con un paradigma particular de IA, dijo ” Donti.  Lo malo: el aprendizaje automático usa mucha energía  El aprendizaje automático tiene un impacto significativo en la energía y los recursos hídricos, dada la potencia computacional requerida para procesar y entrenar modelos grandes y el agua necesaria para enfriar los centros de datos, dijo Donti. El uso de hardware consume energía, y la producción, transporte y eliminación de hardware también crea emisiones de carbono. La investigación muestra que los centros de datos y la tecnología de la información y las comunicaciones tuvieron en cuenta 1% a 2% de las emisiones de gases de efecto invernadero en 2020. Aunque no se sabe cuánto contribuye la IA a esas emisiones, el uso de energía relacionado con el desarrollo, la capacitación y la ejecución de modelos de aprendizaje automático sin duda está aumentando, dijo Donti. Además, la investigación muestra que las tecnologías más nuevas son inherentemente más intensivas en carbono. Por ejemplo, la huella de carbono para el entrenamiento del modelo y la ejecución del modelo se ha dividido históricamente 50/50, dijo Donti. Se ha encontrado que el uso de modelos de lenguaje grandes requiere más carbono que el entrenamiento de ellos. Del mismo modo, los modelos específicos de tareas han dado paso a modelos multipropósito que son más grandes y más intensivos en computación. Elegir el enfoque o modelo incorrecto puede aumentar significativamente el uso de energía.  La creación de una red eléctrica más ecológica con energías renovables y gestión de la carga de trabajo de energía es esencial, pero aún insuficiente para abordar completamente estos problemas.

Leer más »

Intel en el MWC Barcelona 2025

Intel exhibirá soluciones para toda la infraestructura de red, marcando el comienzo de una nueva era de automatización de IA. En el MWC Barcelona 2025, el evento de conectividad más grande del mundo, Intel exhibirá innovaciones que permiten un rendimiento y una eficiencia máximos en toda la infraestructura de red y compartirán el impulso entre los procesadores Intel® Core™ Ultra y la adopción de PC con inteligencia artificial empresarial. Las demostraciones abarcarán avances en hardware y software con un rendimiento de inferencia de inteligencia artificial sin concesiones, desarrollos en vRAN (red de acceso por radio virtual) y tecnologías 5G privadas. Al colaborar en todo el ecosistema con más de 50 socios y clientes líderes, Intel está posibilitando avances transformadores, reduciendo la complejidad del operador y potenciando un ecosistema abierto que ofrece verdaderas opciones y flexibilidad. Únase a los expertos de Intel en paneles y debates durante todo el evento y explore las soluciones en exhibición en Intel Technology Showcase. Visite  Intel.com/MWC  para obtener información adicional y la  Sala de prensa de Intel  para obtener el  kit de prensa del evento . Congreso Mundial de Móviles BarcelonaCuándo:  del 3 al 6 de marzo de 2025Dónde:  Fira Gran Via en Barcelona, ​​EspañaStand de Intel:  pabellón 3, stand 3E31Registro:  sitio web de MWC Barcelona Presentación de la tecnología Intel Visite la Exhibición de Tecnología en el stand de Intel para ver las últimas innovaciones de Intel y los socios del ecosistema, que incluyen: Cuándo:  del 3 al 6 de marzo de 2025Dónde:  stand de Intel, pabellón 3, stand 3E31 Voces de Intel en el MWC ¿Los gigantes de las telecomunicaciones están defraudando a las pymes?  Caroline Chen, vicepresidenta y directora general del grupo Network and Edge de Intel, se reúne con expertos del sector para analizar cómo las telecomunicaciones pueden ayudar a las verticales a orquestar sin problemas las cargas de trabajo y liberar el potencial transformador del 5G empresarial.Cuándo : martes 4 de marzo, de 9:45 a 10:30 h CETDónde : escenario Johnson, pabellón 6 Charla de 10 minutos sobre el poder: Sachin Katti,  vicepresidente sénior y director general del grupo de redes y perímetro de Intel, analiza la necesidad de una plataforma común y escalable que sea fundamental para que la industria de las telecomunicaciones prospere . Es una plataforma en la que la potencia informática debe adaptarse a una arquitectura flexible para soportar nuevas cargas de trabajo y en la que la aceleración de la IA es una herramienta para optimizar esta transición. Cuándo: martes 4 de marzo, de 14:45 a 15:45 h CET Dónde: pabellón 6  Automatización de RAN impulsada por IA: transformación de las redes para un futuro más inteligente y eficiente : Cristina Rodríguez, vicepresidenta del grupo de redes y perímetro y directora general del grupo de soluciones de comunicaciones de Intel, se une a expertos de la industria para explorar cómo la automatización de RAN habilitada por IA mejora el rendimiento de la red, optimiza la gestión de recursos y admite diversas arquitecturas de RAN.Cuándo : miércoles 5 de marzo, de 14:30 a 15:15 h CETDónde : Escenario Marconi, pabellón 6 Intel News. Traducido al español

Leer más »

Foco: BRLi y Toulouse INP desarrollan modelos de inundación basados ​​en IA utilizando NVIDIA Modulus

La previsión de inundaciones es una herramienta fundamental en la preparación para desastres y la mitigación de riesgos.  Las inundaciones suponen una amenaza importante para 1.500 millones de personas, lo que las convierte en la causa más común de los principales desastres naturales. Las inundaciones causan hasta 25.000 millones de dólares en daños económicos globales cada año. La previsión de inundaciones es una herramienta fundamental en la preparación para desastres y la mitigación de riesgos. Hace tiempo que se han desarrollado métodos numéricos que proporcionan simulaciones precisas de cuencas fluviales. Con ellos, ingenieros como los de la empresa consultora BRLi estudian diferentes escenarios de precipitaciones y proporcionan valiosas evaluaciones de los riesgos de inundaciones, estrategias de mitigación y planes de socorro en caso de desastres a las partes interesadas locales. Las predicciones precisas pueden salvar vidas, proteger la infraestructura y reducir las pérdidas económicas. Sin embargo, estos métodos utilizan simulaciones numéricas basadas en la física que requieren un uso intensivo de recursos computacionales. Este enfoque suele requerir muchas horas para simular un evento de inundación, incluso en muchos procesadores en paralelo. No es adecuado para la previsión en tiempo real de eventos en curso. Esta limitación ha sido durante mucho tiempo un cuello de botella a la hora de proporcionar alertas de inundaciones rápidas y prácticas adaptadas a un evento determinado, y ha impedido el desarrollo de sistemas de previsión en tiempo real. Para abordar esta cuestión, un equipo conjunto de BRLi y el Instituto Politécnico Nacional de Toulouse (Toulouse INP) , a través de una colaboración en el instituto de investigación ANITI , ha diseñado un enfoque de IA de extremo a extremo que reemplaza por completo el solucionador basado en la física. Este equipo incluye experiencia tanto en modelado hidráulico como en métodos de IA para la física, lo que permite este trabajo interdisciplinario.  Los expertos en hidrología de BRLi proporcionaron modelos físicos detallados para una cuenca determinada para producir una base de datos de inundaciones. Luego, el equipo del INP de Toulouse los utilizó para entrenar un sistema de inteligencia artificial de extremo a extremo para emular el solucionador aprovechando NVIDIA Modulus de la plataforma Earth-2 . Earth-2 es una plataforma en la nube de gemelos digitales para desarrollar canales de visualización y pronóstico aumentados con IA para aplicaciones meteorológicas y climáticas. El equipo utilizó los canales de entrenamiento optimizados y las capacidades de entrenamiento paralelo junto con los modelos de aprendizaje profundo integrados proporcionados por Modulus. NVIDIA Blog. R. Ch. y C. L. Traducido al español El solucionador resultante emula con éxito varias horas de inundación en cuestión de segundos en una sola GPU, lo que abre el camino a la previsión en tiempo real. Se trata de un enfoque innovador que aprovecha la IA para revolucionar la previsión de inundaciones, reduciendo drásticamente el tiempo de cálculo.  Sistema de previsión de inundaciones basado en IA  El equipo conjunto se centró en la cuenca del río Têt, en el sur de Francia. Los importantes esfuerzos de ingeniería han dado lugar a mallas detalladas no estructuradas de esta región que abarcan muchas características topográficas y de ingeniería importantes, como puentes, diques y cuencas de retención de agua. Se ejecutaron simulaciones numéricas detalladas utilizando el código Telemac-Mascaret de código abierto con una variedad de perfiles de entrada de agua para producir una base de datos de eventos de inundación. Para la capacitación, el equipo del INP utilizó NVIDIA Modulus como parte de la plataforma Earth-2, que ofrece un conjunto de herramientas para habilitar soluciones impulsadas por IA en el ámbito del clima y el tiempo. El equipo utilizó una de las arquitecturas de modelos integradas en Modulus para una capacitación rápida y sencilla con sus datos personalizados. Para explorar lo que los modelos de IA pueden habilitar en la previsión meteorológica y climática, consulte los microservicios NVIDIA NIM FourCastNet y CorrDiff en una experiencia basada en navegador.  El equipo del INP eligió una de las arquitecturas de redes neuronales gráficas (GNN) que ha demostrado un rendimiento impresionante en la descripción de la dinámica atmosférica y la adaptó a la cuenca del río Têt. Este enfoque permite que el modelo capture relaciones espaciales complejas y dinámicas temporales cruciales para una predicción precisa de las inundaciones. El modelo de IA fue entrenado para emular los intrincados procesos hidrológicos que conducen a las inundaciones, imitando los datos de las simulaciones numéricas detalladas.  El entrenamiento se realizó en hasta 14 GPU NVIDIA A100 Tensor Core en paralelo en la supercomputadora CALMIP Turpan, logrando una aceleración casi lineal con una eficiencia de escalamiento de hasta el 91 %. Mediante un enfoque autorregresivo, el modelo puede predecir áreas inundadas y caudales en incrementos de 30 minutos hasta varias horas en el futuro. Para abordar el desafío de capturar dependencias de largo alcance sin aumentar sustancialmente la cantidad de capas de transmisión de mensajes, el equipo creó representaciones progresivamente más burdas de la malla original. Estas mallas más burdas se conectaron a la malla fina mediante un árbol KD, formando una multimalla. Esta estrategia amplió el campo receptivo del modelo, mejorando su capacidad para simular dinámicas de inundaciones a gran escala y manteniendo la eficiencia computacional. Durante el entrenamiento, la optimización del modelo se guió por la función de pérdida del error cuadrático medio (MSE) para garantizar predicciones precisas. Para las pruebas, las métricas de evaluación incluyeron el error L1 para medir la desviación promedio de la predicción y el índice crítico de éxito (CSI), que se calculó en un umbral de 5 cm. El CSI cuantificó la capacidad del modelo para detectar y clasificar correctamente las áreas inundadas comparando la intersección de las celdas inundadas previstas y observadas con su unión. Modelo GNN sustituto El modelo final puede realizar una predicción de 6 horas en 19 ms en una sola GPU NVIDIA A100 de 80 GB. En comparación, una simulación similar con el modelo numérico basado en la física requiere 12 horas de tiempo de CPU y al menos 25 minutos de tiempo de solución en 28 CPU. Además, el método aprovecha la malla real desarrollada por el equipo de ingeniería hidráulica con toda su complejidad. Este es un

Leer más »

Automatización de la generación de kernel de GPU con DeepSeek-R1 y escala de tiempo de inferencia

A medida que los modelos de IA amplían sus capacidades para resolver desafíos más sofisticados, está surgiendo una nueva ley de escala conocida como escalamiento en tiempo de prueba o escalamiento en tiempo de inferencia. También conocida como razonamiento de IA o pensamiento a largo plazo , esta técnica mejora el rendimiento del modelo al asignar recursos computacionales adicionales durante la inferencia para evaluar múltiples resultados posibles y luego seleccionar el mejor, red neuronal. Esto permite que la IA diseccione y resuelva sistemáticamente problemas complejos de una manera similar a cómo los humanos diseccionan problemas complejos y los resuelven individualmente para llegar a una solución final. En esta publicación, hablamos sobre un experimento realizado por ingenieros de NVIDIA que utilizaron uno de los modelos de código abierto más nuevos, el modelo DeepSeek-R1, junto con potencia computacional adicional durante la inferencia para resolver un problema complejo. El experimento consistía en generar automáticamente núcleos de atención de GPU que fueran numéricamente correctos y optimizados para diferentes tipos de atención sin ninguna programación explícita.  Los resultados resultaron ser mejores que los núcleos optimizados desarrollados por ingenieros expertos en algunos casos.  La necesidad de núcleos de atención optimizados y los desafíos asociados La atención es un concepto clave que revolucionó el desarrollo del modelo de lenguaje grande (LLM). Es un mecanismo poderoso que permite a los modelos de IA centrarse selectivamente en las partes más relevantes de la información de entrada al realizar tareas. Al centrarse en la información importante, la operación de atención ayuda a los modelos a realizar mejores predicciones y encontrar patrones ocultos en los datos.  La complejidad computacional de la operación de atención crece cuadráticamente en relación con la longitud de la secuencia de entrada. Esto motiva la necesidad de desarrollar una implementación optimizada de nivel inferior (es decir, un núcleo de GPU) para evitar errores de ejecución que surgen de implementaciones simples (por ejemplo, errores de falta de memoria) y para fines de eficiencia computacional.  Existen múltiples variantes de atención (causal, incrustaciones posicionales relativas, coartada, etc.) y a menudo los ingenieros deben utilizar una combinación de estas variantes para una tarea determinada. Los modelos multimodales (por ejemplo, los transformadores de visión) introducen una capa adicional de desafíos, ya que requieren mecanismos de atención especializados (Atención al Vecindario Espacial) para mantener la información espacio-temporal que a menudo se encuentra en la visión por computadora, los modelos de generación de video, etc.  Crear un kernel de GPU optimizado para la atención requiere mucha habilidad y tiempo, incluso para ingenieros de software experimentados. Los últimos LLM como DeepSeek-R1 han demostrado ser muy prometedores en las tareas de generación de código, pero aún enfrentan desafíos para crear código optimizado en el primer intento. Esto hace que sea necesario usar otras estrategias en el momento de la inferencia para generar código optimizado.  El siguiente mensaje es un ejemplo de entrada de usuario para un kernel de atención de incrustaciones posicionales relativas. Please write a GPU attention kernel to support relative position encodings. Implement the relative positional encoding on the fly within the kernel. The complete code should be returned, including the necessary modifications.Use the following function to compute the relative positional encoding:def relative_positional(score, b, h, q_idx, kv_idx):    return score + (q_idx – kv_idx)When implementing the kernel, keep in mind that a constant scaling factor 1.44269504 should be applied to the relative positional encoding due to qk_scale = sm_scale * 1.44269504. The PyTorch reference does not need to scale the relative positional encoding, but in the GPU kernel, use:qk = qk * qk_scale + rel_pos * 1.44269504Please provide the complete updated kernel code that incorporates these changes, ensuring that the relative positional encoding is applied efficiently within the kernel operations. En ocasiones, los LLM pueden producir código alucinado o mezclar sintaxis de distintos lenguajes o marcos, lo que provoca errores de código inmediatos o ineficiencias. Calcular la asignación óptima de subprocesos de GPU tampoco es una tarea trivial y desafiante, que a menudo requiere un refinamiento iterativo para lograr un núcleo correcto y eficiente. Escalado del tiempo de inferencia para generar núcleos de GPU optimizados Para obtener los mejores resultados con núcleos de atención optimizados, los ingenieros de NVIDIA crearon un nuevo flujo de trabajo que incluye un verificador especial junto con el modelo DeepSeek-R1 durante la inferencia en un modo de circuito cerrado durante una duración predeterminada.  El flujo de trabajo se inicializa primero mediante un mensaje manual y el modelo DeepSeek-R1 genera el código de la GPU (es decir, el núcleo) en el primer paso. El verificador se ejecuta en una GPU NVIDIA H100. Analiza el núcleo generado y crea mensajes nuevos que se proporcionan como entrada al modelo DeepSeek-R1.  Este enfoque de bucle cerrado mejora el proceso de generación de código al guiarlo de una manera diferente cada vez. El equipo descubrió que al dejar que este proceso continuara durante 15 minutos, se obtenía un núcleo de atención mejorado.  Este flujo de trabajo produjo núcleos numéricamente correctos para el 100 % de los problemas de nivel 1 y el 96 % de los problemas de nivel 2, según lo probado por el benchmark KernelBench de Stanford . La tasa de resolución de nivel 1 en KernelBench se refiere a la métrica numérica correcta que se utiliza para evaluar la capacidad de los LLM de generar núcleos de GPU eficientes para tareas computacionales específicas. Esta prueba es parte de una serie de desafíos para probar las capacidades de los últimos LLM en programación de GPU. La figura 4 muestra cómo el presupuesto de tiempo de inferencia afecta la tasa de resolución del agente. Asignar más de 10 minutos por problema en la categoría de Nivel 1 permite que el flujo de trabajo produzca código numéricamente correcto para la mayoría de los 100 problemas. Núcleos de GPU optimizados en DeepSeek-R1 Estos resultados muestran cómo se puede utilizar el último modelo DeepSeek-R1 para generar mejores núcleos de GPU utilizando más potencia de procesamiento durante el tiempo de inferencia. Esta sigue siendo una nueva área de investigación con resultados preliminares sobre un enfoque prometedor que genera automáticamente núcleos

Leer más »

Skydio X10D mantiene su posición en la lista de UAS aprobados del Departamento de Defensa de EE. UU.

Nos enorgullece anunciar que el Skydio X10D fue seleccionado como ganador en el concurso Blue UAS Refresh y mantendrá su posición en la lista Blue UAS Cleared List del Departamento de Defensa , lo que marca uno de los períodos más largos entre los fabricantes de drones en lograr este estatus de élite.  La plataforma X10D de Skydio ahora se clasificó por segundo año consecutivo, basándose en el legado de nuestro sistema X2D anterior. La Lista Azul de UAS Autorizados , supervisada por la Unidad de Innovación de Defensa (DIU) del Departamento de Defensa , representa el pináculo de los estándares de seguridad y rendimiento establecidos para satisfacer las diversas necesidades de los usuarios del Departamento de Defensa y desbloquea la Autoridad Global para Operar (ATO) para uso aprobado en cualquier parte del mundo. En esencia, el X10D está diseñado para permitir la colaboración entre humanos y máquinas con una plataforma versátil capaz de manejar múltiples funciones militares mediante una combinación de soporte de carga modular, navegación autónoma impulsada por IA y ciberseguridad líder en el sector. Este diseño de doble uso permite al personal de defensa responder a amenazas emergentes sin necesidad de equipos especializados extensos, una ventaja crucial en el dinámico panorama de seguridad nacional actual. Esta calificación refuerza la posición del X10D como un activo clave para las operaciones de defensa, ofreciendo la adaptabilidad y las características de seguridad necesarias para las misiones militares modernas. Además, refleja la confianza del gobierno de los EE. UU. en la tecnología de Skydio y valida nuestro compromiso continuo de brindar capacidades de drones seguras y avanzadas al Departamento de Defensa y a las agencias federales. Para obtener más detalles sobre los criterios de selección y las ventajas estratégicas del X10D, lea el resumen de la demostración de actualización del UAS azul de la DIU en el Centro de Combate Aéreo-Terrestre del Cuerpo de Marines en 29 Palms. Para explorar las capacidades y aplicaciones de defensa del X10D, visite skydio.com/x10d . Skydio News. Traducido al español

Leer más »

Innovando líneas de vida: la industria de la salud y las ciencias de la vida

Los sectores de la salud y las ciencias biológicas están atravesando una importante transformación impulsada por el envejecimiento de la población, el aumento de las demandas de atención médica y los rápidos avances tecnológicos. Para afrontar estos desafíos, ABB apoya el desarrollo de instalaciones modernizadas y una automatización de vanguardia para brindar una mejor atención y acelerar la innovación, de modo que los proveedores de atención médica puedan superar a los demás. Puntos clave 01 El envejecimiento de la población y las urgentes demandas médicas cambiantes están transformando la atención médica y las ciencias biológicas, impulsando los esfuerzos de modernización, automatización y sostenibilidad. 02 El suministro confiable de energía, los costos iniciales de modernización, las emisiones de CO2 y la escasez de mano de obra siguen siendo desafíos clave. 03 ABB suministra tecnologías de distribución de energía, motores y variadores para sistemas HVACR, robots colaborativos, soluciones digitales, etc. para ayudar al sector a ser más eficiente y limpio. Los sectores de la salud y las ciencias biológicas a nivel mundial están experimentando una transformación significativa impulsada por el envejecimiento de la población, el aumento de las demandas de atención médica, la falta de personal y los avances en medicina, ciencia y tecnología. Estas tendencias generan presión para realizar inversiones sin precedentes tanto en infraestructura física como en capacidades operativas. Para satisfacer las crecientes necesidades de los pacientes, los proveedores de atención médica deben modernizar y ampliar sus instalaciones, mientras que las organizaciones de ciencias biológicas se apresuran a acelerar la I+D y la producción mediante la aplicación de automatización y robótica avanzadas. Hospitales y centros de salud Fuente: Cifras agregadas y participación de mercado por segmento en estudios de mercado disponibles públicamente (2022-2024) Tendencias de crecimiento y desafíos El sector sanitario contribuye con el 4,4 % de las emisiones netas de CO2 a nivel mundial , por lo que las iniciativas de hospitales con emisiones netas cero están ganando terreno de forma significativa, en particular en Europa y América del Norte. La eficiencia energética y la sostenibilidad se han vuelto clave en este contexto, y las instalaciones adoptan cada vez más sistemas de calefacción, ventilación y aire acondicionado (HVAC) de alta eficiencia, ventilación con recuperación de energía (ERV) y sistemas de iluminación inteligente con detección de ocupación como características estándar en las nuevas construcciones. Los sistemas de suministro de energía ininterrumpida (UPS) también son fundamentales para que los hospitales garanticen el funcionamiento continuo de los equipos que salvan vidas, mantengan la seguridad de los pacientes y eviten interrupciones en entornos sensibles como quirófanos y unidades de cuidados intensivos. En estos casos, breves cortes de energía pueden tener graves consecuencias. Tecnologías y soluciones integrales La integración de edificios inteligentes y la tecnología del Internet de las cosas (IoT) están transformando las instalaciones de atención médica a través de la adopción generalizada de sistemas de construcción con capacidades de monitoreo en tiempo real. ABB ofrece soluciones integrales para instalaciones sanitarias modernas, integrando distribución de energía crítica y sistema de alimentación ininterrumpida (UPS ), lo que garantiza que los equipos críticos del hospital nunca se queden sin energía durante un corte de energía. Nuestros sistemas de gestión de energía inteligente ( variadores de velocidad avanzados ) reducen sustancialmente el consumo de energía en sistemas HVACR de alto consumo energético . Esto permite a las instalaciones sanitarias optimizar los costos operativos y, al mismo tiempo, mantener estándares de rendimiento excepcionales. Cuando se combinan con un motor ABB IE5, superan la clase de eficiencia más alta posible. La integración de edificios inteligentes y la tecnología (IoT) transforman las instalaciones sanitarias Casos prácticos de clientes en todo el mundo Con ABB Ability™ Asset Manager para transformadores, el Hospital Universitario de Helsinki  ahora puede acceder a datos clave de rendimiento operativo y tendencias en tiempo real de los transformadores a través de la nube, lo que reduce la necesidad de inspecciones físicas que consumen mucho tiempo y paradas costosas. El área del hospital Meilahti en Helsinki, operado por HUS, actualizó su sistema eléctrico para maximizar el tiempo de actividad, eliminar el uso de SF6, un potente gas de efecto invernadero en los cuadros de distribución de media tensión (MV) , extender la vida útil de los equipos eléctricos y optimizar las operaciones del hospital. ABB se asoció con ThermAir, una empresa de ingeniería de Arizona, para proporcionar soluciones avanzadas de HVACR, garantizando los más altos niveles de seguridad y eficiencia en este entorno crítico. El proyecto utilizó una variedad de variadores ACH580 de ABB, cada uno adaptado a componentes específicos de HVACR. ABB ofrece soluciones HVACR avanzadas como los variadores ACH580 Laboratorios médicos y de diagnóstico y ciencias de la vida Fuente: Cifras agregadas y participación de mercado por segmento en estudios de mercado disponibles públicamente (2022-2024) Tendencias de crecimiento y desafíos El sector de los laboratorios está experimentando una presión cada vez mayor para mejorar la eficiencia manteniendo la precisión, lo que a su vez está impulsando una importante adopción de tecnología. Los sistemas automatizados de análisis y generación de informes de datos se están convirtiendo en una práctica estándar, en gran medida impulsada por la persistente escasez de mano de obra y la creciente necesidad de aumentar la productividad de las pruebas. Si bien la adopción de la automatización trae beneficios claros, los laboratorios enfrentan desafíos de implementación específicos. La integración con los sistemas existentes requiere una planificación cuidadosa para mantener la continuidad operativa, mientras que navegar por el complejo panorama regulatorio para dispositivos médicos y equipos de laboratorio puede retrasar la adopción de nuevos sistemas automatizados. Las brechas de experiencia técnica se están volviendo más pronunciadas a medida que la fuerza laboral envejece, y los mercados desarrollados luchan contra la jubilación del personal técnico especializado. Capacitar y retener al personal calificado es un desafío universal, pero particularmente agudo en los mercados de atención médica en rápido crecimiento, según Columbia Southern University y Health Management. Tecnologías y soluciones integrales Nuestras soluciones de automatización transforman los laboratorios médicos y de diagnóstico mediante tecnologías perfectamente integradas que incluyen  robots industriales , robots colaborativos (cobots) y robots móviles autónomos (AMR). Estos sistemas respaldan todo, desde pruebas de rutina hasta flujos de

Leer más »

Lo que viene en el futuro en IA comienza aquí

Experimente la Conferencia de IA de GTC del 17 al 21 de marzo en San José, California GTC regresará a San José del 17 al 21 de marzo de 2025. Únase a miles de desarrolladores, innovadores y líderes empresariales para experimentar cómo la IA y la computación acelerada están ayudando a la humanidad a resolver nuestros desafíos más complejos. Desde la conferencia principal imprescindible del CEO de NVIDIA, Jensen Huang, hasta más de 1000 sesiones inspiradoras, más de 300 exhibiciones, capacitación técnica práctica y toneladas de eventos de networking únicos, GTC es el lugar para explorar ejemplos del mundo real de IA y sus beneficios. El catálogo de sesiones ya está abierto. Explora y crea tu agenda ahora. NVIDIA News. Traducido al español

Leer más »
Scroll al inicio