El Portal de las Tecnologías para la Innovación

Creación de máquinas autónomas más inteligentes: NVIDIA anuncia acceso anticipado a Omniverse Sensor RTX

Organizaciones como Accenture y Foretellix están acelerando el desarrollo de automóviles y robots autónomos de próxima generación con simulación de sensores escalables y de alta fidelidad.

La IA generativa y los modelos básicos permiten que las máquinas autónomas se generalicen más allá de los dominios de diseño operativo en los que han sido entrenadas. Mediante el uso de nuevas técnicas de IA, como la tokenización y los modelos de lenguaje y difusión a gran escala , los desarrolladores e investigadores ahora pueden abordar obstáculos de larga data para la autonomía.

Estos modelos más grandes requieren cantidades masivas de datos diversos para el entrenamiento, el ajuste y la validación. Pero recopilar esos datos (incluso de casos extremos poco frecuentes y escenarios potencialmente peligrosos, como un peatón que cruza frente a un vehículo autónomo (VA) por la noche o un humano que ingresa a una celda de trabajo de un robot de soldadura) puede ser increíblemente difícil y consumir muchos recursos.

Para ayudar a los desarrolladores a llenar este vacío, las API de NVIDIA Omniverse Cloud Sensor RTX permiten una simulación de sensores físicamente precisa para generar conjuntos de datos a escala. Las interfaces de programación de aplicaciones (API) están diseñadas para admitir sensores que se usan comúnmente para la autonomía (incluidas cámaras, radares y lidar) y pueden integrarse sin problemas en los flujos de trabajo existentes para acelerar el desarrollo de vehículos autónomos y robots de todo tipo.

Las API de Omniverse Sensor RTX ya están disponibles para desarrolladores seleccionados en acceso anticipado . Organizaciones como Accenture, Foretellix, MITRE y Mcity están integrando estas API a través de planos específicos de dominio para brindarles a los clientes finales las herramientas que necesitan para implementar la próxima generación de robots de fabricación industrial y automóviles autónomos.

Impulsando la IA industrial con Omniverse Blueprints

En entornos complejos, como fábricas y almacenes, los robots deben coordinarse para trabajar de forma segura y eficiente junto con la maquinaria y los trabajadores humanos. Todas esas partes móviles presentan un enorme desafío a la hora de diseñar, probar o validar operaciones y evitar interrupciones.

Mega es un modelo omniverso que ofrece a las empresas una arquitectura de referencia de computación acelerada de NVIDIA, IA, NVIDIA Isaac y tecnologías NVIDIA Omniverse . Las empresas pueden usarlo para desarrollar gemelos digitales y probar cerebros robóticos potenciados por IA que controlan robots, cámaras, equipos y más para manejar una enorme complejidad y escala.

Al integrar Omniverse Sensor RTX, el modelo permite a los desarrolladores de robótica renderizar simultáneamente datos de sensores de cualquier tipo de máquina inteligente en una fábrica para una simulación de sensores a gran escala y de alta fidelidad.

Con la capacidad de probar operaciones y flujos de trabajo en simulación, los fabricantes pueden ahorrar tiempo e inversión considerables y mejorar la eficiencia de formas completamente nuevas.

La empresa internacional de soluciones para la cadena de suministro KION Group y Accenture están utilizando el modelo Mega para construir gemelos digitales Omniverse que sirven como entornos virtuales de entrenamiento y prueba para los cerebros robóticos de la IA industrial, aprovechando datos de cámaras inteligentes, carretillas elevadoras, equipos robóticos y humanos digitales.

Los cerebros robóticos perciben el entorno simulado con datos de sensores físicamente precisos generados por las API Omniverse Sensor RTX. Utilizan estos datos para planificar y actuar, y cada acción se rastrea con precisión con Mega, junto con el estado y la posición de todos los activos en el gemelo digital . Con estas capacidades, los desarrolladores pueden crear y probar continuamente nuevos diseños antes de implementarlos en el mundo físico.

Impulsando el desarrollo y la validación de vehículos autónomos

Los vehículos autónomos han estado en desarrollo durante más de una década, pero las barreras para adquirir los datos adecuados de entrenamiento y validación y los ciclos de iteración lentos han obstaculizado su implementación a gran escala.

Para abordar esta necesidad de datos de sensores, las empresas están aprovechando NVIDIA Omniverse Blueprint para simulación de vehículos autónomos , un flujo de trabajo de referencia que permite una simulación de sensores físicamente precisa. El flujo de trabajo utiliza las API Omniverse Sensor RTX para representar los datos de la cámara, el radar y el lidar necesarios para el desarrollo y la validación de vehículos autónomos.

El proveedor de la cadena de herramientas AV Foretellix ha integrado el modelo en su cadena de herramientas de desarrollo AV Foretify para transformar la simulación a nivel de objeto en una simulación de sensores físicamente precisa.

La cadena de herramientas Foretify puede generar cualquier cantidad de escenarios de prueba simultáneamente. Al agregar capacidades de simulación de sensores a estos escenarios, Foretify ahora puede permitir a los desarrolladores evaluar la integridad de su desarrollo de AV, así como entrenar y probar en los niveles de fidelidad y escala necesarios para lograr una implementación segura y a gran escala. Además, Foretellix utilizará la plataforma NVIDIA Cosmos recientemente anunciada para generar una diversidad aún mayor de escenarios para verificación y validación.

Nuro, un proveedor de tecnología de conducción autónoma con una de las mayores implementaciones de nivel 4 en EE. UU., está utilizando la cadena de herramientas Foretify para entrenar, probar y validar sus vehículos autónomos antes de su implementación.

Además, la organización de investigación MITRE está colaborando con el centro de pruebas Mcity de la Universidad de Michigan para construir un marco de validación de vehículos autónomos digitales para uso reglamentario, incluido un gemelo digital del campo de pruebas de 32 acres de Mcity para vehículos autónomos. El proyecto utiliza el modelo de simulación de vehículos autónomos para generar datos de sensores físicamente precisos a escala en el entorno virtual, lo que aumenta la eficacia de la capacitación.

El futuro de la robótica y la autonomía está cobrando cada vez más protagonismo gracias al poder de la simulación de sensores de alta fidelidad. Obtenga más información sobre estas soluciones en el CES visitando a Accenture en el salón F del Venetian y el stand 4016 de Foretellix en el West Hall del Centro de Convenciones de Las Vegas.

Obtenga más información sobre lo último en tecnologías de inteligencia artificial generativa y automotriz uniéndose a NVIDIA en CES .

Consulte el aviso sobre la información del producto de software. NVIDIA Blog.

Artículos relacionados

Scroll al inicio