Herramientas como NVIDIA Isaac Sim mejoran la generación de datos sintéticos, mejorando el rendimiento del modelo de IA y acelerando el desarrollo de la robótica.
Nota del editor: esta publicación es parte de Into the Omniverse , una serie centrada en cómo los desarrolladores, los profesionales 3D y las empresas pueden transformar sus flujos de trabajo utilizando los últimos avances en OpenUSD y NVIDIA Omniverse .
Las tecnologías de simulación escalables están impulsando el futuro de la robótica autónoma al reducir el tiempo y los costos de desarrollo.
Universal Scene Description (OpenUSD) ofrece un marco de datos escalable e interoperable para desarrollar mundos virtuales donde los robots pueden aprender a ser robots. Con las simulaciones basadas en OpenUSD de SimReady , los desarrolladores pueden crear escenarios ilimitados basados en el mundo físico.
Y NVIDIA Isaac Sim está avanzando en la simulación robótica basada en IA de percepción . Isaac Sim es una aplicación de referencia creada en la plataforma NVIDIA Omniverse para que los desarrolladores simulen y prueben robots controlados por IA en entornos virtuales basados en la física.
En AWS re:Invent, NVIDIA anunció que Isaac Sim ahora está disponible en instancias G6e de Amazon EC2 impulsadas por GPU NVIDIA L40S . Estas potentes instancias mejoran el rendimiento y la accesibilidad de Isaac Sim, lo que hace que las simulaciones robóticas de alta calidad sean más escalables y eficientes.
Estos avances en Isaac Sim marcan un salto significativo para el desarrollo de la robótica. Al permitir pruebas realistas y entrenamiento de modelos de IA en entornos virtuales, las empresas pueden reducir el tiempo de implementación y mejorar el rendimiento de los robots en una variedad de casos de uso.
Avances en la simulación robótica con generación de datos sintéticos
Empresas de robótica como Cobot, Field AI y Vention utilizan Isaac Sim para simular y validar el rendimiento de los robots, mientras que otras, como SoftServe y Tata Consultancy Services, utilizan datos sintéticos para generar modelos de IA para diversas aplicaciones robóticas.
La evolución del aprendizaje de los robots ha estado estrechamente relacionada con la tecnología de simulación. Los primeros experimentos en robótica dependían en gran medida de ensayos que exigían mucho trabajo y recursos. La simulación es una herramienta crucial para la creación de entornos físicamente precisos en los que los robots pueden aprender mediante ensayo y error, refinar algoritmos e incluso entrenar modelos de IA utilizando datos sintéticos.
La IA física describe modelos de IA que pueden comprender e interactuar con el mundo físico. Representa la próxima ola de máquinas y robots autónomos , como automóviles sin conductor, manipuladores industriales, robots móviles, humanoides e incluso infraestructuras dirigidas por robots, como fábricas y almacenes.
La simulación robótica , que forma la segunda computadora en la solución de tres computadoras , es una piedra angular del desarrollo de la IA física que permite a los ingenieros e investigadores diseñar, probar y refinar sistemas en un entorno virtual controlado.
Un enfoque que prioriza la simulación reduce significativamente el costo y el tiempo asociados con la creación de prototipos físicos y al mismo tiempo mejora la seguridad al permitir probar robots en escenarios que de otro modo podrían ser poco prácticos o peligrosos en la vida real.
Con un nuevo flujo de trabajo de referencia , los desarrolladores pueden acelerar la generación de conjuntos de datos 3D sintéticos con IA generativa mediante microservicios NIM de OpenUSD . Esta integración optimiza el proceso desde la creación de escenas hasta el aumento de datos, lo que permite un entrenamiento más rápido y preciso de los modelos de IA de percepción.
Los datos sintéticos pueden ayudar a abordar el desafío de los datos limitados, restringidos o no disponibles que se necesitan para entrenar varios tipos de modelos de IA, especialmente en visión artificial. El desarrollo de modelos de reconocimiento de acciones es un caso de uso común que puede beneficiarse de la generación de datos sintéticos.
Para aprender a crear un conjunto de datos de video de reconocimiento de acciones humanas con Isaac Sim, consulte el blog técnico sobre cómo escalar modelos de reconocimiento de acciones con datos sintéticos . Las simulaciones 3D ofrecen a los desarrolladores un control preciso sobre la generación de imágenes, lo que elimina las alucinaciones.
Simulación robótica para humanoides
Los robots humanoides son la próxima ola de inteligencia artificial corporizada, pero presentan un desafío en la intersección de la mecatrónica, la teoría del control y la inteligencia artificial. La simulación es crucial para resolver este desafío al proporcionar una plataforma segura, rentable y versátil para entrenar y probar humanoides.
Con NVIDIA Isaac Lab , un marco unificado de código abierto para el aprendizaje de robots basado en Isaac Sim, los desarrolladores pueden entrenar políticas de robots humanoides a escala mediante simulaciones. Los principales fabricantes de robots comerciales están adoptando Isaac Lab para gestionar movimientos e interacciones cada vez más complejos.
El proyecto GR00T de NVIDIA , una iniciativa de investigación activa para hacer posible el ecosistema de robots humanoides de los constructores, es pionero en flujos de trabajo como GR00T-Gen para generar tareas de robots y entornos listos para la simulación en OpenUSD. Estos se pueden utilizar para entrenar robots generalistas para que realicen manipulación, locomoción y navegación.
Una investigación publicada recientemente del Proyecto GR00T también muestra cómo se puede utilizar la simulación avanzada para entrenar humanoides interactivos. Con Isaac Sim, los investigadores desarrollaron un único controlador unificado para humanoides simulados físicamente llamado MaskedMimic . El sistema es capaz de generar una amplia gama de movimientos en diversos terrenos a partir de intenciones intuitivas definidas por el usuario.
Los gemelos digitales basados en la física simplifican el entrenamiento de la IA
Socios de distintas industrias están utilizando Isaac Sim, Isaac Lab, Omniverse y OpenUSD para diseñar, simular e implementar máquinas autónomas más inteligentes y capaces :
- Agility utiliza Isaac Lab para crear simulaciones que permiten que los comportamientos simulados del robot se transfieran directamente al robot, haciéndolo más inteligente, ágil y robusto cuando se implementa en el mundo real.
- Cobot utiliza Isaac Sim con su cobot impulsado por IA, Proxie, para optimizar la logística en almacenes, hospitales, sitios de fabricación y más.
- Cohesive Robotics ha integrado a Isaac Sim en su marco de software llamado Argus OS para desarrollar e implementar celdas de trabajo robóticas utilizadas en entornos de fabricación de alta mezcla.
- Field AI , un creador de modelos básicos de robots, utiliza Isaac Sim e Isaac Lab para evaluar el rendimiento de sus modelos en entornos complejos y no estructurados en industrias como la construcción, la manufactura, el petróleo y el gas, la minería y más.
- Fourier utiliza NVIDIA Isaac Gym e Isaac Lab para entrenar a su robot humanoide GR-2, utilizando aprendizaje de refuerzo y simulaciones avanzadas para acelerar el desarrollo, mejorar la adaptabilidad y mejorar el rendimiento en el mundo real.
- Foxglove integra Isaac Sim y Omniverse para permitir pruebas de robots, entrenamiento y análisis de datos de sensores eficientes en entornos 3D realistas.
- Galbot utilizó a Isaac Sim para verificar la generación de datos de DexGraspNet, un conjunto de datos a gran escala de 1,32 millones de agarres de ShadowHand, mejorando la funcionalidad de la mano robótica al permitir la validación escalable de diversas interacciones de objetos en 5355 objetos y 133 categorías.
- Standard Bots está simulando y validando el rendimiento de su robot R01 utilizado en configuraciones de fabricación y mecanizado.
- Wandelbots integra su plataforma NOVA con Isaac Sim para crear gemelos digitales basados en la física y entornos de entrenamiento intuitivos, simplificando la interacción de los robots y permitiendo pruebas, validación e implementación sin inconvenientes de sistemas robóticos en escenarios del mundo real.
Obtenga más información sobre cómo Wandelbots está impulsando el aprendizaje de robots con tecnología NVIDIA en esta grabación de transmisión en vivo:
Conéctese al mundo de OpenUSD
Los expertos de NVIDIA y los embajadores de Omniverse están organizando sesiones de oficina y grupos de estudio en vivo para brindarles a los desarrolladores de robótica orientación técnica y soporte para la resolución de problemas de Isaac Sim e Isaac Lab. Aprenda a comenzar a simular robots en Isaac Sim con este nuevo curso gratuito en NVIDIA Deep Learning Institute (DLI).
Para obtener más información sobre la optimización de los flujos de trabajo de OpenUSD, explore el nuevo plan de estudios de capacitación Learn OpenUSD a su propio ritmo , que incluye cursos DLI gratuitos para desarrolladores y profesionales 3D. Para obtener más recursos sobre OpenUSD, explore el foro Alliance for OpenUSD y el sitio web de AOUSD .
No te pierdas la conferencia magistral del CES a cargo del fundador y director ejecutivo de NVIDIA, Jensen Huang, en vivo en Las Vegas el lunes 6 de enero a las 6:30 p. m. (hora del Pacífico) para obtener más información sobre el futuro de la IA y los gráficos.
Manténgase actualizado suscribiéndose a las noticias de NVIDIA , uniéndose a la comunidad y siguiendo a NVIDIA Omniverse en Instagram , LinkedIn , Medium y X.
Imagen destacada cortesía de Fourier .
Categorías: Gráficos profesionales | Robótica
Etiquetas: 3D | Into the Omniverse | NVIDIA Isaac Sim | Omniverse | Robótica | Generación de datos sintéticos | Descripción de escenas universal
https://disqus.com/embed/comments/?base=default&f=nvidiablog&t_u=https%3A%2F%2Fblogs.nvidia.com%2Fblog%2Fopenusd-sdg-advance-robot-learning%2F&t_d=Into%20the%20Omniverse%3A%20How%20OpenUSD-Based%20Simulation%20and%20Synthetic%20Data%20Generation%20Advance%20Robot%20Learning&t_t=Into%20the%20Omniverse%3A%20How%20OpenUSD-Based%20Simulation%20and%20Synthetic%20Data%20Generation%20Advance%20Robot%20Learning&s_o=default&l=en#version=b4b86fd8096fd3a413f323515923c7f3
Recommended for You
La actualización más sencilla: juega con la máxima calidad con GeForce NOW
Digitalización: un cambio radical para la industria automotriz
Juntos brillamos más: Gemma de Google optimizada para funcionar con GPU NVIDIA
Manténgase actualizado con las últimas novedades empresariales.
Suscríbete ahora
Puede darse de baja en cualquier momento. Lea la Política de privacidad de NVIDIA .
Navegación de entradas
¿Qué es la simulación robótica?
La simulación robótica permite a los desarrolladores entrenar, probar y validar virtualmente robots en representaciones digitales basadas en la física del mundo real.
21 de noviembre de 2024 por Akhil Docca
Compartir
Los robots están moviendo mercancías en almacenes, empaquetando alimentos y ayudando a ensamblar vehículos, aportando una mayor automatización a casos de uso en todas las industrias.
Hay dos claves para su éxito: la IA física y la simulación robótica .
La IA física describe modelos de IA que pueden comprender e interactuar con el mundo físico. La IA física encarna la próxima ola de máquinas y robots autónomos , como automóviles sin conductor, manipuladores industriales, robots móviles, humanoides e incluso infraestructuras dirigidas por robots, como fábricas y almacenes.
En la puesta en servicio virtual de robots en mundos digitales, estos se entrenan primero utilizando un software de simulación robótica antes de implementarlos en casos de uso del mundo real.
Simulación robótica resumida
Un simulador robótico avanzado facilita el aprendizaje y la prueba de robots virtuales sin necesidad de contar con un robot físico. Al aplicar principios de física y replicar condiciones del mundo real, estos simuladores generan conjuntos de datos sintéticos para entrenar modelos de aprendizaje automático para su implementación en robots físicos.
Las simulaciones se utilizan para el entrenamiento inicial del modelo de IA y luego para validar todo el conjunto de software, lo que minimiza la necesidad de robots físicos durante las pruebas. NVIDIA Isaac Sim , una aplicación de referencia creada en la plataforma NVIDIA Omniverse , proporciona visualizaciones precisas y admite flujos de trabajo basados en Universal Scene Description (OpenUSD) para simulación y validación avanzadas de robots.
El marco informático 3 de NVIDIA facilita la simulación de robots
Se necesitan tres computadoras para entrenar e implementar la tecnología robótica.
- Una supercomputadora para entrenar y perfeccionar potentes modelos de inteligencia artificial generativa y de base.
- Una plataforma de desarrollo para simulación y pruebas de robótica.
- Una computadora de ejecución a bordo para implementar modelos entrenados en robots físicos.
Los robots físicos sólo pueden ponerse en funcionamiento después de un entrenamiento adecuado en entornos simulados.
La plataforma NVIDIA DGX puede servir como el primer sistema informático para entrenar modelos.
NVIDIA Omniverse, que se ejecuta en servidores NVIDIA OVX , funciona como un segundo sistema informático y proporciona la plataforma de desarrollo y el entorno de simulación para probar, optimizar y depurar la IA física.
Las computadoras robóticas NVIDIA Jetson Thor, diseñadas para la computación a bordo, sirven como la tercera computadora en tiempo de ejecución.
¿Quién utiliza la simulación robótica?
Hoy en día, la tecnología robótica y las simulaciones de robots mejoran enormemente las operaciones en todos los casos de uso.
Delta Electronics, líder mundial en tecnologías térmicas y de energía, utiliza la simulación para probar sus algoritmos de inspección óptica para detectar defectos de productos en las líneas de producción.
La startup de tecnología profunda Wandelbots está construyendo un simulador personalizado integrando Isaac Sim en su aplicación, lo que facilita a los usuarios finales programar celdas de trabajo robóticas en simulación y transferir modelos sin problemas a un robot real.
Boston Dynamics está activando investigadores y desarrolladores a través de su kit de investigación de aprendizaje de refuerzo .
La empresa de robótica Fourier está simulando condiciones del mundo real para entrenar robots humanoides con la precisión y agilidad necesarias para una estrecha colaboración entre robots y humanos.
Con la ayuda de NVIDIA Isaac Sim, la empresa de robótica Galbot creó DexGraspNet , un conjunto de datos simulado integral para agarres robóticos diestros que contiene más de un millón de agarres ShadowHand en más de 5300 objetos. El conjunto de datos se puede aplicar a cualquier mano robótica diestra para realizar tareas complejas que requieren habilidades motoras finas.
Uso de simulación robótica para planificar y controlar resultados
En entornos industriales complejos y dinámicos, la simulación robótica está evolucionando para integrar gemelos digitales , mejorando la planificación, el control y los resultados del aprendizaje.
Los desarrolladores importan modelos de diseño asistidos por computadora en un simulador de robótica para construir escenas virtuales y emplear algoritmos para crear el sistema operativo del robot y permitir la planificación de tareas y movimientos. Si bien los métodos tradicionales implican la prescripción de señales de control, el cambio hacia el aprendizaje automático permite que los robots aprendan comportamientos a través de métodos como la imitación y el aprendizaje por refuerzo, utilizando señales de sensores simuladas.
Esta evolución continúa con gemelos digitales en instalaciones complejas como las líneas de ensamblaje de fabricación, donde los desarrolladores pueden probar y refinar IA en tiempo real completamente en simulación. Este enfoque ahorra tiempo y costos de desarrollo de software y reduce el tiempo de inactividad al anticipar los problemas. Por ejemplo, con NVIDIA Omniverse, Metropolis y cuOpt , los desarrolladores pueden usar gemelos digitales para desarrollar, probar y refinar IA física en simulación antes de implementarla en la infraestructura industrial.
Avances en simulación basada en la física y de alta fidelidad
Las simulaciones de alta fidelidad basadas en la física han potenciado la robótica industrial a través de la experimentación del mundo real en entornos virtuales.
NVIDIA PhysX , integrado en Omniverse e Isaac Sim, permite a los expertos en robótica desarrollar habilidades motoras finas y gruesas para manipuladores de robots, dinámica de cuerpos rígidos y blandos, dinámica de vehículos y otras características críticas que garantizan que el robot obedezca las leyes de la física. Esto incluye un control preciso de los actuadores y el modelado de la cinemática, que son esenciales para los movimientos precisos del robot.
Para cerrar la brecha entre simulación y realidad, Isaac Lab ofrece un marco de código abierto de alta fidelidad para el aprendizaje por refuerzo y el aprendizaje por imitación que facilita la transferencia de políticas sin problemas desde entornos simulados a robots físicos. Con la paralelización de GPU, Isaac Lab acelera el entrenamiento y mejora el rendimiento, lo que hace que las tareas complejas sean más alcanzables y seguras para los robots industriales.
Para obtener más información sobre cómo crear una política de aprendizaje de refuerzo de locomoción con Isaac Sim e Isaac Lab, lea este blog para desarrolladores .
Enseñanza del movimiento sin colisiones para la autonomía
El entrenamiento de robots industriales suele realizarse en entornos específicos, como fábricas o centros logísticos, donde las simulaciones ayudan a abordar los desafíos relacionados con diversos tipos de robots y entornos caóticos. Un aspecto fundamental de estas simulaciones es generar un movimiento sin colisiones en entornos desconocidos y desordenados.
Los enfoques tradicionales de planificación del movimiento que intentan abordar estos desafíos pueden resultar insuficientes en entornos desconocidos o dinámicos. SLAM , o localización y mapeo simultáneos, se puede utilizar para generar mapas 3D de entornos con imágenes de cámara desde múltiples puntos de vista. Sin embargo, estos mapas requieren revisiones cuando los objetos se mueven y se modifican los entornos.
El equipo de investigación de NVIDIA Robotics y la Universidad de Washington presentaron Motion Policy Networks (MπNets) , una política neuronal de extremo a extremo que genera movimiento en tiempo real y sin colisiones mediante el flujo de datos de una única cámara fija. Entrenada en más de 3 millones de problemas de planificación de movimiento y 700 millones de nubes de puntos simuladas, MπNets navega por entornos reales desconocidos de manera eficaz.
Si bien el modelo MπNets aplica aprendizaje directo a las trayectorias, el equipo también desarrolló un modelo de colisión basado en nube de puntos llamado CabiNet , entrenado en más de 650.000 escenas simuladas generadas mediante procedimientos.
Con el modelo CabiNet, los desarrolladores pueden implementar políticas de selección y colocación de objetos desconocidos de uso general más allá de una configuración de mesa plana. El entrenamiento con un gran conjunto de datos sintéticos permitió que el modelo se generalizara a escenas fuera de distribución en un entorno de cocina real, sin necesidad de datos reales.
Cómo pueden empezar los desarrolladores a crear simuladores robóticos
Comience a utilizar recursos técnicos, aplicaciones de referencia y otras soluciones para desarrollar procesos de simulación físicamente precisos visitando la página de casos de uso de simulación de NVIDIA Robotics .
Los desarrolladores de robots pueden aprovechar NVIDIA Isaac Sim , que admite múltiples técnicas de entrenamiento de robots:
- Generación de datos sintéticos para entrenar modelos de IA de percepción
- Pruebas de software en el circuito para toda la pila de robots
- Entrenamiento en políticas de robots con Isaac Lab
Los desarrolladores también pueden combinar ROS 2 con Isaac Sim para entrenar, simular y validar sus sistemas robóticos. El flujo de trabajo de Isaac Sim a ROS 2 es similar a los flujos de trabajo ejecutados con otros simuladores de robots como Gazebo . Comienza con la incorporación de un modelo de robot a un entorno de Isaac Sim prediseñado, la adición de sensores al robot y, a continuación, la conexión de los componentes pertinentes al gráfico de acciones de ROS 2 y la simulación del robot mediante el control a través de paquetes de ROS 2.
Manténgase actualizado suscribiéndose a nuestro boletín y siga a NVIDIA Robotics en LinkedIn , Instagram , X y Facebook .
Categorías: Explicación | Robótica
Etiquetas: Metropolis | NVIDIA Isaac Sim | NVIDIA Jetson | NVIDIA Research | Omniverse Enterprise | Generación de datos sintéticosCargar comentarios
Recommended for You
La actualización más sencilla: juega con la máxima calidad con GeForce NOW
Digitalización: un cambio radical para la industria automotriz
Juntos brillamos más: Gemma de Google optimizada para funcionar con GPU NVIDIA
Navegación de entradas
Hacia el omniverso: cómo la IA generativa impulsa imágenes personalizadas y precisas de marca con OpenUSD
Las herramientas 3D interactivas creadas por los desarrolladores de NVIDIA Omniverse están ayudando a las marcas a ofrecer contenido de marketing personalizado y de alta calidad a gran escala.
21 de noviembre de 2024 por James Mills
Compartir
Nota del editor: esta publicación es parte de Into the Omniverse , una serie de blogs centrada en cómo los desarrolladores, artistas 3D y empresas pueden transformar sus flujos de trabajo utilizando los últimos avances en OpenUSD y NVIDIA Omniverse .
Los configuradores de productos 3D están cambiando la forma en que industrias como la minorista y la automotriz interactúan con los clientes al ofrecer visualizaciones 3D interactivas y personalizables de los productos.
Al utilizar gemelos digitales de productos físicamente precisos , incluso los artistas que no trabajan en 3D pueden optimizar la creación de contenido y generar imágenes de marketing impactantes.
Con el nuevo NVIDIA Omniverse Blueprint para el acondicionamiento 3D para una IA generativa visual precisa , los desarrolladores pueden comenzar a usar la plataforma NVIDIA Omniverse y Universal Scene Description (OpenUSD) para crear fácilmente contenido de marketing personalizado, acorde a la marca y preciso del producto a escala.
Al integrar la IA generativa en los configuradores de productos, los desarrolladores pueden optimizar las operaciones y reducir los costos de producción. Con las tareas repetitivas automatizadas, los equipos pueden concentrarse en los aspectos creativos de sus trabajos.
Desarrollo de IA generativa controlable para la producción de contenidos
El nuevo Omniverse Blueprint presenta un marco sólido para integrar IA generativa en flujos de trabajo 3D para permitir la creación de activos precisa y controlada.
Imágenes de ejemplo creadas con NVIDIA Omniverse Blueprint para acondicionamiento 3D para IA generativa visual precisa.
Los aspectos más destacados del plan incluyen:
- Acondicionamiento del modelo para garantizar que las imágenes generadas por IA se adhieran a los requisitos específicos de la marca, como colores y logotipos.
- Enfoque multimodal que combina técnicas 3D y 2D para ofrecer a los desarrolladores un control total sobre los resultados visuales finales y, al mismo tiempo, garantizar que el gemelo digital del producto siga siendo preciso.
- Componentes clave como un activo de héroe de marca, una escena 3D simple y sin texturas y una aplicación personalizable creada con la plantilla de aplicación Omniverse Kit .
- Integración de OpenUSD para mejorar el desarrollo de imágenes 3D con IA generativa visual precisa.
- La integración de NVIDIA NIM, como los microservicios Edify 360 NIM , Edify 3D NIM , USD Code NIM y USD Search NIM , permite que el modelo sea extensible y personalizable. Los microservicios están disponibles para obtener una vista previa en build.nvidia.com .
Cómo los desarrolladores crean canales de contenido basados en IA
Katana Studio desarrolló una herramienta de creación de contenido con OpenUSD llamada COATcreate que permite a los equipos de marketing producir rápidamente contenido 3D para publicidad automotriz. Al utilizar datos 3D preparados por expertos creativos y examinados por especialistas en productos en OpenUSD, incluso los usuarios con experiencia artística limitada pueden crear rápidamente contenido personalizado, de alta fidelidad y acorde con la marca para cualquier región o caso de uso sin aumentar los costos de producción.
El líder mundial en marketing WPP ha creado un motor de contenido de IA generativa para publicidad de marca con OpenUSD. El modelo Omniverse para una IA generativa visual precisa ayudó a facilitar la integración de la IA generativa controlable en sus herramientas de creación de contenido. Marcas globales líderes como The Coca-Cola Company ya están empezando a adoptar herramientas de WPP para acelerar la iteración de sus campañas creativas a gran escala.
Mire la repetición de una transmisión en vivo reciente con WPP para obtener más información sobre su flujo de trabajo habilitado para IA generativa y OpenUSD:
El equipo creativo de NVIDIA desarrolló un flujo de trabajo de referencia llamado CineBuilder en Omniverse que permite a las empresas utilizar indicaciones de texto para generar anuncios personalizados para los consumidores según la región, el clima, la hora del día, el estilo de vida y las preferencias estéticas.
Los desarrolladores de proveedores de software independientes y agencias de servicios de producción están creando soluciones de creación de contenido con IA generativa controlable y basadas en OpenUSD. Accenture Song, Collective World, Grip, Monks y WPP se encuentran entre los que están adoptando Omniverse Blueprints para acelerar el desarrollo.
Lea el blog tecnológico sobre el desarrollo de configuradores de productos con OpenUSD y comience a desarrollar soluciones utilizando el configurador 3D DENZA N7 y el flujo de trabajo de referencia CineBuilder .
Conéctese al mundo de OpenUSD
Hay varios recursos disponibles para ayudar a los desarrolladores a comenzar a crear soluciones de configuración de productos habilitadas para IA:
- Plan Omniverse: Acondicionamiento 3D para una IA visual generativa precisa
- Arquitectura de referencia: Acondicionamiento 3D para una IA generativa visual precisa
- Arquitectura de referencia: flujo de trabajo de IA generativa para la creación de contenido
- Arquitectura de referencia: Configurador de productos
- Guía de ejemplo del configurador de extremo a extremo
- Curso DLI: Creación de un configurador de productos 3D con OpenUSD
- Transmisión en vivo: OpenUSD para marketing y publicidad
Para obtener más información sobre la optimización de los flujos de trabajo de OpenUSD, explore el nuevo plan de estudios de capacitación Learn OpenUSD a su propio ritmo , que incluye cursos gratuitos del Deep Learning Institute para desarrolladores y profesionales 3D. Para obtener más recursos sobre OpenUSD, asista a nuestros cursos Learn OpenUSD dirigidos por un instructor en SIGGRAPH Asia el 3 de diciembre, explore el foro Alliance for OpenUSD y visite el sitio web de AOUSD .
No te pierdas la conferencia magistral del CES a cargo del fundador y director ejecutivo de NVIDIA, Jensen Huang, en vivo en Las Vegas el lunes 6 de enero a las 6:30 p. m. (hora del Pacífico) para obtener más información sobre el futuro de la IA y los gráficos.
Manténgase actualizado suscribiéndose a las noticias de NVIDIA , uniéndose a la comunidad y siguiendo a NVIDIA Omniverse en Instagram , LinkedIn , Medium y X.
Categorías: Gráficos profesionales
Etiquetas: 3D | Inteligencia artificial | Into the Omniverse | Omniverse | Descripción de la escena universalCargar comentarios
Recommended for You
La actualización más sencilla: juega con la máxima calidad con GeForce NOW
Digitalización: un cambio radical para la industria automotriz
Juntos brillamos más: Gemma de Google optimizada para funcionar con GPU NVIDIA
Navegación de entradas
Pioneros de la IA ganan premios Nobel de Física y Química
Los avances en redes neuronales y predicción de proteínas impulsados por GPU ganan premios Nobel, anunciando una nueva era para la ciencia y la industria.
10 de diciembre de 2024 por Brian Caulfield
Compartir
La inteligencia artificial, que otrora era el reino de la ciencia ficción, reclamó su lugar en la cima de los logros científicos el lunes en Suecia.
En una ceremonia histórica en el emblemático Konserthuset de Estocolmo, John Hopfield y Geoffrey Hinton recibieron el Premio Nobel de Física por su trabajo pionero en redes neuronales: sistemas que imitan la arquitectura del cerebro y forman la base de la IA moderna.
Mientras tanto, Demis Hassabis y John Jumper aceptaron el Premio Nobel de Química por AlphaFold de Google DeepMind, un sistema que resolvió el problema “imposible” de la biología: predecir la estructura de las proteínas, una hazaña con profundas implicaciones para la medicina y la biotecnología.
Estos logros van más allá del prestigio académico. Marcan el comienzo de una era en la que los sistemas de inteligencia artificial basados en GPU abordan problemas que antes se consideraban irresolubles y revolucionan industrias multimillonarias, desde la atención médica hasta las finanzas.
El legado de Hopfield y los fundamentos de las redes neuronales
En la década de 1980, Hopfield, un físico con un don para plantear grandes preguntas, aportó una nueva perspectiva a las redes neuronales.
Introdujo los paisajes energéticos (tomados de la física) para explicar cómo las redes neuronales resuelven problemas al encontrar estados estables de baja energía. Sus ideas, abstractas pero elegantes, sentaron las bases de la IA al mostrar cómo los sistemas complejos se optimizan a sí mismos.
A principios de la década de 2000, Geoffrey Hinton, un psicólogo cognitivo británico con una inclinación por las ideas radicales, tomó la posta. Hinton creía que las redes neuronales podían revolucionar la IA, pero entrenar estos sistemas requería una enorme potencia computacional.
En 1983, Hinton y Sejnowski se basaron en el trabajo de Hopfield e inventaron la máquina de Boltzmann, que utilizaba neuronas binarias estocásticas para saltar de los mínimos locales. Descubrieron un procedimiento de aprendizaje elegante y muy simple basado en la mecánica estadística que era una alternativa a la retropropagación.
En 2006, una versión simplificada de este procedimiento de aprendizaje demostró ser muy eficaz para inicializar redes neuronales profundas antes de entrenarlas con retropropagación. Sin embargo, el entrenamiento de estos sistemas aún requería una enorme potencia computacional.
AlphaFold: la revolución de la inteligencia artificial en biología
Una década después de AlexNet, la IA se trasladó a la biología. Hassabis y Jumper lideraron el desarrollo de AlphaFold para resolver un problema que había desconcertado a los científicos durante años: predecir la forma de las proteínas.
Las proteínas son los elementos básicos de la vida. Sus formas determinan lo que pueden hacer. Comprender estas formas es la clave para combatir enfermedades y desarrollar nuevos medicamentos. Pero encontrarlas era un proceso lento, costoso y poco fiable.
AlphaFold cambió eso. Utilizó las ideas de Hopfield y las redes de Hinton para predecir las formas de las proteínas con una precisión asombrosa. Gracias a las GPU, mapeó casi todas las proteínas conocidas. Ahora, los científicos utilizan AlphaFold para combatir la resistencia a los medicamentos, fabricar mejores antibióticos y tratar enfermedades que antes se creían incurables.
Lo que alguna vez fue el nudo gordiano de la biología ha sido desenredado… gracias a la IA.
El factor GPU: cómo aprovechar el potencial de la IA
Las GPU, los motores indispensables de la IA moderna, son la base de estos logros. Diseñadas originalmente para que los videojuegos se vean bien, las GPU eran perfectas para las demandas masivas de procesamiento paralelo de las redes neuronales.
Las GPU NVIDIA, en particular, se convirtieron en el motor que impulsó avances como AlexNet y AlphaFold. Su capacidad para procesar grandes conjuntos de datos con una velocidad extraordinaria permitió a la IA abordar problemas a una escala y una complejidad nunca antes posibles.
Redefiniendo la ciencia y la industria
Los avances ganadores del Nobel de 2024 no solo están reescribiendo los libros de texto: también están optimizando las cadenas de suministro globales, acelerando el desarrollo de medicamentos y ayudando a los agricultores a adaptarse al cambio climático.
Los principios de optimización basados en la energía de Hopfield ahora informan los sistemas logísticos impulsados por IA. Las arquitecturas de Hinton sustentan los automóviles autónomos y los modelos de lenguaje como ChatGPT. El éxito de AlphaFold está inspirando enfoques impulsados por IA para el modelado climático, la agricultura sostenible e incluso la ciencia de los materiales.
El reconocimiento de la inteligencia artificial en la física y la química indica un cambio en nuestra forma de pensar sobre la ciencia. Estas herramientas ya no se limitan al ámbito digital, sino que están transformando el mundo físico y biológico.
Categorías: Corporativo | Deep LearningCargar comentarios
Recommended for You
La actualización más sencilla: juega con la máxima calidad con GeForce NOW
Digitalización: un cambio radical para la industria automotriz
Juntos brillamos más: Gemma de Google optimizada para funcionar con GPU NVIDIA
Navegación de entradas
Baje el ruido: CUDA-Q permite la primera demostración de computación cuántica de la industria con qubits lógicos
10 de diciembre de 2024 por Sam Stanwyck
Compartir
La computación cuántica tiene el potencial de transformar industrias que abarcan desde el descubrimiento de fármacos hasta la logística, pero una enorme barrera que se interpone entre los dispositivos cuánticos actuales y sus aplicaciones útiles es el ruido. Estas perturbaciones, introducidas por interacciones ambientales y hardware imperfecto, significan que los cúbits actuales solo pueden realizar cientos de operaciones antes de que los cálculos cuánticos se deterioren irremediablemente.
Aunque parezca inevitable, el ruido en el hardware cuántico se puede solucionar con los llamados qubits lógicos, conjuntos de decenas, cientos o incluso miles de qubits físicos reales que permiten la corrección de errores inducidos por el ruido. Los qubits lógicos son el santo grial de la computación cuántica, y el fabricante de hardware cuántico Infleqtion publicó hoy un trabajo innovador en el que se utilizó la plataforma NVIDIA CUDA-Q para diseñar y demostrar un experimento con dos de ellos.
Estos qubits lógicos se utilizaron para realizar una demostración a pequeña escala del llamado modelo de Anderson de impureza única, un enfoque de alta precisión necesario para muchas aplicaciones importantes de la ciencia de los materiales.
Esta es la primera vez que se lleva a cabo una demostración de un algoritmo cuántico de ciencia de materiales en cúbits lógicos. La creación de un solo cúbit lógico es extremadamente difícil. Infleqtion pudo lograr tal hazaña gracias al modelado preciso de su computadora cuántica utilizando las capacidades únicas de simulación acelerada por GPU de CUDA-Q.
Después de haber desarrollado y probado todo su experimento dentro de los simuladores de CUDA-Q, con solo cambios triviales, Infleqtion pudo entonces usar CUDA-Q para orquestar el experimento utilizando los qubits físicos reales dentro de su procesador cuántico de átomos neutros Sqale.
Este trabajo prepara el terreno para el avance de la computación cuántica hacia sistemas a gran escala con corrección de errores.
Aún existen muchos desafíos de escalabilidad entre los dispositivos cuánticos actuales y los grandes sistemas de qubits lógicos, que solo se resolverán integrando hardware cuántico con supercomputadoras de IA para formar supercomputadoras cuánticas aceleradas.
NVIDIA continúa trabajando con socios como Infleqtion para posibilitar esta investigación innovadora necesaria para hacer realidad la supercomputación cuántica acelerada.
Lea el blog técnico de NVIDIA sobre esta noticia y obtenga más información sobre las plataformas de computación cuántica de NVIDIA .
Categorías: Software
Etiquetas: CUDA | Computación cuántica | Simulación y diseñoCargar comentarios
Recommended for You
La actualización más sencilla: juega con la máxima calidad con GeForce NOW
Digitalización: un cambio radical para la industria automotriz
Juntos brillamos más: Gemma de Google optimizada para funcionar con GPU NVIDIA
Navegación de entradas
Logro supremo: el modelo de investigación de NVIDIA permite una reconstrucción de escenas dinámica, rápida y eficiente
El modelo, denominado QUEEN, permite la generación de escenas de alta calidad y bajo ancho de banda que podrían usarse para aplicaciones de transmisión, incluidas operaciones de robótica industrial, videoconferencias en 3D y transmisiones de medios en vivo.
9 de diciembre de 2024 por Isha Salian
Compartir
La transmisión y la participación en contenidos están entrando en una nueva dimensión con QUEEN , un modelo de IA de NVIDIA Research y la Universidad de Maryland que permite transmitir videos desde cualquier punto de vista, lo que permite a los espectadores experimentar una escena 3D desde cualquier ángulo.
QUEEN podría utilizarse para crear aplicaciones de transmisión inmersiva que enseñen habilidades como la cocina, que permitan a los fanáticos de los deportes estar en el campo de juego para ver a sus equipos favoritos jugar desde cualquier ángulo o que aporten un nivel adicional de profundidad a las videoconferencias en el lugar de trabajo. También podría utilizarse en entornos industriales para ayudar a teleoperar robots en un almacén o una planta de fabricación.
El modelo se presentará en NeurIPS , la conferencia anual de investigación en IA que comienza el martes 10 de diciembre en Vancouver.
“Para transmitir videos desde un punto de vista libre casi en tiempo real, debemos reconstruir y comprimir simultáneamente la escena 3D”, afirmó Shalini De Mello, directora de investigación y científica investigadora destacada de NVIDIA. “QUEEN equilibra factores como la tasa de compresión, la calidad visual, el tiempo de codificación y el tiempo de renderizado para crear un flujo de trabajo optimizado que establece un nuevo estándar de calidad visual y capacidad de transmisión”.
Reducir, reutilizar y reciclar para una transmisión eficiente
Los videos de punto de vista libre generalmente se crean utilizando secuencias de video capturadas desde diferentes ángulos de cámara, como un estudio de cine con múltiples cámaras, un conjunto de cámaras de seguridad en un almacén o un sistema de cámaras de videoconferencia en una oficina.
Los métodos de IA anteriores para generar videos desde un punto de vista libre consumían demasiada memoria para la transmisión en vivo o sacrificaban la calidad visual para tamaños de archivo más pequeños. QUEEN equilibra ambas cosas para ofrecer imágenes de alta calidad (incluso en escenas dinámicas con chispas, llamas o animales peludos) que se pueden transmitir fácilmente desde un servidor host al dispositivo de un cliente. También reproduce imágenes más rápido que los métodos anteriores, lo que admite casos de uso de transmisión en vivo.
En la mayoría de los entornos del mundo real, muchos elementos de una escena permanecen estáticos. En un video, eso significa que una gran parte de los píxeles no cambian de un cuadro a otro. Para ahorrar tiempo de cálculo, QUEEN rastrea y reutiliza las representaciones de estas regiones estáticas, concentrándose en su lugar en reconstruir el contenido que cambia con el tiempo.
Utilizando una GPU NVIDIA Tensor Core , los investigadores evaluaron el rendimiento de QUEEN en varios puntos de referencia y descubrieron que el modelo superó a los métodos de última generación para videos en línea de punto de vista libre en una variedad de métricas. Dados los videos 2D de la misma escena capturados desde diferentes ángulos, generalmente se necesitan menos de cinco segundos de tiempo de entrenamiento para renderizar videos de punto de vista libre a alrededor de 350 cuadros por segundo.
Esta combinación de velocidad y calidad visual puede respaldar las transmisiones multimedia de conciertos y juegos deportivos al ofrecer experiencias de realidad virtual inmersivas o repeticiones instantáneas de momentos clave de una competencia.
En los almacenes, los operadores de robots podrían utilizar QUEEN para medir mejor la profundidad al manipular objetos físicos. Y en una aplicación de videoconferencia (como la demostración de videoconferencia en 3D mostrada en SIGGRAPH y NVIDIA GTC ), podría ayudar a los presentadores a demostrar tareas como cocinar o hacer origami, y permitir que los espectadores elijan el ángulo visual que mejor favorezca su aprendizaje.
El código de QUEEN pronto se publicará como código abierto y se compartirá en la página del proyecto .
QUEEN es uno de los más de 50 carteles y artículos de NeurIPS creados por NVIDIA que presentan investigaciones innovadoras sobre IA con posibles aplicaciones en campos como la simulación, la robótica y la atención médica. Entre ellos se encuentra un finalista al mejor artículo , titulado “ Guiding a Diffusion Model With a Bad Version of Itself ”, uno de los cinco artículos reconocidos entre los más de 4500 aceptados este año.
Generative Adversarial Nets , el artículo que presentó por primera vez los modelos GAN, ganó el premio Test of Time de NeurIPS 2024. El artículo, citado más de 85 000 veces, fue coescrito por Bing Xu, ingeniero distinguido de NVIDIA. Escuche más de su autor principal, Ian Goodfellow, científico investigador de DeepMind, en el podcast de IA:
https://w.soundcloud.com/player/?url=https%3A//api.soundcloud.com/tracks/326749576&color=%2376b900&auto_play=false&hide_related=false&show_comments=true&show_user=true&show_reposts=false&show_teaser=true
Obtenga más información sobre NVIDIA Research en NeurIPS .
Vea el último trabajo de NVIDIA Research , que cuenta con cientos de científicos e ingenieros en todo el mundo, con equipos centrados en temas que incluyen IA, gráficos de computadora, visión por computadora, autos autónomos y robótica.
Los investigadores académicos que trabajan en modelos de lenguaje de gran tamaño, simulación y modelado, IA de borde y más pueden postularse al Programa de subvenciones académicas de NVIDIA .
Consulte el aviso sobre la información del producto de software.
Categorías: Investigación | IA generativa
Etiquetas: 3D | Inteligencia artificial | Inferencia | Investigación NVIDIA | Código abierto | Transmisión de vídeo | Realidad virtualCargar comentarios
Recommended for You
La actualización más sencilla: juega con la máxima calidad con GeForce NOW
Digitalización: un cambio radical para la industria automotriz
Juntos brillamos más: Gemma de Google optimizada para funcionar con GPU NVIDIA
Navegación de entradas
Thailand and Vietnam Embrace Sovereign AI to Drive Economic Growth
December 6, 2024 by Isha Salian
Share
Southeast Asia is embracing sovereign AI.
The prime ministers of Thailand and Vietnam this week met with NVIDIA founder and CEO Jensen Huang to discuss initiatives that will accelerate AI innovation in their countries.
During his visit to the region, Huang also joined Bangkok-based cloud infrastructure company SIAM.AI Cloud onstage for a fireside chat on sovereign AI. In Vietnam, he announced NVIDIA’s collaboration with the country’s government on an AI research and development center — and NVIDIA’s acquisition of VinBrain, a health technology startup funded by Vingroup, one of Vietnam’s largest public companies.
These events capped a year of global investments in sovereign AI, the ability for countries to develop and harness AI using domestic computing infrastructure, data and workforces. AI will contribute nearly $20 trillion to the global economy through the end of the decade, according to IDC.
Canada, Denmark and Indonesia are among the countries that have announced initiatives to develop sovereign AI infrastructure powered by NVIDIA technology. And at the recent NVIDIA AI Summits in India and Japan, leading enterprises, infrastructure providers and startups in both countries announced sovereign AI projects in sectors including finance, healthcare and manufacturing.
Supporting Sovereign Cloud Infrastructure in Thailand
Huang’s Southeast Asia visit kicked off with a meeting with Thailand Prime Minister Paetongtarn Shinawatra, where he discussed the opportunities for sovereign AI development in Thailand and shared memories of his childhood years spent in Bangkok.
The pair discussed how further investing in AI education and training can help Thailand drive AI innovations in fields such as weather prediction, climate simulation and healthcare. NVIDIA is working with dozens of local universities and startups to support AI advancement in the country.
Huang later took the stage at an “AI Vision for Thailand” event hosted by SIAM.AI Cloud, a cloud platform company that offers customers access to virtual servers featuring NVIDIA Tensor Core GPUs.
“The most important part of artificial intelligence is the data. And the data of Thailand belongs to the Thai people,” Huang said in a fireside chat with Ratanaphon Wongnapachant, CEO of SIAM.AI Cloud. Highlighting the importance of sovereign AI development, Huang said, “The digital data of Thailand encodes the knowledge, the history, the culture, the common sense of your people. It should be harvested by your people.”
Tras la conversación, Wongnapachant le regaló a Huang una chaqueta de cuero personalizada forrada con seda tailandesa. La pareja también firmó un sistema NVIDIA DGX H200 en reconocimiento a los planes de SIAM.AI Cloud de ampliar su oferta a las GPU NVIDIA H200 Tensor Core y los superchips NVIDIA GB200 Grace Blackwell.
El avance de la inteligencia artificial desde la investigación a la industria en Vietnam
Al día siguiente, en Hanoi, Huang se reunió con el primer ministro de Vietnam, Pham Minh Chinh, y NVIDIA firmó un acuerdo para abrir el primer centro de investigación y desarrollo de la empresa en el país . El centro se centrará en el desarrollo de software y colaborará con empresas, startups, agencias gubernamentales y universidades de Vietnam para acelerar la adopción de la IA en el país.
El anuncio se basa en el trabajo existente de NVIDIA con 65 universidades en Vietnam y más de 100 de las empresas emergentes de IA del país a través de NVIDIA Inception , un programa global diseñado para ayudar a las empresas emergentes a evolucionar más rápido. NVIDIA ha adquirido VinBrain , miembro de Inception , una empresa con sede en Hanoi que aplica diagnósticos de IA a datos de salud multimodales.
Durante su estancia en Vietnam, Huang también recibió el Premio VinFuture 2024 junto con los pioneros de la IA Yoshua Bengio, Geoffrey Hinton, Yann Le Cun y Fei-Fei Li por sus “contribuciones transformadoras al avance del aprendizaje profundo”.
Transmitida en vivo a nivel nacional, la ceremonia de premios fue organizada por la Fundación VinFuture, una organización sin fines de lucro que reconoce las innovaciones en ciencia y tecnología con un impacto social significativo.
“Nuestro premio de hoy es un reconocimiento por parte del comité de VinFuture al poder transformador de la IA para revolucionar todos los campos de la ciencia y todas las industrias”, dijo Huang en su discurso de aceptación.
Obtenga más información sobre la IA soberana . NVIDIA News. A. D. Traducido al español