El Portal de las Tecnologías para la Innovación

Categoría: Robótica y Automatización

NVIDIA pone a disposición de la comunidad de desarrolladores de IA física los modelos de Cosmos World Foundation

Modelos de última generación entrenados en millones de horas de videos de conducción y robótica para democratizar el desarrollo de IA física, disponibles bajo licencia de modelo abierto. NVIDIA Cosmos , una plataforma para acelerar el desarrollo de IA física , presenta una familia de modelos de base mundial (redes neuronales que pueden predecir y generar videos conscientes de la física del estado futuro de un entorno virtual) para ayudar a los desarrolladores a construir robots y vehículos autónomos (VA) de próxima generación. Los modelos de base mundial, o WFM, son tan fundamentales como los grandes modelos de lenguaje. Utilizan datos de entrada, incluidos texto, imágenes, videos y movimiento, para generar y simular mundos virtuales de una manera que modela con precisión las relaciones espaciales de los objetos en la escena y sus interacciones físicas. Anunciado hoy en CES , NVIDIA está poniendo a disposición la primera ola de Cosmos WFM para simulación basada en física y generación de datos sintéticos, además de tokenizadores de última generación, barandillas, un proceso de curación y procesamiento de datos acelerado y un marco para la personalización y optimización de modelos. Los investigadores y desarrolladores, independientemente del tamaño de su empresa, pueden utilizar libremente los modelos Cosmos bajo la licencia de modelo abierto permisiva de NVIDIA que permite el uso comercial. Las empresas que crean agentes de IA también pueden utilizar los nuevos modelos abiertos NVIDIA Llama Nemotron y Cosmos Nemotron , presentados en el CES. La apertura de los modelos de vanguardia de Cosmos permite a los desarrolladores de IA física crear tecnología robótica y de vehículos autónomos y permite a las empresas de todos los tamaños llevar más rápidamente sus aplicaciones de IA física al mercado. Los desarrolladores pueden utilizar los modelos de Cosmos directamente para generar datos sintéticos basados ​​en la física, o pueden aprovechar el marco NVIDIA NeMo para ajustar los modelos con sus propios vídeos para configuraciones de IA física específicas. Los líderes de IA física, incluidas las empresas de robótica 1X, Agility Robotics y XPENG, y los desarrolladores de AV Uber y Waabi, ya están trabajando con Cosmos para acelerar y mejorar el desarrollo de modelos. Los desarrolladores pueden obtener una vista previa de los primeros modelos autorregresivos y de difusión de Cosmos en el catálogo de API de NVIDIA , y descargar la familia de modelos y el marco de ajuste fino del catálogo NVIDIA NGC y Hugging Face . Modelos fundacionales mundiales para la IA física Los modelos de base del mundo Cosmos son un conjunto de modelos de difusión abierta y de transformadores autorregresivos para la generación de videos que tienen en cuenta la física. Los modelos se han entrenado con 9000 billones de tokens a partir de 20 millones de horas de interacciones humanas, ambientales, industriales, robóticas y datos de conducción del mundo real. Los modelos se dividen en tres categorías: Nano, para modelos optimizados para inferencia de baja latencia en tiempo real e implementación en el borde; Super, para modelos de referencia de alto rendimiento; y Ultra, para máxima calidad y fidelidad, ideal para destilar modelos personalizados. Cuando se combinan con las salidas 3D de NVIDIA Omniverse , los modelos de difusión generan datos de video sintéticos controlables y de alta calidad para iniciar el entrenamiento de modelos de percepción robótica y de vehículos autónomos. Los modelos autorregresivos predicen lo que debería suceder a continuación en una secuencia de fotogramas de video en función de los fotogramas de entrada y el texto. Esto permite la predicción del siguiente token en tiempo real, lo que brinda a los modelos de IA físicos la previsión para predecir su próxima mejor acción. Los desarrolladores pueden utilizar los modelos abiertos de Cosmos para la generación de texto a mundo y de video a mundo. Las versiones de los modelos de difusión y autorregresivo, con entre 4 y 14 mil millones de parámetros cada una, ya están disponibles en el catálogo de NGC y en Hugging Face . También están disponibles un modelo de muestreo ascendente de 12 mil millones de parámetros para refinar las indicaciones de texto, un decodificador de video de 7 mil millones de parámetros optimizado para la realidad aumentada y modelos de barandilla para garantizar un uso responsable y seguro. Para demostrar oportunidades de personalización, NVIDIA también está lanzando muestras de modelos optimizados para aplicaciones verticales, como la generación de vistas de múltiples sensores para vehículos autónomos. Avances en robótica y aplicaciones para vehículos autónomos Los modelos básicos del mundo Cosmos pueden permitir la generación de datos sintéticos para aumentar los conjuntos de datos de entrenamiento, la simulación para probar y depurar modelos físicos de IA antes de que se implementen en el mundo real y el aprendizaje de refuerzo en entornos virtuales para acelerar el aprendizaje de los agentes de IA . Los desarrolladores pueden generar cantidades masivas de datos sintéticos controlables basados ​​en la física al condicionar Cosmos con escenas 3D compuestas de NVIDIA Omniverse. Waabi, una empresa pionera en la IA generativa para el mundo físico, comenzando con los vehículos autónomos, está evaluando el uso de Cosmos para la búsqueda y conservación de datos de vídeo para el desarrollo y simulación de software de vehículos autónomos. Esto acelerará aún más el enfoque líder en la industria de la empresa en materia de seguridad, que se basa en Waabi World, un simulador de IA generativa que puede crear cualquier situación que un vehículo pueda encontrar con el mismo nivel de realismo que si sucediera en el mundo real. En robótica, los WFM pueden generar entornos o mundos virtuales sintéticos para proporcionar un espacio menos costoso, más eficiente y controlado para el aprendizaje de los robots. La startup de IA incorporada Hillbot está impulsando su flujo de datos utilizando Cosmos para generar terabytes de entornos 3D de alta fidelidad. Estos datos generados por IA ayudarán a la empresa a refinar su entrenamiento y operaciones robóticas, lo que permitirá una capacitación robótica más rápida y eficiente y un mejor rendimiento para tareas industriales y domésticas. En ambas industrias, los desarrolladores pueden usar NVIDIA Omniverse y Cosmos como un motor de simulación multiverso, lo que permite que un modelo de política de IA física simule cada

Leer más »

Por qué las empresas necesitan motores de consulta de IA para impulsar la IA de Agentic

Los motores de consulta de IA procesan, almacenan y recuperan de manera eficiente grandes volúmenes de datos para mejorar las entradas del modelo de IA generativo. Los datos son el combustible de las aplicaciones de IA, pero la magnitud y la escala de los datos empresariales a menudo hacen que su uso eficaz sea demasiado costoso y lleve demasiado tiempo. Según Global DataSphere 1 de IDC , las empresas generarán 317 zettabytes de datos al año en 2028 (incluida la creación de 29 zettabytes de datos únicos), de los cuales el 78 % serán datos no estructurados y el 44 % serán audio y video. Debido al volumen extremadamente alto y a los diversos tipos de datos, la mayoría de las aplicaciones de IA generativa utilizan una fracción de la cantidad total de datos que se almacenan y generan. Para que las empresas prosperen en la era de la IA, deben encontrar una forma de aprovechar todos sus datos. Esto no es posible con las técnicas tradicionales de procesamiento de datos y computación. En cambio, las empresas necesitan un motor de consulta de IA. ¿Qué es un motor de consulta de IA? En términos simples, un motor de consultas de IA es un sistema que conecta aplicaciones de IA, o agentes de IA, con datos. Es un componente fundamental de la IA basada en agentes , ya que funciona como un puente entre la base de conocimiento de una organización y las aplicaciones impulsadas por IA, lo que permite respuestas más precisas y sensibles al contexto. Los agentes de IA forman la base de un motor de consulta de IA, donde pueden recopilar información y trabajar para ayudar a los empleados humanos. Un agente de IA recopilará información de muchas fuentes de datos, planificará, razonará y tomará medidas. Los agentes de IA pueden comunicarse con los usuarios o pueden trabajar en segundo plano, donde siempre estarán disponibles los comentarios y la interacción de los humanos. En la práctica, un motor de consulta de IA es un sistema sofisticado que procesa eficientemente grandes cantidades de datos, extrae y almacena conocimiento y realiza una búsqueda semántica sobre ese conocimiento, que la IA puede recuperar y utilizar rápidamente. Los motores de consulta de IA liberan inteligencia en datos no estructurados El motor de consulta de inteligencia artificial de una empresa tendrá acceso al conocimiento almacenado en muchos formatos diferentes, pero poder extraer inteligencia de datos no estructurados es uno de los avances más significativos que permite. Para generar información, los motores de consulta tradicionales se basan en consultas estructuradas y fuentes de datos, como bases de datos relacionales. Los usuarios deben formular consultas precisas utilizando lenguajes como SQL, y los resultados se limitan a formatos de datos predefinidos. Por el contrario, los motores de consulta de IA pueden procesar datos estructurados, semiestructurados y no estructurados. Los formatos de datos no estructurados más comunes son los archivos PDF, los archivos de registro, las imágenes y los vídeos, y se almacenan en almacenes de objetos, servidores de archivos y sistemas de archivos paralelos. Los agentes de IA se comunican con los usuarios y entre ellos mediante lenguaje natural. Esto les permite interpretar la intención del usuario, incluso cuando es ambigua, accediendo a diversas fuentes de datos. Estos agentes pueden ofrecer resultados en un formato conversacional, de modo que los usuarios puedan interpretar los resultados. Esta capacidad permite obtener más información e inteligencia de cualquier tipo de datos, no solo de aquellos que encajan perfectamente en filas y columnas. Por ejemplo, empresas como DataStax y NetApp están construyendo plataformas de datos de IA que permiten a sus clientes tener un motor de consulta de IA para sus aplicaciones de próxima generación. Características principales de los motores de consulta de IA Los motores de consulta de IA poseen varias capacidades cruciales: La generación aumentada por recuperación es un componente de los motores de consulta de IA. RAG utiliza el poder de los modelos de IA generativos para actuar como una interfaz de lenguaje natural para los datos, lo que permite que los modelos accedan e incorporen información relevante de grandes conjuntos de datos durante el proceso de generación de respuestas. Con RAG, cualquier empresa u otra organización puede convertir su información técnica, manuales de políticas, videos y otros datos en bases de conocimiento útiles. Un motor de consulta de IA puede entonces basarse en estas fuentes para respaldar áreas como las relaciones con los clientes, la capacitación de los empleados y la productividad de los desarrolladores. Se encuentran en investigación y desarrollo técnicas adicionales de recuperación de información y formas de almacenar conocimiento, por lo que se espera que las capacidades de un motor de consulta de IA evolucionen rápidamente. El impacto de los motores de consulta de IA Al utilizar motores de consulta de IA, las empresas pueden aprovechar al máximo el poder de los agentes de IA para conectar a sus fuerzas de trabajo con grandes cantidades de conocimiento empresarial, mejorar la precisión y la relevancia de las respuestas generadas por IA, procesar y utilizar fuentes de datos previamente sin explotar y crear volantes de IA impulsados ​​por datos que mejoren continuamente sus aplicaciones de IA. Algunos ejemplos incluyen un asistente virtual de IA que brinda experiencias de servicio al cliente personalizadas las 24 horas del día, los 7 días de la semana, un agente de IA para buscar y resumir videos, un agente de IA para analizar vulnerabilidades de software o un asistente de investigación de IA. Al cerrar la brecha entre los datos sin procesar y las aplicaciones impulsadas por IA, los motores de consulta de IA crecerán y desempeñarán un papel crucial a la hora de ayudar a las organizaciones a extraer valor de sus datos. NVIDIA Blueprints puede ayudar a las empresas a comenzar a conectar la IA a sus datos. Obtenga más información sobre NVIDIA Blueprints y pruébelos en el catálogo de API de NVIDIA. NVIDIA Blog. S de N. Traducido al español

Leer más »

NVIDIA presenta el «mega» plan Omniverse para construir gemelos digitales de flotas de robots industriales

El nuevo marco permite la próxima era de la IA industrial y la simulación de robots a través de pruebas definidas por software y optimización para fábricas y almacenes. Según Gartner, el gasto mundial de los usuarios finales en todos los productos de TI para 2024 fue de 5 billones de dólares. Esta industria se basa en un tejido informático de electrones, está totalmente definida por software, acelerada y ahora habilitada para la IA generativa. Si bien es enorme, es una fracción del mercado industrial físico más grande que depende del movimiento de átomos. Los 10 millones de fábricas, los casi 200.000 almacenes y los 64 millones de kilómetros de autopistas que existen hoy forman el tejido “informático” de nuestro mundo físico, pero esa vasta red de instalaciones de producción y centros de distribución todavía se diseña, opera y optimiza de forma laboriosa y manual. En el almacenamiento y la distribución, los operadores se enfrentan a problemas de optimización de decisiones sumamente complejos : matrices de variables e interdependencias entre trabajadores humanos, sistemas y equipos robóticos y agentes. A diferencia de la industria de TI, el mercado industrial físico aún está esperando su propio momento definido por software. Ese momento se acerca. NVIDIA anunció hoy en CES “Mega”, un plan omniverso para desarrollar, probar y optimizar flotas físicas de IA y robots a escala en un gemelo digital antes de su implementación en instalaciones del mundo real. Los almacenes y fábricas avanzados utilizan flotas de cientos de robots móviles autónomos, manipuladores de brazos robóticos y humanoides que trabajan junto a personas. Con la implementación de sistemas cada vez más complejos de sensores y autonomía robótica, se requiere capacitación coordinada en simulación para optimizar las operaciones, ayudar a garantizar la seguridad y evitar interrupciones. Mega ofrece a las empresas una arquitectura de referencia de computación acelerada de NVIDIA, IA, tecnologías NVIDIA Isaac y NVIDIA Omniverse para desarrollar y probar gemelos digitales para probar cerebros robóticos impulsados ​​por IA que impulsan robots, agentes de IA para análisis de video , equipos y más para manejar una enorme complejidad y escala. El nuevo marco brinda capacidades definidas por software a las instalaciones físicas, lo que permite un desarrollo, prueba, optimización e implementación continuos. Desarrollo de cerebros de IA con simuladores mundiales para orquestación autónoma Con gemelos digitales impulsados ​​por Mega, incluido un simulador mundial que coordina todas las actividades de los robots y los datos de los sensores, las empresas pueden actualizar continuamente los cerebros de los robots de las instalaciones para obtener rutas y tareas inteligentes para lograr eficiencias operativas. El modelo utiliza las API de Omniverse Cloud Sensor RTX que permiten a los desarrolladores de robótica representar datos de sensores de cualquier tipo de máquina inteligente en la fábrica, de manera simultánea, para una simulación de sensores a gran escala y de alta fidelidad . Esto permite probar robots en una cantidad infinita de escenarios dentro del gemelo digital, utilizando datos sintéticos en una canalización de software en el circuito con NVIDIA Isaac ROS . La empresa de soluciones para la cadena de suministro KION Group está colaborando con Accenture y NVIDIA como la primera en adoptar Mega para optimizar las operaciones en el comercio minorista, bienes de consumo envasados, servicios de paquetería y más. Jensen Huang, fundador y director ejecutivo de NVIDIA, ofreció una visión del futuro de esta colaboración en el escenario del CES, demostrando cómo las empresas pueden navegar por una compleja red de decisiones utilizando el Mega Omniverse Blueprint. “En KION, aprovechamos las soluciones basadas en IA como parte integral de nuestra estrategia para optimizar las cadenas de suministro de nuestros clientes y aumentar su productividad”, afirmó Rob Smith, director ejecutivo de KION GROUP AG. “Con el liderazgo en IA de NVIDIA y la experiencia de Accenture en tecnologías digitales, estamos reinventando la automatización de los almacenes. Al reunir a estos socios fuertes, estamos creando una visión para los almacenes del futuro que son parte de un sistema ágil e inteligente, evolucionan con el mundo que los rodea y pueden manejar casi cualquier desafío de la cadena de suministro”. Creación de eficiencias operativas con Mega Omniverse Blueprint Para generar eficiencias operativas, KION y Accenture están adoptando el plan Mega Omniverse para construir cadenas de suministro de última generación para KION y sus clientes. KION puede capturar y digitalizar un gemelo digital de almacén en Omniverse mediante archivos de diseño asistido por computadora, video, lidar, imágenes y datos generados por IA. KION utiliza el gemelo digital Omniverse como entorno virtual de entrenamiento y prueba para los cerebros robóticos de su IA industrial, impulsados ​​por NVIDIA Isaac, que aprovechan cámaras inteligentes, carretillas elevadoras, equipos robóticos y humanos digitales. Al integrar el gemelo digital Omniverse, el software de gestión de almacenes de KION puede crear y asignar misiones para los cerebros robóticos, como mover una carga de un lugar a otro. Estos robots simulados pueden realizar tareas percibiendo y razonando en entornos, y son capaces de planificar los próximos movimientos y luego realizar acciones que se simulan en el gemelo digital. Los cerebros robóticos perciben los resultados y deciden la siguiente acción, y este ciclo continúa con Mega rastreando con precisión el estado y la posición de todos los activos en el gemelo digital. Prestación de servicios con Mega para instalaciones en cualquier lugar Accenture, líder mundial en servicios profesionales, está adoptando Mega como parte de su Refinería de IA para Simulación y Robótica, construida sobre NVIDIA AI y Omniverse, para ayudar a las organizaciones a utilizar la simulación de IA para reinventar el diseño de fábricas y almacenes y las operaciones en curso. Con este plan, Accenture ofrece nuevos servicios (entre ellos, Custom Robotics and Manufacturing Foundation Model Training and Finetuning; Intelligent Humanoid Robotics; y AI-Powered Industrial Manufacturing and Logistics Simulation and Optimization) para ampliar el poder de la IA física y la simulación a las fábricas y los operadores de almacenes del mundo. Ahora, por ejemplo, una organización puede explorar numerosas opciones para su almacén antes de elegir e implementar la mejor. “A medida que las organizaciones ingresan a la era de la IA industrial, las ayudamos a utilizar la simulación impulsada por

Leer más »

Creación de máquinas autónomas más inteligentes: NVIDIA anuncia acceso anticipado a Omniverse Sensor RTX

Organizaciones como Accenture y Foretellix están acelerando el desarrollo de automóviles y robots autónomos de próxima generación con simulación de sensores escalables y de alta fidelidad. La IA generativa y los modelos básicos permiten que las máquinas autónomas se generalicen más allá de los dominios de diseño operativo en los que han sido entrenadas. Mediante el uso de nuevas técnicas de IA, como la tokenización y los modelos de lenguaje y difusión a gran escala , los desarrolladores e investigadores ahora pueden abordar obstáculos de larga data para la autonomía. Estos modelos más grandes requieren cantidades masivas de datos diversos para el entrenamiento, el ajuste y la validación. Pero recopilar esos datos (incluso de casos extremos poco frecuentes y escenarios potencialmente peligrosos, como un peatón que cruza frente a un vehículo autónomo (VA) por la noche o un humano que ingresa a una celda de trabajo de un robot de soldadura) puede ser increíblemente difícil y consumir muchos recursos. Para ayudar a los desarrolladores a llenar este vacío, las API de NVIDIA Omniverse Cloud Sensor RTX permiten una simulación de sensores físicamente precisa para generar conjuntos de datos a escala. Las interfaces de programación de aplicaciones (API) están diseñadas para admitir sensores que se usan comúnmente para la autonomía (incluidas cámaras, radares y lidar) y pueden integrarse sin problemas en los flujos de trabajo existentes para acelerar el desarrollo de vehículos autónomos y robots de todo tipo. Las API de Omniverse Sensor RTX ya están disponibles para desarrolladores seleccionados en acceso anticipado . Organizaciones como Accenture, Foretellix, MITRE y Mcity están integrando estas API a través de planos específicos de dominio para brindarles a los clientes finales las herramientas que necesitan para implementar la próxima generación de robots de fabricación industrial y automóviles autónomos. Impulsando la IA industrial con Omniverse Blueprints En entornos complejos, como fábricas y almacenes, los robots deben coordinarse para trabajar de forma segura y eficiente junto con la maquinaria y los trabajadores humanos. Todas esas partes móviles presentan un enorme desafío a la hora de diseñar, probar o validar operaciones y evitar interrupciones. Mega es un modelo omniverso que ofrece a las empresas una arquitectura de referencia de computación acelerada de NVIDIA, IA, NVIDIA Isaac y tecnologías NVIDIA Omniverse . Las empresas pueden usarlo para desarrollar gemelos digitales y probar cerebros robóticos potenciados por IA que controlan robots, cámaras, equipos y más para manejar una enorme complejidad y escala. Al integrar Omniverse Sensor RTX, el modelo permite a los desarrolladores de robótica renderizar simultáneamente datos de sensores de cualquier tipo de máquina inteligente en una fábrica para una simulación de sensores a gran escala y de alta fidelidad. Con la capacidad de probar operaciones y flujos de trabajo en simulación, los fabricantes pueden ahorrar tiempo e inversión considerables y mejorar la eficiencia de formas completamente nuevas. La empresa internacional de soluciones para la cadena de suministro KION Group y Accenture están utilizando el modelo Mega para construir gemelos digitales Omniverse que sirven como entornos virtuales de entrenamiento y prueba para los cerebros robóticos de la IA industrial, aprovechando datos de cámaras inteligentes, carretillas elevadoras, equipos robóticos y humanos digitales. Los cerebros robóticos perciben el entorno simulado con datos de sensores físicamente precisos generados por las API Omniverse Sensor RTX. Utilizan estos datos para planificar y actuar, y cada acción se rastrea con precisión con Mega, junto con el estado y la posición de todos los activos en el gemelo digital . Con estas capacidades, los desarrolladores pueden crear y probar continuamente nuevos diseños antes de implementarlos en el mundo físico. Impulsando el desarrollo y la validación de vehículos autónomos Los vehículos autónomos han estado en desarrollo durante más de una década, pero las barreras para adquirir los datos adecuados de entrenamiento y validación y los ciclos de iteración lentos han obstaculizado su implementación a gran escala. Para abordar esta necesidad de datos de sensores, las empresas están aprovechando NVIDIA Omniverse Blueprint para simulación de vehículos autónomos , un flujo de trabajo de referencia que permite una simulación de sensores físicamente precisa. El flujo de trabajo utiliza las API Omniverse Sensor RTX para representar los datos de la cámara, el radar y el lidar necesarios para el desarrollo y la validación de vehículos autónomos. El proveedor de la cadena de herramientas AV Foretellix ha integrado el modelo en su cadena de herramientas de desarrollo AV Foretify para transformar la simulación a nivel de objeto en una simulación de sensores físicamente precisa. La cadena de herramientas Foretify puede generar cualquier cantidad de escenarios de prueba simultáneamente. Al agregar capacidades de simulación de sensores a estos escenarios, Foretify ahora puede permitir a los desarrolladores evaluar la integridad de su desarrollo de AV, así como entrenar y probar en los niveles de fidelidad y escala necesarios para lograr una implementación segura y a gran escala. Además, Foretellix utilizará la plataforma NVIDIA Cosmos recientemente anunciada para generar una diversidad aún mayor de escenarios para verificación y validación. Nuro, un proveedor de tecnología de conducción autónoma con una de las mayores implementaciones de nivel 4 en EE. UU., está utilizando la cadena de herramientas Foretify para entrenar, probar y validar sus vehículos autónomos antes de su implementación. Además, la organización de investigación MITRE está colaborando con el centro de pruebas Mcity de la Universidad de Michigan para construir un marco de validación de vehículos autónomos digitales para uso reglamentario, incluido un gemelo digital del campo de pruebas de 32 acres de Mcity para vehículos autónomos. El proyecto utiliza el modelo de simulación de vehículos autónomos para generar datos de sensores físicamente precisos a escala en el entorno virtual, lo que aumenta la eficacia de la capacitación. El futuro de la robótica y la autonomía está cobrando cada vez más protagonismo gracias al poder de la simulación de sensores de alta fidelidad. Obtenga más información sobre estas soluciones en el CES visitando a Accenture en el salón F del Venetian y el stand 4016 de Foretellix en el West Hall del Centro de Convenciones de Las Vegas. Obtenga más información sobre lo último en tecnologías de inteligencia artificial generativa y automotriz uniéndose a NVIDIA en CES . Consulte el aviso sobre la información

Leer más »

NVIDIA y sus socios lanzan planes de inteligencia artificial Agentic para automatizar el trabajo en todas las empresas

Los desarrolladores ahora pueden crear e implementar agentes de IA personalizados que pueden razonar, planificar y actuar con los nuevos NVIDIA AI Blueprints que incluyen microservicios NVIDIA NIM, NVIDIA NeMo y marcos de IA agentes de proveedores líderes. Los nuevos planos de inteligencia artificial de NVIDIA para crear aplicaciones de inteligencia artificial agente están preparados para ayudar a las empresas de todo el mundo a automatizar el trabajo. Con los planos, los desarrolladores ahora pueden crear e implementar agentes de IA personalizados. Estos agentes de IA actúan como «robots de conocimiento» que pueden razonar, planificar y tomar medidas para analizar rápidamente grandes cantidades de datos, resumir y extraer información en tiempo real de videos, archivos PDF y otras imágenes. CrewAI, Daily, LangChain, LlamaIndex y Weights & Biases se encuentran entre los principales proveedores de herramientas de gestión y orquestación de IA con agentes que han trabajado con NVIDIA para crear modelos que integran la plataforma de software NVIDIA AI Enterprise , incluidos los microservicios NVIDIA NIM y NVIDIA NeMo, con sus plataformas. Estos cinco modelos, que comprenden una nueva categoría de modelos de socios para IA con agentes , proporcionan los elementos básicos para que los desarrolladores creen la próxima ola de aplicaciones de IA que transformarán todas las industrias. Además de los planos de los socios, NVIDIA presenta su propio nuevo plano de IA para convertir PDF en podcast, así como otro para crear agentes de IA para la búsqueda y el resumen de videos . A estos se suman cuatro planos adicionales de NVIDIA Omniverse que facilitan a los desarrolladores la creación de gemelos digitales listos para la simulación para la IA física. Para ayudar a las empresas a llevar rápidamente agentes de IA a producción, Accenture anuncia AI Refinery for Industry creado con NVIDIA AI Enterprise, que incluye NVIDIA NeMo , microservicios NVIDIA NIM y AI Blueprints . Las soluciones AI Refinery for Industry, impulsadas por Accenture AI Refinery con NVIDIA, pueden ayudar a las empresas a lanzar rápidamente IA agente en campos como automotriz, tecnología, fabricación, bienes de consumo y más. Las herramientas de orquestación de IA de Agentic dirigen una sinfonía de agentes La IA agenética representa la próxima ola en la evolución de la IA generativa. Permite que las aplicaciones vayan más allá de las simples interacciones de chatbots para abordar problemas complejos de varios pasos mediante un razonamiento y una planificación sofisticados. Como se explicó en la conferencia inaugural del fundador y director ejecutivo de NVIDIA, Jensen Huang, en la CES , los agentes de IA empresariales se convertirán en una pieza central de las fábricas de IA que generan tokens para crear inteligencia y productividad sin precedentes en todas las industrias. La orquestación de IA con agentes es un sistema sofisticado diseñado para gestionar, supervisar y coordinar el trabajo en equipo de múltiples agentes de IA, lo que es fundamental para desarrollar sistemas empresariales de IA con agentes confiables. La capa de orquestación de IA con agentes de los socios de NVIDIA proporciona el pegamento necesario para que los agentes de IA trabajen juntos de manera eficaz. Los nuevos modelos de socios, ahora disponibles a través de los líderes en orquestación de IA de Agentic, ofrecen integraciones con el software NVIDIA AI Enterprise , incluidos los microservicios NIM y NVIDIA NeMo Retriever, para aumentar la precisión de la recuperación y reducir la latencia de los flujos de trabajo de los agentes. Por ejemplo: Resuma muchos archivos PDF complejos y mantenga seguros los datos confidenciales  Con billones de archivos PDF (desde informes financieros hasta documentos de investigación técnica) generados cada año, mantenerse actualizado con la información es un desafío constante. El plan de IA para convertir PDF en podcast de NVIDIA ofrece una receta que los desarrolladores pueden usar para convertir varios PDF largos y complejos en lecturas generadas por IA que pueden ayudar a profesionales, estudiantes e investigadores a aprender de manera eficiente sobre prácticamente cualquier tema y comprender rápidamente los puntos clave. El modelo, creado sobre microservicios NIM y modelos de texto a voz, permite a los desarrolladores crear aplicaciones que extraen imágenes, tablas y texto de archivos PDF y convierten los datos en contenido de audio fácilmente digerible, todo ello manteniendo los datos seguros. Por ejemplo, los desarrolladores pueden crear agentes de IA que puedan comprender el contexto, identificar puntos clave y generar un resumen conciso como un monólogo o un podcast con estilo de conversación, narrado con una voz natural. Esto ofrece a los usuarios una forma atractiva y eficiente de absorber la información a la velocidad que deseen. Pruebe, cree prototipos y ejecute planos de inteligencia artificial de Agentic con un solo clic NVIDIA Blueprints permite a más de 25 millones de desarrolladores de software del mundo integrar fácilmente la IA en sus aplicaciones en diversas industrias. Estos planos simplifican el proceso de creación e implementación de aplicaciones de IA con agentes, lo que hace que la integración avanzada de IA sea más accesible que nunca. Con un solo clic, los desarrolladores ahora pueden crear y ejecutar los nuevos Blueprints de IA de Agentic como Launchables de NVIDIA . Estos Launchables brindan acceso a pedido a entornos de desarrolladores con configuraciones predefinidas, lo que permite una configuración rápida del flujo de trabajo. Al contener todos los componentes necesarios para el desarrollo, Launchables admite configuraciones consistentes y reproducibles sin necesidad de configuración manual ni gastos generales, lo que agiliza todo el proceso de desarrollo, desde la creación de prototipos hasta la implementación. Las empresas también pueden implementar planos en producción con la plataforma de software NVIDIA AI Enterprise en plataformas de centros de datos como Dell Technologies, Hewlett Packard Enterprise, Lenovo y Supermicro, o ejecutarlos en plataformas de nube aceleradas de Amazon Web Services, Google Cloud, Microsoft Azure y Oracle Cloud Infrastructure. Accenture y NVIDIA aceleran las implementaciones con AI Refinery para la industria Accenture presenta su nueva AI Refinery for Industry con 12 nuevas soluciones de agentes industriales creadas con el software NVIDIA AI Enterprise y disponibles a través de Accenture NVIDIA Business Group . Estas soluciones de agentes específicas para cada industria incluyen la gestión del crecimiento de los ingresos para bienes y servicios de

Leer más »

NVIDIA anuncia el proyecto Isaac GR00T para acelerar el desarrollo de la robótica humanoide

Los flujos de trabajo de Isaac GR00T para datos sintéticos y los modelos básicos del mundo NVIDIA Cosmos potencian el desarrollo de robots humanoides generales. Se espera que en las próximas dos décadas el mercado de robots humanoides alcance los 38.000 millones de dólares. Para satisfacer esta importante demanda, en particular en los sectores industrial y de fabricación, NVIDIA está lanzando una colección de modelos básicos de robots, canales de datos y marcos de simulación para acelerar los esfuerzos de desarrollo de robots humanoides de próxima generación . Anunciado por el fundador y CEO de NVIDIA, Jensen Huang, hoy en la feria comercial CES , el NVIDIA Isaac GR00T Blueprint para la generación de movimiento sintético ayuda a los desarrolladores a generar datos de movimiento sintético exponencialmente grandes para entrenar a sus humanoides mediante el aprendizaje por imitación. El aprendizaje por imitación (un subconjunto del aprendizaje robótico ) permite a los humanoides adquirir nuevas habilidades mediante la observación e imitación de demostraciones humanas expertas. Recopilar estos conjuntos de datos extensos y de alta calidad en el mundo real es una tarea tediosa, que requiere mucho tiempo y, a menudo, resulta prohibitivamente costosa. La implementación del modelo Isaac GR00T para la generación de movimiento sintético permite a los desarrolladores generar fácilmente conjuntos de datos sintéticos exponencialmente grandes a partir de una pequeña cantidad de demostraciones humanas. A partir del flujo de trabajo GR00T-Teleop, los usuarios pueden acceder a Apple Vision Pro para capturar acciones humanas en un gemelo digital . Estas acciones humanas son imitadas por un robot en una simulación y registradas para su uso como datos reales. A continuación, el flujo de trabajo GR00T-Mimic multiplica la demostración humana capturada en un conjunto de datos de movimiento sintético más grande. Por último, el flujo de trabajo GR00T-Gen, creado sobre las plataformas NVIDIA Omniverse y NVIDIA Cosmos , expande exponencialmente este conjunto de datos a través de la aleatorización de dominios y el escalado 3D. El conjunto de datos se puede utilizar luego como entrada para la política de robots, que enseña a los robots cómo moverse e interactuar con su entorno de manera efectiva y segura en NVIDIA Isaac Lab , un marco modular y de código abierto para el aprendizaje de robots. Los modelos de World Foundation reducen la brecha entre lo simulado y lo real  NVIDIA también anunció Cosmos en CES, una plataforma que incluye una familia de modelos de base mundial abiertos y entrenados previamente, diseñados específicamente para generar videos y estados mundiales que tienen en cuenta la física para el desarrollo de IA física . Incluye modelos autorregresivos y de difusión en una variedad de tamaños y formatos de datos de entrada. Los modelos se entrenaron en 18 cuatrillones de tokens, incluidas 2 millones de horas de conducción autónoma, robótica, imágenes de drones y datos sintéticos . Además de ayudar a generar grandes conjuntos de datos, Cosmos puede reducir la brecha entre simulación y realidad al escalar imágenes de 3D a reales. La combinación de Omniverse (una plataforma de desarrollo de interfaces de programación de aplicaciones y microservicios para crear aplicaciones y servicios 3D) con Cosmos es fundamental, porque ayuda a minimizar las posibles alucinaciones que suelen asociarse con los modelos del mundo al brindar salvaguardas cruciales a través de sus simulaciones físicamente precisas y altamente controlables. Un ecosistema en expansión  En conjunto, NVIDIA Isaac GR00T , Omniverse y Cosmos están ayudando a que la IA física y la innovación humanoide den un gran paso adelante. Las principales empresas de robótica han comenzado a adoptar Isaac GR00T y han demostrado resultados con él, incluidas Boston Dynamics y Figure. Los fabricantes de software, hardware y robots humanoides pueden solicitar acceso anticipado al programa para desarrolladores de robots humanoides de NVIDIA. Mire la conferencia inaugural del CES a cargo del fundador y director ejecutivo de NVIDIA, Jensen Huang, y manténgase actualizado suscribiéndose al boletín y siguiendo a NVIDIA Robotics en LinkedIn , Instagram , X y Facebook . Consulte el aviso sobre la información del producto de software. NVIDIA Blog. S. H. Traducido al español

Leer más »

Por qué los modelos de la Fundación Mundial serán clave para el avance de la IA física

En el panorama de rápida evolución de la IA, resulta cada vez más importante desarrollar modelos que puedan simular y predecir con precisión resultados en entornos físicos del mundo real para permitir la próxima generación de sistemas de IA físicos. Ming-Yu Liu, vicepresidente de investigación de NVIDIA y miembro del IEEE, participó en el podcast de IA de NVIDIA para hablar sobre la importancia de los modelos de base mundial (WFM, por sus siglas en inglés), redes neuronales potentes que pueden simular entornos físicos. Los WFM pueden generar videos detallados a partir de datos de entrada de texto o imagen y predecir cómo evoluciona una escena combinando su estado actual (imagen o video) con acciones (como indicaciones o señales de control). “Los modelos de base del mundo son importantes para los desarrolladores de IA física”, afirmó Liu. “Pueden imaginar muchos entornos diferentes y simular el futuro, por lo que podemos tomar buenas decisiones en función de esta simulación”.  Compartir En el panorama de rápida evolución de la IA, resulta cada vez más importante desarrollar modelos que puedan simular y predecir con precisión resultados en entornos físicos del mundo real para permitir la próxima generación de sistemas de IA físicos. Ming-Yu Liu, vicepresidente de investigación de NVIDIA y miembro del IEEE, participó en el podcast de IA de NVIDIA para hablar sobre la importancia de los modelos de base mundial (WFM, por sus siglas en inglés), redes neuronales potentes que pueden simular entornos físicos. Los WFM pueden generar videos detallados a partir de datos de entrada de texto o imagen y predecir cómo evoluciona una escena combinando su estado actual (imagen o video) con acciones (como indicaciones o señales de control). “Los modelos de base del mundo son importantes para los desarrolladores de IA física”, afirmó Liu. “Pueden imaginar muchos entornos diferentes y simular el futuro, por lo que podemos tomar buenas decisiones en función de esta simulación”. Esto es particularmente valioso para los sistemas de IA físicos , como robots y automóviles autónomos, que deben interactuar de forma segura y eficiente con el mundo real. El podcast de IA ·  Ming-Yu Liu de NVIDIA habla sobre cómo los modelos de base mundial impulsarán la IA física – Episodio 240 ¿Por qué son importantes los modelos de la Fundación Mundial? La creación de modelos del mundo suele requerir grandes cantidades de datos, cuya recopilación puede resultar difícil y costosa. Los modelos de mundo abierto pueden generar datos sintéticos , lo que proporciona un conjunto de datos rico y variado que mejora el proceso de entrenamiento. Además, entrenar y probar sistemas de IA físicos en el mundo real puede requerir muchos recursos. Los WFM ofrecen entornos virtuales en 3D donde los desarrolladores pueden simular y probar estos sistemas en un entorno controlado sin los riesgos y costos asociados con los ensayos en el mundo real. Acceso abierto a los modelos de la Fundación Mundial En la feria comercial CES, NVIDIA anunció NVIDIA Cosmos , una plataforma de WFM generativos que aceleran el desarrollo de sistemas de IA físicos como robots y automóviles autónomos. La plataforma está diseñada para ser abierta y accesible , e incluye WFMs previamente entrenados basados ​​en arquitecturas de difusión y autorregresivas, junto con tokenizadores que pueden comprimir videos en tokens para modelos de transformadores . Liu explicó que con estos modelos abiertos, las empresas y los desarrolladores tienen todos los ingredientes que necesitan para construir modelos a gran escala . La plataforma abierta también brinda a los equipos la flexibilidad de explorar varias opciones para entrenar y ajustar los modelos, o construir los suyos propios en función de las necesidades específicas. Mejorar los flujos de trabajo de IA en todos los sectores Se espera que los WFM mejoren los flujos de trabajo y el desarrollo de la IA en diversas industrias. Liu ve impactos particularmente significativos en dos áreas: “La industria de los automóviles autónomos y la industria de los robots humanoides se beneficiarán mucho del desarrollo de modelos mundiales”, afirmó Liu. “[Los WFM] pueden simular diferentes entornos que serían difíciles de tener en el mundo real, para asegurarse de que el agente se comporte de manera adecuada”. En el caso de los vehículos autónomos , estos modelos pueden simular entornos que permiten realizar pruebas y optimizarlos exhaustivamente. Por ejemplo, un vehículo autónomo puede probarse en diversas condiciones climáticas y escenarios de tráfico simulados para garantizar su funcionamiento seguro y eficiente antes de su despliegue en las carreteras. En robótica , los WFM pueden simular y verificar el comportamiento de los sistemas robóticos en diferentes entornos para asegurarse de que realizan tareas de manera segura y eficiente antes de su implementación. NVIDIA está colaborando con empresas como 1X, Huobi y XPENG para ayudar a abordar los desafíos en el desarrollo de IA física y mejorar sus sistemas. “Todavía estamos en las primeras etapas del desarrollo de modelos de base mundial: son útiles, pero tenemos que hacerlos más útiles”, dijo Liu. “También tenemos que estudiar cómo integrar mejor estos modelos mundiales en los sistemas físicos de IA de una manera que realmente pueda beneficiarlos”. Escuche el podcast con Ming-Yu Liu o lea la transcripción . Obtenga más información sobre NVIDIA Cosmos y los últimos anuncios en inteligencia artificial generativa y robótica viendo la conferencia inaugural del CES a cargo del fundador y director ejecutivo de NVIDIA, Jensen Huang , y participando en las sesiones de NVIDIA en la feria . NVIDIA Blog. Traducido al español

Leer más »

Más allá del hogar: Samsung expande la inteligencia artificial hacia un mundo más inteligente

La sección AI Residence presentó soluciones basadas en IA diseñadas para mejorar la gestión de espacios comunitarios y residenciales. En el CES 2025 de Las Vegas, Samsung dio vida a su visión de un futuro en el que la tecnología inteligente se expande más allá del hogar, transformando industrias y enriqueciendo las experiencias diarias. A través de SmartThings Pro, SmartThings for Cars y SmartThings for Ships, la empresa destacó el potencial transformador de la IA en diversas áreas. Samsung Newsroom analizó en profundidad las últimas soluciones de inteligencia artificial de la empresa que impulsan los negocios, la movilidad y mucho más. ▲ El espacio expositivo mostró tecnologías inteligentes que se extienden más allá del hogar. Ventajas de SmartThings: Reimaginando espacios inteligentes con IA ▲ La zona SmartThings Pro La zona SmartThings Pro exhibió las soluciones AI B2B de Samsung diseñadas para mejorar diversos entornos, incluidos hoteles, oficinas y edificios residenciales y comerciales. Los aspectos más destacados incluyeron soluciones impulsadas por IA que optimizan los espacios para lograr eficiencia operativa y servicios personalizados para los residentes de la comunidad. AI Residence: Promoviendo soluciones preparadas para el futuro en espacios comunitarios ▲ La sección AI Residence La sección AI Residence presentó soluciones basadas en IA diseñadas para mejorar la gestión de espacios comunitarios y residenciales. Los visitantes experimentaron de primera mano la selección de sistemas integrados de la compañía que monitorean la salud de los residentes, administran el uso de energía y brindan actualizaciones de seguridad en tiempo real. Las demostraciones interactivas también destacaron cómo las tecnologías inteligentes están mejorando la gestión de los espacios públicos y privados. AI Store: Transformando el comercio minorista con soluciones más inteligentes ▲ La sección AI Store La sección AI Store presentó las últimas tecnologías minoristas de la compañía diseñadas para transformar las operaciones de múltiples tiendas comerciales. A través de la plataforma Visual eXperience Transformation (VXT) de Samsung y Samsung Knox, los visitantes exploraron cómo se optimizan los flujos de trabajo minoristas mediante funciones como la gestión de inventario en tiempo real y actualizaciones automatizadas de precios de productos. AI Office: Equilibrar la productividad y la sostenibilidad ▲ La sección AI Office La sección AI Office mostró el futuro de los lugares de trabajo impulsados por tecnologías inteligentes para maximizar la productividad y la eficiencia. Los visitantes tuvieron la oportunidad de probar soluciones de reconocimiento facial para la identificación de empleados y dispositivos conectados a SmartThings que ajustan automáticamente los entornos de las salas de reuniones. AI Stay: Ofreciendo espacios de alojamiento personalizados ▲ La sección AI Stay La sección AI Stay mostró las soluciones hoteleras inteligentes del futuro. Las características incluían check-in a través de smartphones, configuraciones personalizadas y modo “Buenas Noches”, creando un ambiente cómodo y hogareño incluso mientras se viaja. SmartThings for Cars: Uniendo el hogar y el automóvil con conectividad inteligente ▲ La zona SmartThings for Cars En la zona SmartThings for Cars, los visitantes conocieron nuevas posibilidades en movilidad, con tecnologías que conectan vehículos y hogares a través de la aplicación SmartThings. Soluciones como la optimización energética, la carga eficiente de vehículos eléctricos y los controles remotos de vehículos optimizan la comodidad y acercan los hogares y los automóviles. SmartThings Energy: Promoviendo una nueva era de soluciones energéticas sostenibles ▲ La sección SmartThings Energy La sección SmartThings Energy presentó tecnologías de vida sustentable que incluyen integración de paneles solares, fuentes de alimentación de emergencia basadas en vehículos eléctricos y vista de mapas 3D para monitoreo de energía en tiempo real. Los visitantes aprendieron cómo los paneles solares y los vehículos eléctricos pueden trabajar juntos para generar energía autosuficiente, con baterías de vehículos eléctricos sirviendo como energía de respaldo durante los cortes. También vieron de primera mano cómo la vista de un mapa 3D (3D Map View) ofrece una descripción general completa del consumo de energía del hogar y exploraron los modos de ahorro de energía impulsados por IA que optimizan el uso de la batería de respaldo. ▲ Erick “Alexander” Vargas interactúa con las pantallas interactivas en la zona SmartThings for Cars. “Como alguien activo en las redes sociales, quiero difundir que Samsung SmartThings ofrece soluciones prácticas para el ahorro de energía y la conectividad”, dijo Erick “Alexander” Vargas, un asistente de México. “Estoy entusiasmado por compartir con mis seguidores cómo Samsung está marcando la pauta con sus tecnologías de IA”. SmartThings Find: Ofreciendo un seguimiento sencillo de la ubicación de los vehículos estacionados ▲ SmartThings Find ayuda a los usuarios a localizar sus autos estacionados, incluso en estacionamientos concurridos. SmartThings Find se destacó por su aplicación altamente práctica y conveniencia cotidiana, permitiendo a los usuarios localizar sin esfuerzo sus vehículos en estacionamientos extensos con sus dispositivos Galaxy. Otros aspectos destacados de esta parte de la exposición incluyeron funciones habilitadas para SmartThings, como el control remoto del vehículo, que puede ajustar el clima, así como bloquear y desbloquear puertas. SmartThings for Ships: Aprovechar la tecnología inteligente en el mar ▲ La zona SmartThings for Ships La zona SmartThings for Ships demostró cómo la tecnología inteligente está revolucionando los buques marinos, introduciendo tecnologías vanguardistas como sistemas de navegación autónomos como SHIFT-AUTO y soluciones inteligentes integradas que maximizan la eficiencia operativa y la seguridad en entornos marítimos. ▲ (De arriba a abajo) Los visitantes pudieron pilotear virtualmente un barco inteligente en un espacio de experiencia interactiva en la zona SmartThings for Ships; Reshmee Semmen asumió el papel de capitán, navegando por la simulación del barco inteligente. Los visitantes del stand de Samsung tuvieron la oportunidad de explorar estos avances a través de una simulación inmersiva. Esta experiencia práctica incluyó el monitoreo de sistemas de embarcaciones, el establecimiento de rutas de viaje y el control de sistemas a bordo. “La simulación interactiva de Smart Ship fue increíblemente impresionante”, dijo Reshmee Semmen, un asistente de Sudáfrica que expresó su entusiasmo por el prometedor potencial de Samsung en IA. “Estoy entusiasmado por ver cómo Samsung, con su larga trayectoria, seguirá expandiendo la IA a tantos campos”. ▲ El espacio de la zona SmartThings for

Leer más »

La red celular de Nokia está lista para la Luna mientras Intuitive Machines completa la instalación final del módulo de aterrizaje lunar

Nokia e Intuitive Machines pretenden implementar la primera red celular en la Luna. 7 de enero de 2025Murray Hill, Nueva Jersey – Nokia e Intuitive Machines, Inc. anunciaron hoy la integración final exitosa del Sistema de comunicación de la superficie lunar (“LSCS”) de Nokia en el módulo de aterrizaje de la misión IM-2, llamado Athena. Athena y el LSCS viajarán a la región del polo sur lunar en la próxima misión IM-2, donde Nokia e Intuitive Machines pretenden implementar la primera red celular en la Luna. Después de meses de pruebas y validación con Nokia Bell Labs, los ingenieros de Intuitive Machines instalaron la “red en una caja” LSCS en uno de los paneles superiores de compuestos de carbono de Athena. Se tomaron múltiples precauciones durante la instalación para ayudar a garantizar que la red realice de manera segura el viaje de 239,000 millas hasta la Luna, sobreviva a las tensiones del despegue y el aterrizaje y funcione de manera óptima en la superficie lunar. Cada uno de los 14 puntos de montaje está aislado térmicamente para mantener la red aislada de las temperaturas extremadamente bajas del espacio profundo. Intuitive Machines también integró la red en el Sistema de Protección Térmica de Athena. Este sistema expulsará calor cuando la red esté en funcionamiento y suministrará calor para protegerla cuando esté inactiva. Dos módulos de dispositivos forman parte del sistema LSCS de Nokia y se han instalado en dos vehículos de movilidad lunar: el Micro-Nova Hopper de Intuitive Machines y el rover Mobile Autonomous Prospecting Platform (MAPP) de Lunar Outpost. Al aterrizar en la Luna, los dos vehículos están diseñados para desplegarse en la superficie lunar, donde utilizarían inmediatamente los módulos de dispositivos de Nokia para establecer conexiones con la red de Athena. El LSCS utiliza la misma tecnología celular 4G/LTE que utilizan miles de millones de dispositivos en la Tierra, aunque Nokia Bell Labs reconceptualizó el sistema para satisfacer los requisitos únicos de una misión lunar. La red está diseñada para manejar la conectividad de superficie entre el módulo de aterrizaje y los vehículos, y transportar transmisión de video de alta definición, comunicaciones de comando y control y datos de telemetría. Intuitive Machines espera retransmitir datos desde el LSCS a la Tierra utilizando su servicio de transmisión de datos directo a la Tierra. Thierry E. Klein, presidente de Bell Labs Solutions Research en Nokia, afirmó: “Nuestra intención es demostrar que las tecnologías celulares pueden proporcionar la conectividad confiable, de alta capacidad y eficiente que se necesita para futuras misiones tripuladas y no tripuladas a la Luna y, eventualmente, a Marte. La tecnología celular ha transformado irrevocablemente la forma en que nos comunicamos en la Tierra. No hay razón para que no pueda hacer lo mismo con las comunicaciones en otros mundos”. Nokia Bell Labs desarrolló el LSCS e Intuitive Machines creó el Micro-Nova Hopper en asociación con la Dirección de Misiones de Tecnología Espacial de la NASA a través de su iniciativa Tipping Point, que financia tecnologías espaciales desarrolladas por la industria que pueden fomentar el desarrollo de capacidades espaciales comerciales y beneficiar a futuras misiones de la NASA. Uno de los objetivos de la segunda misión lunar de Intuitive Machines será utilizar el Micro-Nova Hopper y el LSCS para probar nuevos instrumentos sensores que podrían ayudar a identificar y mapear recursos preciosos en la Luna, como el hielo de agua. El Micro-Nova Hopper, llamado Grace, está diseñado para descender en cráteres lunares permanentemente sombreados. Allí puede utilizar estos nuevos sensores para escanear en busca de grandes concentraciones de hidrógeno, que son indicativas de depósitos de hielo. Todos los datos recopilados por el Micro-Nova se transmitirían a través de la red de Nokia a Athena, desde donde se retransmitirían de vuelta a la Tierra. El rover Mobile Autonomous Prospecting Platform (MAPP) fue desarrollado por Lunar Outpost. Una vez en la superficie lunar, el rover MAPP saldrá de un recinto protector en Athena, extenderá sus antenas y establecerá una conexión con la red celular de Nokia en Athena. El rover MAPP comenzará entonces un viaje de varios días explorando la región del polo sur de la Luna, cartografiando la superficie lunar mientras recopila imágenes estereoscópicas y datos ambientales vitales a lo largo del camino. Steve Altemus, director ejecutivo de Intuitive Machines, afirmó: “Creemos que la implementación del sistema 4G/LTE de Nokia en la superficie lunar es un momento transformador en la comercialización del espacio y la madurez de la economía lunar. Estamos tomando medidas bien pensadas para lograr la sostenibilidad. Ya sea que Nokia conecte los activos de la superficie o la capacidad de Intuitive Machines de transmitir esos datos a la Tierra y establecer satélites de retransmisión de datos lunares, estas innovaciones son capacidades fundamentales que creemos que definirán la generación Artemis, y fueron iniciadas por el liderazgo de la NASA”. El lanzamiento del módulo de aterrizaje Athena de Intuitive Machines está previsto no antes de finales de febrero desde el Centro Espacial Kennedy de la NASA. Recursos e información adicionalPágina web: La primera red celular en la Luna – Nokia Bell LabsPágina web: Intuitive MachinesPágina web: Lunar Outpost NOKIA News. Traducido al español

Leer más »
Scroll al inicio