Los nuevos microservicios NIM y los planos de IA desbloquean la IA generativa en las PC y estaciones de trabajo con IA RTX, además de más anuncios del CES recapitulativos en esta primera entrega de la serie RTX AI Garage.
Durante el último año, la IA generativa ha transformado la forma en que las personas viven, trabajan y juegan, mejorando todo, desde la escritura y la creación de contenido hasta los juegos, el aprendizaje y la productividad. Los entusiastas de las PC y los desarrolladores están liderando la iniciativa para ampliar los límites de esta tecnología revolucionaria.
En innumerables ocasiones, los avances tecnológicos que definen la industria se han inventado en un solo lugar: un garaje. Esta semana comienza la serie RTX AI Garage , que ofrecerá contenido de rutina para desarrolladores y entusiastas que buscan aprender más sobre los microservicios NVIDIA NIM y los planos de IA, y cómo crear agentes de IA, flujos de trabajo creativos, humanos digitales, aplicaciones de productividad y más en PC con IA. Bienvenido a RTX AI Garage .
Esta primera entrega destaca los anuncios realizados a principios de esta semana en el CES , incluidos los nuevos modelos de base de IA disponibles en las PC NVIDIA RTX AI que llevan a los humanos digitales, la creación de contenido, la productividad y el desarrollo al siguiente nivel.
Estos modelos, que se ofrecen como microservicios NVIDIA NIM , están potenciados por las nuevas GPU GeForce RTX Serie 50. Basadas en la arquitectura NVIDIA Blackwell, las GPU RTX Serie 50 ofrecen hasta 3352 billones de operaciones de IA por segundo de rendimiento, 32 GB de VRAM y cuentan con cómputo FP4, lo que duplica el rendimiento de inferencia de IA y permite que la IA generativa se ejecute localmente con un espacio de memoria más pequeño.
NVIDIA también presentó NVIDIA AI Blueprints : flujos de trabajo preconfigurados y listos para usar, creados sobre microservicios NIM, para aplicaciones como humanos digitales y creación de contenido.
Los microservicios NIM y los planos de IA permiten a los entusiastas y desarrolladores crear, iterar y ofrecer experiencias impulsadas por IA para PC más rápido que nunca. El resultado es una nueva ola de capacidades atractivas y prácticas para los usuarios de PC.
Acelere la IA con NVIDIA NIM
Existen dos desafíos clave para llevar los avances de la IA a las PC. En primer lugar, el ritmo de la investigación en IA es vertiginoso, ya que aparecen nuevos modelos a diario en plataformas como Hugging Face, que ahora alberga más de un millón de modelos. Como resultado, los avances rápidamente quedan obsoletos.
En segundo lugar, adaptar estos modelos para su uso en PC es un proceso complejo que consume muchos recursos. Optimizarlos para el hardware de PC, integrarlos con software de IA y conectarlos a aplicaciones requiere un importante esfuerzo de ingeniería.
NVIDIA NIM ayuda a abordar estos desafíos al ofrecer modelos de IA de última generación preempaquetados y optimizados para PC. Estos microservicios NIM abarcan dominios de modelos, se pueden instalar con un solo clic, cuentan con interfaces de programación de aplicaciones (API) para una fácil integración y aprovechan el software de IA de NVIDIA y las GPU RTX para un rendimiento acelerado.
En el CES, NVIDIA anunció una línea de microservicios NIM para PC con inteligencia artificial RTX, que respalda casos de uso que abarcan modelos de lenguaje grandes (LLM), modelos de lenguaje y visión, generación de imágenes, voz, generación aumentada por recuperación (RAG), extracción de PDF y visión artificial.
La nueva familia de modelos abiertos Llama Nemotron ofrece una gran precisión en una amplia gama de tareas de agentes. El modelo Llama Nemotron Nano, que se ofrecerá como un microservicio NIM para PC y estaciones de trabajo con IA RTX, se destaca en tareas de IA de agentes como seguimiento de instrucciones, llamadas de funciones, chat, codificación y matemáticas.
Pronto, los desarrolladores podrán descargar y ejecutar rápidamente estos microservicios en PC con Windows 11 utilizando el Subsistema de Windows para Linux (WSL).
Para demostrar cómo los entusiastas y desarrolladores pueden usar NIM para crear agentes y asistentes de IA, NVIDIA presentó una vista previa de Project R2X, un avatar para PC con visión habilitada que puede poner información al alcance de la mano del usuario, ayudar con aplicaciones de escritorio y videoconferencias, leer y resumir documentos, y más. Regístrese para recibir actualizaciones de Project R2X.
Al utilizar microservicios NIM, los entusiastas de la IA pueden evitar las complejidades de la curación de modelos, la optimización y la integración del backend y centrarse en crear e innovar con modelos de IA de vanguardia.
¿Qué hay en una API?
Una API es la forma en que una aplicación se comunica con una biblioteca de software. Una API define un conjunto de “llamadas” que la aplicación puede hacer a la biblioteca y lo que la aplicación puede esperar a cambio. Las API de IA tradicionales requieren mucha configuración, lo que dificulta el uso de las capacidades de IA y obstaculiza la innovación.
Los microservicios NIM exponen API intuitivas y fáciles de usar a las que una aplicación puede enviar solicitudes y obtener una respuesta. Además, están diseñados en torno a los medios de entrada y salida para diferentes tipos de modelos. Por ejemplo, los LLM toman texto como entrada y producen texto como salida, los generadores de imágenes convierten texto en imagen, los reconocedores de voz convierten voz en texto, etc.
Los microservicios están diseñados para integrarse sin problemas con los principales marcos de desarrollo y agentes de IA, como AI Toolkit para VSCode, AnythingLLM, ComfyUI, Flowise AI, LangChain, Langflow y LM Studio. Los desarrolladores pueden descargarlos e implementarlos fácilmente desde build.nvidia.com .
Al incorporar estas API a RTX, NVIDIA NIM acelerará la innovación de la IA en las PC.
Se espera que los entusiastas puedan experimentar una variedad de microservicios NIM utilizando una próxima versión de la demostración tecnológica NVIDIA ChatRTX .
Un plan para la innovación
Mediante el uso de modelos de última generación, preempaquetados y optimizados para PC, los desarrolladores y entusiastas pueden crear rápidamente proyectos impulsados por IA. Yendo un paso más allá, pueden combinar múltiples modelos de IA y otras funciones para crear aplicaciones complejas, como humanos digitales, generadores de podcasts y asistentes de aplicaciones.
NVIDIA AI Blueprints, desarrollado sobre microservicios NIM, son implementaciones de referencia para flujos de trabajo de IA complejos. Ayudan a los desarrolladores a conectar varios componentes, incluidas bibliotecas, kits de desarrollo de software y modelos de IA, en una sola aplicación.
Los planos de IA incluyen todo lo que un desarrollador necesita para crear, ejecutar, personalizar y ampliar el flujo de trabajo de referencia, que incluye la aplicación de referencia y el código fuente, datos de muestra y documentación para la personalización y orquestación de los diferentes componentes.
En el CES, NVIDIA anunció dos AI Blueprints para RTX: uno para PDF a podcast, que permite a los usuarios generar un podcast a partir de cualquier PDF, y otro para IA generativa guiada en 3D, que se basa en FLUX.1 [dev] y se espera que se ofrezca como un microservicio NIM, que ofrece a los artistas un mayor control sobre la generación de imágenes basada en texto.
Con AI Blueprints, los desarrolladores pueden pasar rápidamente de la experimentación con IA al desarrollo de IA para flujos de trabajo de vanguardia en PC y estaciones de trabajo RTX.
Creado para IA generativa
Las nuevas GPU GeForce RTX Serie 50 están diseñadas específicamente para abordar desafíos complejos de IA generativa, con núcleos Tensor de quinta generación con soporte FP4, memoria G7 más rápida y un procesador de gestión de IA para realizar múltiples tareas de manera eficiente entre IA y flujos de trabajo creativos.
La serie GeForce RTX 50 incorpora compatibilidad con FP4 para ofrecer un mejor rendimiento y más modelos a las PC. FP4 es un método de cuantificación más bajo, similar a la compresión de archivos, que reduce el tamaño de los modelos. En comparación con FP16 (el método predeterminado que presentan la mayoría de los modelos), FP4 utiliza menos de la mitad de la memoria y las GPU de la serie 50 ofrecen un rendimiento más del doble en comparación con la generación anterior. Esto se puede hacer prácticamente sin pérdida de calidad con los métodos de cuantificación avanzados que ofrece NVIDIA TensorRT Model Optimizer .
Por ejemplo, el modelo FLUX.1 [dev] de Black Forest Labs en FP16 requiere más de 23 GB de VRAM, lo que significa que solo puede ser compatible con la GeForce RTX 4090 y las GPU profesionales. Con FP4, FLUX.1 [dev] requiere menos de 10 GB, por lo que puede ejecutarse localmente en más GPU GeForce RTX.
Con una GeForce RTX 4090 con FP16, el modelo FLUX.1 [dev] puede generar imágenes en 15 segundos con 30 pasos. Con una GeForce RTX 5090 con FP4, las imágenes se pueden generar en poco más de cinco segundos.
Comience a utilizar las nuevas API de IA para PC
Se espera que los microservicios NVIDIA NIM y los AI Blueprints estén disponibles a partir del próximo mes, con soporte de hardware inicial para las GPU profesionales GeForce RTX serie 50, GeForce RTX 4090 y 4080, y NVIDIA RTX 6000 y 5000. En el futuro, se admitirán GPU adicionales.
Se espera que las PC RTX AI preparadas para NIM estén disponibles en Acer, ASUS, Dell, GIGABYTE, HP, Lenovo, MSI, Razer y Samsung, y en los fabricantes de sistemas locales Corsair, Falcon Northwest, LDLC, Maingear, Mifcon, Origin PC, PCS y Scan.
Las GPU y las laptops GeForce RTX Serie 50 ofrecen un rendimiento revolucionario, potencian experiencias de IA transformadoras y permiten a los creadores completar flujos de trabajo en tiempo récord. Vuelve a ver la presentación del CEO de NVIDIA, Jensen Huang , para obtener más información sobre las novedades de IA de NVIDIA presentadas en CES.
Consulte el aviso sobre la información del producto de software. NVIDIA Blog.