A pesar de sus capacidades avanzadas, los modelos básicos tienen limitaciones cuando se trata de conocimientos especializados en dominios específicos, como las finanzas o la atención médica, o cuando se trata de captar matices culturales y lingüísticos más allá del inglés.
En los últimos años, los modelos de lenguaje extensos (LLM) han logrado avances extraordinarios en áreas como el razonamiento, la generación de código, la traducción automática y la síntesis. Sin embargo, a pesar de sus capacidades avanzadas, los modelos básicos tienen limitaciones cuando se trata de conocimientos especializados en dominios específicos, como las finanzas o la atención médica, o cuando se trata de captar matices culturales y lingüísticos más allá del inglés.
Se pueden superar esas limitaciones con un mayor desarrollo mediante el uso de preentrenamiento continuo (CPT), ajuste fino de instrucciones y generación aumentada por recuperación (RAG). Esto requiere conjuntos de datos específicos del dominio y de alta calidad, una plataforma de IA robusta (pila de software y hardware) y experiencia avanzada en IA.
iGenio
iGenius es una empresa tecnológica italiana especializada en inteligencia artificial para empresas que operan en sectores altamente regulados, como los servicios financieros y la administración pública. iGenius opera entre Europa y Estados Unidos para poner la IA al servicio de las personas y las empresas. Fue fundada en 2016 con la misión de humanizar los datos y democratizar el conocimiento empresarial.
IGenius, un socio de NVIDIA Inception , tenía como objetivo desarrollar un LLM básico de última generación en un plazo ajustado, pero enfrentó desafíos para acceder a clústeres de GPU a gran escala (miles de GPU) y asegurar el soporte para marcos de entrenamiento altamente escalables. Durante este compromiso, iGenius desarrolló el Colosseum 355B LLM , diseñado y desarrollado para entornos altamente regulados, que brinda a las empresas confianza en la precisión del resultado del modelo y la seguridad, sabiendo que ninguna de sus informaciones o IP se ve comprometida.
NVIDIA DGX Cloud permite a los clientes acceder a grandes clústeres diseñados para el entrenamiento de IA de alto rendimiento con software de nivel empresarial y la experiencia en IA de NVIDIA. Como resultado, iGenius decidió colaborar con NVIDIA para acelerar el desarrollo de LLM para Colosseum 355B.
En menos de una semana, iGenius tuvo acceso a una infraestructura a gran escala dedicada y optimizada para cargas de trabajo de IA con más de 3000 GPU y, en dos meses, iGenius había completado el preentrenamiento continuo para su LLM más grande, Colosseum 355B. El trabajo incluyó lo siguiente:
- Aumentar el número de parámetros
- Aumentar la longitud del contexto
- Lograr el CPT en el FP8
- Alineación de las capacidades del modelo para la experiencia específica del dominio
Capacidades del Coliseo 355B
Como caso de uso clave en el contexto de la IA de agente , iGenius desarrolla LLM para impulsar su agente de inteligencia empresarial, Crystal , una solución de IA soberana. Al crear una pila de extremo a extremo, iGenius proporciona una experiencia segura sin depender de modelos centralizados:
- Integración de bases de datos
- Configuración asistida por IA
- Orquestación impulsada por LLM para uso de herramientas, ejecución de consultas y generación
- Infraestructura de implementación privada
Este enfoque permite que Crystal funcione como un sistema operativo de IA aislado, que utiliza un orquestador para gestionar tareas de manera eficaz e integrar herramientas especializadas. Al utilizar sus propios LLM básicos, iGenius garantiza un mayor control sobre la privacidad, la personalización y el rendimiento de los datos, adaptando la IA para satisfacer necesidades comerciales específicas en entornos altamente regulados.
Entorno de nube DGX
Para mejorar las capacidades de razonamiento de LLM se necesita una solución de hardware y software distribuida y robusta, en la que la computación acelerada, la red, el almacenamiento y las bibliotecas deben funcionar en conjunto sin problemas. Cualquier cuello de botella en el sistema puede ralentizar significativamente o incluso detener todo el proceso de entrenamiento.
La construcción de una infraestructura de entrenamiento de IA de alto rendimiento para el Coliseo 355B requiere una importante experiencia técnica y demanda tiempo para la puesta en marcha, la configuración y la validación del sistema.
NVIDIA DGX SuperPOD elimina el riesgo y la complejidad de esto al proporcionar una solución totalmente optimizada que está diseñada, construida y validada por NVIDIA antes de entregar un sistema listo para usar a sus clientes.
Sin embargo, para los clientes que requieren acceso inmediato a una infraestructura optimizada para IA, NVIDIA DGX Cloud hace que este tipo de entorno sea accesible dentro de los entornos de los principales socios proveedores de servicios en la nube (CSP) de NVIDIA. La estrecha colaboración con socios CSP como Microsoft Azure, Google Cloud Platform (GCP), OCI y AWS permite a NVIDIA construir grandes bloques contiguos de infraestructura centrada en IA, totalmente probada y validada para la suite de software NVIDIA AI Enterprise. Esta estrecha colaboración permite a los clientes comenzar de inmediato con la capacitación a gran escala en un clúster grande.
Por último, los compromisos de DGX Cloud incluyen el acceso a la experiencia en inteligencia artificial de NVIDIA, que acelera el tiempo de ejecución de las primeras pruebas de entrenamiento y facilita la resolución de cualquier bloqueo de software o hardware. Durante el proyecto iGenius, establecieron varios flujos de trabajo desde la preparación de datos, el entrenamiento LLM y la alineación hasta la validación de modelos y la optimización de inferencias.
Una semana después de registrarse en NVIDIA DGX Cloud, iGenius tuvo acceso privado a un entorno con más de 3000 GPU NVIDIA H100, todas con los siguientes recursos:
- Una red dedicada, de alto ancho de banda y basada en RDMA para facilitar las comunicaciones de entrenamiento del modelo para Colosseum 355B
- 500 TB de almacenamiento de alto rendimiento basado en Lustre
- Acceso a los últimos contenedores de NVIDIA NeMo Framework
Aspectos destacados del conjunto de datos de iGenius
En el contexto de CPT, es esencial preservar una parte sustancial del conjunto de datos de entrenamiento original para mitigar cambios distributivos significativos en los datos, que podrían provocar inestabilidades de entrenamiento o exacerbar problemas como el olvido catastrófico.
Dado que los conjuntos de datos de entrenamiento para LLM se componen predominantemente de documentos web y repositorios de código abierto como ArXiv, PubMed Central, GitHub y fuentes similares, iGenius optó por construir un conjunto de datos CPT que preserva una distribución comparable de codificación y tokens multilingües, asegurando la coherencia con la composición del conjunto de datos original.
Las capacidades multilingües del modelo se extienden a más de 50 idiomas, con especial énfasis en idiomas europeos como italiano, alemán, francés, español, portugués, ruso, rumano y polaco. El conjunto de datos de entrenamiento también incluye una sólida representación de idiomas no europeos, como japonés, chino, árabe, vietnamita y coreano.
Colosseum 355B incorpora fuentes especializadas de dominios como las finanzas y el razonamiento, aprovechando conjuntos de datos específicos del dominio de alta calidad para mejorar su desempeño en estas áreas.
En total, el conjunto de datos CPT consta de una extensa colección de aproximadamente 2,5T de tokens, lo que da como resultado un total de 10T considerando 8T de la base.
Por el contrario, el conjunto de datos utilizado para el ajuste fino supervisado (SFT) consta de aproximadamente 1 millón de muestras seleccionadas para alinearse con tareas y objetivos posteriores específicos, como resolución de problemas, recuerdo de hechos, razonamiento analítico y preguntas de codificación.
LLM continuó pre-entrenamiento
Mejorar un modelo de lenguaje grande y de última generación como Colosseum 355B no es una tarea fácil, en particular cuando se trabaja con un modelo que comprende cientos de miles de millones de parámetros.
Las mejoras, como la incorporación de nuevos conocimientos, un mejor razonamiento e incluso la ampliación del tamaño general del modelo, requieren cambios en cada uno de los parámetros del modelo actual. Tomar un modelo ya establecido y mejorarlo hasta este punto se denomina preentrenamiento continuo . A esta escala, es una tarea que probablemente solo los constructores de modelos competentes emprendan.
iGenius adoptó NVIDIA NeMo Framework y aprovechó sus últimas técnicas de entrenamiento y optimización. NeMo Framework expone hiperparámetros específicos del modelo y de entrenamiento a través de un simple archivo de configuración YAML.
El proceso de entrenamiento eficiente del Colosseum 355B consistió en una exploración experimental para encontrar la mejor configuración de entrenamiento. La métrica de utilización de FLOP/s del modelo (MFU) cuantifica la eficiencia con la que se utilizan las GPU durante el entrenamiento, lo que afecta el tiempo total de entrenamiento. MFU fue una métrica clave que iGenius se centró en mejorar.
El equipo de iGenius comenzó con un modelo de base de última generación con una longitud de contexto de 4K y su configuración de entrenamiento predeterminada, y trabajó en la optimización de la configuración de entrenamiento para lograr el mejor valor de MFU. Esta configuración originalmente distribuía el modelo entre 12 nodos (96 GPU H100) y logró un MFU del 25 % en BF16.
La primera fase del preentrenamiento se centró en identificar los parámetros de entrenamiento óptimos para mejorar la MFU. Lo lograron a través de varios experimentos que incluían sesiones de entrenamiento de corta duración para explorar el impacto de cada configuración en la duración del entrenamiento.
Algunos de los experimentos clave consistieron en reducir la distribución del modelo a su número mínimo de nodos, lo que permitió a iGenius maximizar el cálculo por GPU. En concreto, el paralelismo de la canalización se redujo de 12 a 8, lo que dio lugar a una distribución del modelo en 8 nodos (64 GPU). Además, algunas configuraciones de superposición de comunicación de NeMo fueron cruciales para acelerar el entrenamiento general. Para obtener más información, consulte Superposición de comunicación en la Guía del usuario de NVIDIA NeMo Framework .
El siguiente código muestra los parámetros clave de CPT:
Global Batch Size : 2880 Micro Batch Size : 1 Context Parallel Size : 1 Tensor Parallelism : 8 Pipeline Parallelism : 8 Virtual Pipeline Parallelism : 12 Learning rate : [ 1e-5 , 5e-6 ] Sequence length : 4096 Checkpoint format : torch_dist precision: bf16 # communication configurations defer_embedding_wgrad_compute: True wgrad_deferral_limit: 22 cross_entropy_loss_fusion: True enable_vboost: True overlap_p2p_comm: True batch_p2p_comm: False ub_tp_comm_overlap: True apply_rope_fusion: True deterministic_mode: False |
Con estos parámetros y la distribución del modelo, iGenius logró un MFU del 40%, una mejora significativa con respecto al 25% inicial. Esta marcada mejora tiene una implicación financiera directa, ya que le permite a iGenius completar más trabajo en menos tiempo. Esto resalta la importancia de explorar los hiperparámetros antes de iniciar una capacitación LLM a gran escala.
La segunda fase de preentrenamiento se centró en ampliar el modelo fundamental a un tamaño de 355B de parámetros añadiendo varias capas y aumentando la longitud del contexto de 4K a 16K.
Después de varios experimentos de hiperparámetros que entrenaron el modelo extendido, la MFU lograda cayó del 40% al 33% debido a la longitud de secuencia aumentada y las capas adicionales para Colosseum 355B.
A medida que aumentó el tamaño del modelo, la mejor distribución del modelo consistió en aumentar el tamaño paralelo del contexto de 1 a 4 y el paralelismo de la canalización de 8 a 10. Para obtener más información, consulte Paralelismo de contexto en la Guía del usuario de NVIDIA NeMo Framework .
Esta configuración dio como resultado un tamaño de datos en paralelo (DP) de 9 en 360 nodos (2880 GPU H100). El siguiente código muestra los parámetros CPT clave de Colosseum 355B en BF16:
Global Batch Size : 1260 Micro Batch Size : 1 Context Parallel Size : 4 Tensor Parallelism : 8 Pipeline Parallelism : 10 Virtual Pipeline Parallelism : 10 Validation check interval : 100 Learning rate : [ 1e-5 , 5e-6 ] Sequence length : 16384 Checkpoint format : torch_dist precision: bf16 |
La arquitectura NVIDIA Hopper , que es la base de la GPU NVIDIA H100 , incluye aceleración de hardware para operaciones de punto flotante de 8 bits (FP8). iGenius utilizó FP8 en su tercera fase de preentrenamiento para acelerar el entrenamiento y reducir la huella de memoria del modelo.
NeMo Framework integra el entrenamiento FP8 de manera inmediata con la biblioteca Transformer Engine . Para habilitar FP8, se pueden agregar los siguientes parámetros al archivo de configuración de entrenamiento:
transformer_engine: True fp8: True fp8_params: True fp8_e4m3: False fp8_hybrid: True fp8_margin: 0 fp8_interval: 1 fp8_amax_history_len: 1024 fp8_amax_compute_algo: max fp8_wgrad: True ub_tp_comm_overlap: False |
iGenius continuó con éxito el preentrenamiento en FP8, lo que dio como resultado un aumento de MFU del 33 % con BF16 al 37 % con FP8. Además, el paso de entrenamiento general se aceleró 1,15 veces con FP8. Esta aceleración se obtuvo simplemente habilitando FP8 y se puede aumentar si se tiene en cuenta el ahorro de memoria de FP8. Al ajustar los paralelismos y el tamaño de microlote, se puede optimizar mejor la memoria disponible de FP8, lo que da como resultado mayores aceleraciones.
Cambiar la representación del modelo de BF16 a FP8 durante el CPT requiere una consideración cuidadosa para evitar la divergencia del entrenamiento. Para lograr la estabilidad del entrenamiento FP8, iGenius exploró varios enfoques, pero el que funcionó mejor fue reducir la tasa de aprendizaje en los primeros signos de inestabilidad.
Otras técnicas consideradas fueron mantener capas específicas del modelo en la precisión BF16 original, después de ejecutar un análisis de histograma de los tensores para detectar aquellos que se desbordarían o subdesbordarían en FP8.
iGenius empleó una variedad de puntos de referencia para evaluar de manera integral las mejoras de rendimiento del modelo base de Colosseum 355B. Entre estos, iGenius priorizó el punto de referencia Massive Multitask Language Understanding (MMLU) debido a su amplio alcance y aplicabilidad general en diversas áreas temáticas.
Al utilizar MMLU, iGenius se propuso cuantificar el grado de retención e integración de conocimientos logrados a través de CPT, lo que proporciona una medida sólida de las mejoras en la alineación del modelo con el conocimiento humano general y las capacidades de razonamiento. Al final del entrenamiento, iGenius pudo lograr una precisión del 82,04 % con Colosseum 355B en un entorno de 5 disparos.
Alineación LLM
Cuando se ha entrenado a un modelo LLM, este tiene una comprensión general de los idiomas en su conjunto de datos y de cómo las palabras, los párrafos y los conceptos complejos se relacionan entre sí. Sin embargo, el modelo aún no ha aprendido a realizar tareas específicas, como resumir o traducir, o cómo se ve una conversación.
Esta siguiente fase del desarrollo del modelo se centra en esta siguiente fase de aprendizaje. Hay muchas técnicas disponibles para los constructores de modelos. iGenius se centró en el ajuste fino supervisado y la alineación de las preferencias humanas mediante la optimización de preferencias directas (DPO).
Ajuste fino supervisado
El ajuste fino supervisado (SFT) es un paso fundamental para alinear los resultados de los LLM con un comportamiento definido por el usuario. El SFT consiste en refinar los parámetros del modelo entrenado previamente utilizando pares de entrada etiquetados y salida deseada.
El ajuste de instrucciones combina el ajuste fino y la indicación mediante instrucciones formuladas en lenguaje natural, como “Resume este artículo” o “Traduce al italiano”. La SFT se puede aplicar a este tipo de preguntas de respuesta única u optimizar para interacciones de chat que permitan a los modelos responder en entornos conversacionales.
iGenius utilizó el alineador NVIDIA NeMo para ajustar las instrucciones de chat de Colosseum 355B. La sintaxis de la plantilla de datos de chat utiliza el siguiente esquema de estructura:
{ "system" : "" , "conversations" : [ { "from" : "User" , "value" : "What’s the name of the main index on the Italian Stock Exchange?" , "label" : null } , { "from" : "Assistant" , "value" : "The main index on the Italian Stock Exchange is the FTSE MIB." , label ": " " } ] , "mask" : "User" , "type" : "VALUE_TO_TEXT" } |
iGenius ejecutó SFT utilizando NeMo-Aligner/examples/nlp/gpt/train_gpt_sft.py en 350 nodos. Aquí se muestran las configuraciones clave para la receta de entrenamiento de SFT con respecto a los datos de iGenius:
chat: True chat_prompt_tokens: system_turn_start: <extra_id_0> turn_start: <extra_id_1> label_start: <extra_id_2> end_of_turn: "\x0A" end_of_name: "\x0A" num_workers: 0 shuffle: True |
iGenius realizó experimentos con tasas de aprendizaje en el rango de [1e-7, 5e-7], utilizando un tamaño de lote global de 140. En particular, iGenius no observó ningún cambio significativo en el rendimiento al emplear programas de tasa de aprendizaje constante o de recocido.
Para evaluar la efectividad de SFT y las estrategias de alineación, iGenius utilizó el punto de referencia IFEval , que evalúa la capacidad de un modelo para seguir instrucciones y alinearse con la intención del usuario. iGenius se entrenó con diferentes combinaciones de datos durante aproximadamente una época, basándose principalmente en este punto de referencia para seleccionar el mejor punto de control.
Alineación de las preferencias humanas
Después de la etapa SFT, iGenius utilizó DPO para refinar aún más el modelo de lenguaje con preferencias humanas, centrándose en elegir entre respuestas preferidas o rechazadas. iGenius ejecutó DPO utilizando NeMo-Aligner/examples/nlp/gpt/train_gpt_dpo.py en 350 nodos.
Para optimizar el rendimiento, las respuestas rechazadas se generaron utilizando el punto de control SFT de mejor rendimiento. El conjunto de datos seleccionado de iGenius excluyó los ejemplos con diferencias mínimas entre las respuestas elegidas y rechazadas, lo que garantiza que solo se seleccionaran las preferencias significativas. Los conjuntos de datos se formatearon con la plantilla de chat SFT que estructura las respuestas elegidas y rechazadas.
{ "prompt" : "<extra_id_0>System\n\n<extra_id_1>User\nWhich year was the Magna Carta signed?\n<extra_id_1>Assistant\n" , "chosen_response" : "1215\n<extra_id_1>" , "rejected_response" : "I refuse to answer this question.\n<extra_id_1>" } |
iGenius entrenó el modelo durante aproximadamente tres épocas en aproximadamente 100 000 muestras y, de manera similar a la etapa SFT, se basó en IFEval, entre otros puntos de referencia, para seleccionar el punto de control óptimo.
Desafíos y mejores prácticas para la creación de títulos LLM
A medida que aumenta la escala del entrenamiento, los problemas menores se vuelven críticos. Ejecutar el trabajo de entrenamiento Colosseum 355B en GPU 3K puede llevar entre 15 y 20 minutos solo para cargar el punto de control, lo que consume 5 TB de memoria.
Un sistema de almacenamiento que funciona bien con múltiples trabajos pequeños en miles de GPU puede tener dificultades cuando una sola carga de trabajo requiere que todas las GPU lean y escriban puntos de control simultáneamente, lo que provoca demoras y posibles tiempos de espera. Las interrupciones temporales de la red dan como resultado fallas en los trabajos de entrenamiento.
El principal desafío en esta categoría es un enlace de red inestable , que alterna repetidamente entre los estados activo e inactivo. DGX Cloud administra este tipo de complejidades de infraestructura, lo que le permite concentrarse en sus objetivos de entrenamiento de IA.
El escalamiento también expone problemas no detectados previamente, lo que requiere un enfoque riguroso de seguimiento y depuración de experimentos. A continuación, se presentan algunas prácticas recomendadas y lecciones aprendidas al ejecutar la capacitación LLM a escala:
- Explora los conceptos básicos a escala reducida
- Monitorizar de manera eficaz y hacer un seguimiento a escala
Explora los conceptos básicos a escala reducida
El escalamiento progresivo es clave, ya que permite una experimentación rápida, la identificación de errores y el ahorro de tiempo y recursos.
- Modelo de depuración pequeño: explorar configuraciones de entrenamiento a gran escala es un gran desafío. Por ejemplo, entrenar Colosseum 355B requiere 80 GPU H100 solo para cargar como una sola instancia. Durante este proyecto, iGenius utilizó un modelo de depuración pequeño de 8B (que cabe en 2 GPU) para una exploración rápida de la configuración, como el formato de punto de control, los parámetros FP8 o para depurar algunos problemas de NCCL encontrados.
- Pruebas de proceso de extremo a extremo: el proceso de capacitación LLM ejecuta un ciclo de pasos de capacitación, validación, guardado y reanudación de puntos de control. La reducción del intervalo de puntos de control permite acelerar el ciclo de pruebas.
- Puntos de control robustos: algunos formatos de puntos de control pueden resultar difíciles de reanudar cuando cambia la distribución del entrenamiento, mientras que formatos como
torch_dist
el soporte permiten reanudar y experimentar con diferentes diseños de paralelización. - Expansiones de distribución mínima a gran escala: comience a probar la ejecución con la distribución de entrenamiento mínima antes de aumentar gradualmente el tamaño del DP.
- Prueba de conjuntos de datos: dado el gran esfuerzo y la complejidad que implica el procesamiento de datos, es esencial probar un conjunto de datos a pequeña escala para identificar posibles errores en la preparación del conjunto de datos o corrupción de la muestra al comienzo de la etapa de entrenamiento.
Monitorizar de manera eficaz y hacer un seguimiento a escala
Con potencialmente cientos o incluso miles de nodos involucrados en el proceso de capacitación, es vital mantener la observabilidad del trabajo, la salud de la infraestructura y la utilización general de los recursos para ajustar, adaptar y reaccionar en consecuencia, asegurando la máxima utilización de su infraestructura.
- Rendimiento : supervise MFU mientras escala y adapte los hiperparámetros en consecuencia.
- Seguimiento preciso de experimentos: es esencial registrar variables ambientales, configuraciones de modelos y scripts en todas las ejecuciones para garantizar la reproducibilidad y ayudar a identificar posibles problemas o mejoras.
- Observabilidad de la infraestructura: supervise la salud del sistema e identifique cuándo los recursos están subutilizados o alcanzados sus límites.
- Pruebas predefinidas: es inevitable que haya nodos en mal estado, por lo que es fundamental tener pruebas predefinidas listas para ejecutarse en cualquier nodo sospechoso a fin de identificar problemas y permitir su solución. También se deben realizar estas pruebas en todos los nodos nuevos que se agreguen al clúster para confirmar el estado general. Es prudente tener versiones livianas de estas pruebas que se puedan ejecutar como parte del prólogo y el epílogo del trabajo para aumentar las posibilidades de éxito del trabajo.
Resumen
Al utilizar CPT a gran escala y la alineación en dominios específicos, iGenius creó Colosseum 355B, un LLM fundamental desarrollado utilizando la infraestructura NVIDIA DGX Cloud y el software NVIDIA AI Enterprise con NVIDIA NeMo Framework.
iGenius redujo los costos computacionales y mejoró la eficiencia a través de CPT en precisión FP8. Este enfoque no solo mejoró los rendimientos de referencia en puntos de referencia cruciales como MMLU, sino que también demuestra la capacidad de iGenius para mejorar continuamente los LLM básicos a lo largo del tiempo a un menor costo. Esto demuestra el compromiso de iGenius de proporcionar soluciones sostenibles para sus casos de uso y clientes principales.
De cara al futuro, iGenius seguirá explorando estrategias de aprendizaje continuo para seguir mejorando sus modelos y adaptarlos a diversos dominios comerciales, garantizando mejoras sostenidas en el rendimiento y la rentabilidad.
Colosseum 355B ahora también está disponible como un microservicio NVIDIA NIM en el Catálogo de API de NVIDIA. Los microservicios NIM están diseñados para optimizar y acelerar la implementación de modelos de IA generativos en infraestructura acelerada por NVIDIA en cualquier lugar, incluidos la nube, el centro de datos y las estaciones de trabajo. NIM utiliza motores de optimización de inferencia, API estándar de la industria y contenedores prediseñados para proporcionar inferencia de IA de alto rendimiento que escala según la demanda.
Explora el microservicio NIM Colosseum 355B.
Expresiones de gratitud
Gracias a los siguientes colaboradores de iGenius: Michele Resta, Andrea Valenti y Danilo Numeroso. Gracias también al siguiente colaborador de NVIDIA: Oleg Sudakov.
Recursos relacionados
- Sesión de GTC: Habilite la capacitación y la inferencia híbridas con DGX Cloud y la infraestructura de GPU OCI (presentada por Oracle)
- Sesión de GTC: Implementación de LLM en un entorno con recursos limitados para aplicaciones gubernamentales
- Sesión de GTC: Aceleración del ciclo de vida del LLM en la nube
- NGC Containers: servicios de laboratorio, asesoría de compras y venta minorista
- Seminario web: Cómo solucionar los desafíos de los datos no estructurados y el análisis en tiempo real en los servicios financieros
- Seminario web: IA generativa para finanzas cuantitativas
NVIDIA Blog. M. C., P. A., M. B., Z. I., S. P., M. P. Traducido al español