El Portal de las Tecnologías para la Innovación

Meta Llama 4 Maverick y Llama 4 Scout ahora disponibles en watsonx.ai

IBM se complace en anunciar la incorporación de la última generación de modelos abiertos de Metaa, Llama 4, para watsonx.es

Llama 4 Scout y Llama 4 Maverick, la primera mezcla de modelos expertos (MoE) lanzados por Meta, proporcionan un rendimiento multimodal fronterizo, altas velocidades, bajo costo y una longitud de contexto líder en la industria.

El lanzamiento de Llama 4 inicia una nueva era para la serie Llama, introduciendo tanto una evolución emocionante de la arquitectura Llama como un enfoque innovador para integrar diferentes tipos de modalidades de datos— incluyendo texto, imagen, video—mucho antes en el proceso que los modelos convencionalmente entrenados. Ambos modelos nuevos admiten una amplia variedad de casos de uso de entrada de texto, salida de texto e imagen, salida de texto.

Con la introducción de estas últimas ofertas de Meta, IBM ahora admite un total de 13 modelos Meta en la amplia biblioteca de modelos de fundación disponibles en watsonx.ai. De acuerdo con la estrategia abierta y multimodelo de IBM para IA generativa, continuamos brindando a nuestros clientes de plataforma los modelos abiertos más eficientes del mercado actual.

Arquitectura eficiente

La arquitectura de mezcla de expertos (MoE) busca equilibrar la capacidad de conocimiento de los modelos más grandes con la eficiencia de inferencia de los modelos más pequeños mediante la subdivisión de las capas de la red neuronal del modelo en múltiples «expertos». En lugar de activar cada parámetro del modelo para cada token, los modelos MoE utilizan una función de control que activa únicamente a los «expertos» más adecuados para procesar ese token.

Llama 4 Scout, el más pequeño de los dos nuevos modelos, con un recuento total de parámetros de 109 000 millones, está dividido en 16 expertos. En inferencia, tiene un recuento de parámetros activos de tan solo 17 000 millones, lo que le permite atender a más usuarios en paralelo. Entrenado con 40 billones de tokens de datos, Llama 4 Scout ofrece un rendimiento que rivaliza o supera al de modelos con un recuento de parámetros activos significativamente mayor, manteniendo bajos los costos y la latencia. A pesar de estos requisitos de computación reducidos, Llama 4 Scout supera a modelos comparables en las pruebas de codificación, razonamiento, contexto extenso y comprensión de imágenes.

Llama 4 Maverick está dividido en 128 expertos, basándose en el conocimiento de sus 400 mil millones de parámetros totales, manteniendo el mismo recuento de 17 mil millones de parámetros activos que Llama 4 Scout. Según el anuncio oficial de Meta AI.Llama 4 Maverick supera a GPT-4o de OpenAI y a Gemini 2.0 Flash de Google «en todos los aspectos» en una amplia gama de puntos de referencia multimodales y rivaliza con el rendimiento de razonamiento y codificación del mucho más grande DeepSeek-V3 en tareas de razonamiento y codificación.

Longitud de contexto líder en la industria

Además, Llama 4 Scout ofrece una ventana de contexto de 10 millones de tokens, la mejor de la industria, al tiempo que conserva una excelente precisión en puntos de referencia de contexto largo como Needle-in-a-haystack (NiH).Este avance sin precedentes abre oportunidades apasionantes para el resumen de múltiples documentos, el razonamiento sobre vastas bases de código y la personalización mediante una amplia memoria de la actividad del usuario.

Como explica el anuncio de Meta, esta expansión masiva en la longitud del contexto se debe principalmente a dos innovaciones: el uso de capas de atención intercaladas sin incrustaciones posicionales y el escalado de temperatura en tiempo de inferencia del mecanismo de atención de los modelos . Esta novedosa arquitectura, que Meta denomina «iRope», representa un paso importante hacia su objetivo a largo plazo de soportar una longitud de contexto «infinita».

Multimodalidad nativa

Mientras que los modelos de lenguaje extenso (LLM) se preentrenan tradicionalmente exclusivamente con datos de texto y luego se adaptan a otras modalidades de datos (como imágenes) durante el postentrenamiento, los modelos de Llama 4 están diseñados con «multimodalidad nativa». Esto permitió a Meta preentrenar los modelos conjuntamente con grandes cantidades de datos de texto, imágenes y vídeo sin etiquetar, enriqueciéndolos eficientemente con conocimiento integrado de diversas fuentes.

El entrenamiento de los modelos Llama 4 incorporó la fusión de diferentes tipos de datos en las primeras etapas del proceso de procesamiento, integrando a la perfección los tokens de texto y visión para permitir su entrenamiento como un único sistema unificado. En consecuencia, Llama 4 Maverick y Llama 4 Scout ofrecen un excelente rendimiento en diversas tareas de comprensión de imágenes, pudiendo abordar indicaciones de texto de varias imágenes simultáneamente o anclar las respuestas del modelo a regiones específicas con una sola imagen.

Modelos Llama 4 en IBM WatsonX

Los desarrolladores y las empresas pueden seleccionar su modelo Llama 4 preferido del amplio catálogo de modelos base en IBM watsonx.ai , y luego perfeccionarlo, destilarlo e implementarlo en entornos de nube, locales o edge de su elección. IBM mejora aún más esta flexibilidad con su infraestructura de IA avanzada, su integración fluida con marcos de agentes y su compatibilidad con bases de datos vectoriales.

IBM Watsonx optimiza el desarrollo con un conjunto de herramientas de código, low-code y no-code en un estudio de nivel empresarial que soporta todo el ciclo de vida de la IA, a la vez que fomenta la colaboración entre equipos. IBM Watsonx también ofrece una sólida gobernanza integral de la IA , lo que garantiza flujos de trabajo responsables y acelerados. Gracias a su amplia experiencia en transformación tecnológica, la alianza de IBM con Meta ofrece estrategias personalizadas para abordar de forma eficiente y eficaz las necesidades específicas de la empresa.

Descubra cómo crear un entrenador personal de IA con Meta Llama 4 en watsonx.ai.

Comience a utilizar los modelos Llama 4 en watsonx.ai hoy mismo.

IBM News. Traducido al español

Artículos relacionados

Scroll al inicio