Se suma al creciente catálogo de IBM de modelos de código abierto y de terceros para brindar a los clientes opciones y flexibilidad.
IBM anuncia la disponibilidad del LLM Mixtral-8x7B de código abierto , impulsado por Mistral AI, en su plataforma de datos e inteligencia artificial watsonx , mientras continúa expandiendo las capacidades para ayudar a los clientes a innovar con los modelos
IBM ofrece una versión optimizada de Mixtral-8x7b que, en pruebas internas, “pudo aumentar el rendimiento en un 50% en comparación con el modelo normal, es decir, aumentó la cantidad de datos que se pueden procesar en un período determinado”.
Esto podría reducir potencialmente la latencia entre un 35% y un 75%, dependiendo del tamaño del lote, lo que aceleraría el tiempo para obtener información valiosa.
Esto es posible mediante un proceso llamado cuantificación, que reduce el tamaño del modelo y los requisitos de memoria para los LLM y, a su vez, puede acelerar el procesamiento para ayudar a reducir los costos y el consumo de energía.
La incorporación de Mixtral-8x7B amplía la estrategia abierta y multimodelo de IBM para llegar a los clientes donde estén «y brindarles opciones y flexibilidad para escalar las soluciones empresariales de IA en sus negocios».
A través de décadas de investigación y desarrollo de IA, colaboración abierta con Meta y Hugging Face y asociaciones con líderes de modelos, IBM está ampliando su catálogo de modelos Watsonx . ai y trayendo nuevos recursos, lenguajes y modalidades.
Las opciones de modelos fundamentales preparados para la empresa de IBM y su plataforma de datos e inteligencia artificial Watsonx pueden permitir a los clientes utilizar la inteligencia artificial generativa para obtener nuevos conocimientos y eficiencias, y crear nuevos modelos de negocios basados en principios de confianza. Fuente NetMedia para Latinoamerica(SC), traducido al español.