El Portal de las Tecnologías para la Innovación

Red Hat Summit 2024: resumen de anuncios clave

Red Hat Summit 2024 sirvió de escenario para la presentación de las últimas innovaciones y colaboraciones de la empresa.

Red Hat dio a conocer una serie de importantes innovaciones en inteligencia artificial (IA) y automatización de políticas en Red Hat Summit 2024 en Denver, Colorado (EE. UU.). La introducción de «Policy as Code» en su plataforma Red Hat Ansible Automation representa un avance clave para abordar las complejidades inherentes a la IA a escala al proporcionar gobernanza y coherencia en la nube híbrida.

Además, Red Hat ha ampliado su cartera Lightspeed para incluir IA generativa, promoviendo la eficiencia y accesibilidad de las tareas de TI. Las colaboraciones estratégicas con Intel y AMD tienen como objetivo impulsar el uso empresarial de la IA, ofreciendo soluciones de extremo a extremo que abarcan desde el centro de datos hasta el borde.

Finalmente, el anuncio de Podman AI Lab demuestra el compromiso de Red Hat con la democratización de la IA al proporcionar a los desarrolladores una herramienta intuitiva para crear, probar y ejecutar aplicaciones de IA en entornos de contenedores. Estas iniciativas reflejan el impulso continuo de Red Hat hacia la innovación en IA y la simplificación de su adopción en diversos entornos empresariales.

Política como código

Red Hat ha introducido «Policy as Code» como parte de su plataforma Red Hat Ansible Automation, con el objetivo de abordar las complejidades de la inteligencia artificial a escala. Esta capacidad automatizada busca impulsar la automatización de políticas específicas en la nube híbrida, aportando gobernanza y mayor coherencia tanto a la explosión de la IA como a las operaciones de TI tradicionales. La implementación de políticas como código permite aplicar estándares de cumplimiento críticos a medida que surgen aplicaciones y sistemas generados por IA, lo que convierte a la automatización en un componente estratégico en la evolución de la IA.

El desafío de adoptar y escalar cargas de trabajo de IA junto con la nube híbrida genera más complejidad y expansión. Las políticas como código ayudan a poner orden en esta expansión, tanto actual como potencial, al hacer cumplir estándares críticos de cumplimiento a medida que surgen aplicaciones y sistemas generados por IA, haciendo de la automatización un componente estratégico real en la evolución de la IA.

Portafolio de nubes de Red Hat Lightspeed

Red Hat también anunció la expansión de Red Hat Lightspeed para incluir IA generativa en su cartera de nube híbrida. Esta iniciativa tiene como objetivo hacer que las tareas de TI sean más eficientes y accesibles para todos los niveles. Red Hat Lightspeed, integrado en plataformas como Red Hat OpenShift y Red Hat Enterprise Linux, aprovecha la IA para mejorar la productividad y la eficiencia de los equipos que utilizan estas plataformas, ayudando a cerrar las brechas de habilidades en la industria y simplificando la gestión del ciclo de vida de las aplicaciones.

Además, Red Hat Lightspeed aplicará IA generativa en Red Hat OpenShift para simplificar la gestión del ciclo de vida de las aplicaciones en los clústeres de OpenShift, lo que permitirá a los usuarios desarrollar habilidades más rápidamente y a los expertos utilizar la plataforma de manera más eficiente. Esto incluye funciones como sugerencias de escalado automático y recomendaciones de ajuste basadas en patrones de uso. Además, Red Hat Enterprise Linux Lightspeed ayudará a simplificar la implementación, la gestión y el mantenimiento de entornos Linux, aprovechando las décadas de experiencia de Red Hat en Linux empresarial y utilizando IA generativa para ayudar a los clientes a responder más rápidamente a problemas y preguntas comunes.

Procesadores Intel al límite

Red Hat e Intel buscan impulsar el uso empresarial de la inteligencia artificial (IA) a través de Red Hat OpenShift AI. Esta alianza tiene como objetivo ofrecer soluciones de inteligencia artificial de extremo a extremo que aprovechen los productos de inteligencia artificial de Intel, incluidos los aceleradores Intel Gaudi, los procesadores Intel Xeon y Core, y las GPU Intel Arc. La infraestructura de nube híbrida resultante permitirá a las organizaciones desarrollar, entrenar e implementar modelos de IA de manera fluida y escalable desde el centro de datos hasta el borde, garantizando la interoperabilidad y la portabilidad de la carga de trabajo.

Red Hat OpenShift AI proporciona una base sólida para aplicaciones de IA en cualquier entorno, desde la nube hasta el borde, optimizando el soporte para los productos Intel AI. Esta colaboración también implica certificar las soluciones de hardware de Intel en Red Hat OpenShift AI, garantizando la interoperabilidad y habilitando capacidades de AI de extremo a extremo. A través del enfoque de código abierto, Red Hat e Intel apuntan a acelerar la implementación de soluciones de IA en cualquier plataforma, lo que resulta en un tiempo de comercialización más rápido y la creación de componentes básicos de IA rentables a escala.

Colaboración con GPU AMD

Red Hat y AMD colaborarán para ampliar las opciones de los clientes en la implementación de cargas de trabajo de inteligencia artificial (IA). Esta asociación se centra en permitir que los operadores de GPU AMD en Red Hat OpenShift AI proporcionen la potencia de procesamiento necesaria para las cargas de trabajo de IA en la nube híbrida, facilitando a las organizaciones la adopción de la IA. Al trabajar juntos, Red Hat y AMD tienen como objetivo fomentar la innovación y cultivar un entorno donde las soluciones de IA puedan adaptarse de manera eficiente a las necesidades comerciales únicas.

Las GPU de AMD en Red Hat OpenShift AI permiten a los clientes acceder, implementar y aprovechar un operador de GPU validado, agilizando los flujos de trabajo de IA y cerrando brechas en las cadenas de suministro de GPU. Esta colaboración combina la experiencia en hardware de IA de AMD con la experiencia en software de IA y código abierto de Red Hat, proporcionando a los clientes herramientas validadas, pruebas y mejoras para una implementación eficiente de la IA. Además, se espera que esta colaboración impulse la innovación en IA al ofrecer a los clientes una mayor variedad de recursos de GPU en los entornos de nube híbrida abierta de Red Hat.

Integración de microservicios NVIDIA NIM

Mientras compite con AMD, Red Hat anunció la próxima integración de los microservicios NVIDIA NIM en Red Hat OpenShift AI, una plataforma de nube híbrida AI/ML de código abierto. Esta colaboración permitirá a los usuarios combinar modelos de IA entrenados con Red Hat OpenShift AI con microservicios NVIDIA NIM para desarrollar aplicaciones de IA generativa en una única plataforma MLOps confiable. Esto facilitará la integración y gestión de múltiples implementaciones de IA, proporcionando escalamiento, monitoreo integrado y seguridad empresarial para una transición sin problemas de la creación de prototipos a la producción.

La integración proporcionará una forma más sencilla de implementar NVIDIA NIM en flujos de trabajo comunes, garantizando una mayor coherencia y una gestión más sencilla. También permitirá el escalado y monitoreo integrados de las implementaciones de NVIDIA NIM en coordinación con otros modelos de IA en entornos de nube híbrida, así como seguridad, soporte y estabilidad de nivel empresarial para garantizar una transición fluida a la producción. Los microservicios NVIDIA NIM están diseñados para acelerar las implementaciones empresariales de IA generativa al proporcionar capacidades integradas y escalables en la infraestructura del cliente o en la nube utilizando interfaces de programación de aplicaciones estándar de la industria.

Laboratorio de IA Podman

Finalmente, Red Hat anunció Podman AI Lab, una extensión de Podman Desktop que permite a los desarrolladores crear, probar y ejecutar aplicaciones impulsadas por IA generativa en contenedores, utilizando una interfaz gráfica intuitiva en su estación de trabajo local. Esto contribuye a la democratización de GenAI, brindando a los desarrolladores los beneficios de conveniencia, simplicidad y rentabilidad de su experiencia de desarrollo local mientras mantienen la propiedad y el control sobre los datos confidenciales. Podman AI Lab proporciona un entorno familiar y fácil de usar para que los desarrolladores apliquen modelos de IA a su código y flujos de trabajo de una manera más segura, sin la necesidad de inversiones costosas en infraestructura o una amplia experiencia en IA.

En un entorno donde el uso de aplicaciones habilitadas para IA va en aumento, Podman AI Lab presenta una herramienta y un entorno de juego familiar y fácil de usar para que los desarrolladores apliquen modelos de IA al código y a los flujos de trabajo de una manera más segura. sin requerir costosas inversiones en infraestructura o una amplia experiencia en IA. Podman AI Lab incluye un catálogo de recetas con aplicaciones de muestra que permiten a los desarrolladores comenzar con algunos de los casos de uso más comunes para modelos de lenguaje grandes (LLM), como chatbots, resúmenes de texto, generadores de código, detección de objetos y conversión de audio a texto. transcripción. Estos ejemplos proporcionan un punto de entrada para que los desarrolladores revisen el código fuente, vean cómo se construye la aplicación y aprendan las mejores prácticas para integrar su código con un modelo de IA. NetMedia, Europa.AAH.Traducido al español

Artículos relacionados

Scroll al inicio