Dos chips diseñados a medida brindarán servicios de inteligencia artificial y se utilizarán internamente en los centros de datos de Microsoft y en la nube de Azure.
Microsoft, en su conferencia de desarrolladores Ignite, presentó dos procesadores internos personalizados diseñados para brindar servicios de inteligencia artificial (IA).
El anuncio del gigante tecnológico reveló los dos procesadores diseñados a medida, a saber, el Microsoft Azure Maia AI Accelerator, optimizado para tareas de IA e IA generativa, y la CPU Microsoft Azure Cobalt, un procesador basado en ARM diseñado para ejecutar cargas de trabajo informáticas de propósito general en Microsoft. Nube.
Por supuesto, Microsoft ahora está bien establecido en IA al haber invertido tanto en OpenAI como en Inflection , y durante el año pasado ha estado integrando constantemente capacidades de IA en su cartera de productos .
chips de IA
El gigante del software incluyó capacidades de inteligencia artificial tanto en su motor de búsqueda Bing como en su navegador Edge en febrero.
Luego, en marzo, Microsoft mejoró sus principales herramientas de productividad, incluidas Word, Excel y Outlook , con la tecnología ChatGPT.
Y en mayo, Redmond abrió el acceso a su motor de búsqueda Bing mejorado con IA a todos los usuarios.
Ahora la empresa ha introducido dos chips informáticos diseñados a medida para ayudarle a afrontar el alto coste de la prestación de servicios de IA.
Los chips comenzarán a implementarse internamente a principios del próximo año en los centros de datos de Microsoft, inicialmente impulsando los servicios de la compañía como Microsoft Copilot o Azure OpenAI Service.
El objetivo final es un sistema de hardware de Azure que ofrezca la máxima flexibilidad y que también pueda optimizarse en términos de potencia, rendimiento, sostenibilidad o costo, agregó Rani Borkar, vicepresidente corporativo de infraestructura y sistemas de hardware de Azure (AHSI).
Acelerador de IA Azure Maia
El nuevo Maia 100 AI Accelerator impulsará algunas de las cargas de trabajo de IA internas más grandes que se ejecutan en Microsoft Azure.
Además, OpenAI ha proporcionado comentarios sobre Azure Maia y los profundos conocimientos de Microsoft sobre cómo se ejecutan las cargas de trabajo de OpenAI en una infraestructura adaptada a sus grandes modelos de lenguaje están ayudando a informar los futuros diseños de Microsoft.
El acelerador Maia 100 AI también fue diseñado específicamente para la pila de hardware de Azure, según Brian Harry, un técnico de Microsoft que lidera el equipo de Azure Maia.
Esa integración vertical (la alineación del diseño de chips con la infraestructura de IA más grande diseñada teniendo en cuenta las cargas de trabajo de Microsoft) puede generar enormes ganancias en rendimiento y eficiencia, afirmó.
CPU de cobalto azul
Mientras tanto, la CPU Cobalt 100 está construida sobre la arquitectura ARM, para seguir logrando el objetivo de sostenibilidad de Microsoft.
Su objetivo es optimizar el “rendimiento por vatio” en todos los centros de datos de Microsoft, lo que esencialmente significa obtener más potencia informática por cada unidad de energía consumida.
La decisión de Microsoft de construir sus propios chips personalizados refleja el alto costo de brindar servicios de IA, que puede ser 10 veces mayor que el de los servicios tradicionales (es decir, motores de búsqueda).
La CPU Cobalt 100 ayudará a Microsoft a lograr más ahorros de costos internos y ayudará a Redmond contra su principal rival en la nube, Amazon Web Service (AWS).