El Portal de las Tecnologías para la Innovación

AMD presenta un nuevo y potente chip de inteligencia artificial para desafiar a Nvidia

Lisa Su, directora ejecutiva de AMD, sobre el MI325X: «Este es el comienzo, no el final de la carrera de la IA».

El jueves, AMD anunció su nuevo chip acelerador de IA MI325X , que se lanzará a los clientes de los centros de datos en el cuarto trimestre de este año. En un evento celebrado en San Francisco, la empresa afirmó que el nuevo chip ofrece un rendimiento «líder en la industria» en comparación con las GPU H200 actuales de Nvidia , que se utilizan ampliamente en los centros de datos para impulsar aplicaciones de IA como ChatGPT.

Con su nuevo chip, AMD espera reducir la brecha de rendimiento con Nvidia en el mercado de procesadores de IA. La compañía con sede en Santa Clara también reveló planes para su chip MI350 de próxima generación , que se posiciona como un competidor directo del nuevo sistema Blackwell de Nvidia , con una fecha de envío prevista para la segunda mitad de 2025.

En una entrevista con el Financial Times, la directora ejecutiva de AMD, Lisa Su, expresó su ambición de que AMD se convierta en el líder de inteligencia artificial «de principio a fin» durante la próxima década. «Este es el comienzo, no el final de la carrera de la inteligencia artificial», dijo a la publicación.

El acelerador AMD Instinct MI325X.
El acelerador AMD Instinct MI325X. Crédito: AMD

Según el sitio web de AMD, el acelerador MI325X anunciado contiene 153 mil millones de transistores y está construido sobre la arquitectura de GPU CDNA3 utilizando los procesos de litografía FinFET de 5 nm y 6 nm de TSMC . El chip incluye 19.456 procesadores de flujo y 1.216 núcleos de matriz distribuidos en 304 unidades de cómputo. Con una frecuencia de reloj máxima de 2100 MHz, el MI325X ofrece hasta 2,61 PFLOP de rendimiento máximo de precisión de ocho bits (FP8). Para operaciones de precisión media (FP16), alcanza 1,3 PFLOP.

Una fracción de la cuota de mercado de IA de Nvidia

El anuncio del nuevo chip se produce en un momento en el que los clientes de Nvidia se preparan para implementar sus chips Blackwell en el trimestre actual. Microsoft ya se ha convertido en el primer proveedor de servicios en la nube en ofrecer los últimos chips GB200 de Nvidia, que combinan dos chips Blackwell B200 y una CPU «Grace» para obtener un mayor rendimiento.

Según el Financial Times, si bien AMD se ha convertido en el competidor más cercano de Nvidia en chips de IA listos para usar, aún se queda atrás en participación de mercado. AMD proyecta ventas de chips de IA por 4.500 millones de dólares para 2024, una fracción de los 26.300 millones de dólares que Nvidia vendió en chips de IA para centros de datos durante el trimestre que finalizó en julio. Aun así, AMD ya ha conseguido que Microsoft y Meta sean clientes para su generación actual de GPU de IA MI300, y es posible que Amazon siga su ejemplo.

El reciente enfoque de la compañía en la IA marca un cambio con respecto a su negocio tradicional orientado a PC que incluye tarjetas gráficas de consumo, pero Su sigue siendo optimista sobre la demanda futura de GPU para centros de datos con IA. AMD predice que el mercado potencial total para chips de IA alcanzará los 400 mil millones de dólares para 2027. Google News. B.E. Traducido al español

Artículos relacionados

Scroll al inicio