Oracle será uno de los primeros hiperescaladores en ofrecer una supercomputadora de IA con GPU AMD Instinct MI355X
OCI implementará un nuevo clúster de IA a escala zetta con hasta 131 072 GPU MI355X para permitir a los clientes construir, entrenar e inferir IA a escala.Austin, Texas y Santa Clara, California—12 de junio de 2025

Oracle y AMD anunciaron hoy que las GPU AMD Instinct™ MI355X estarán disponibles en Oracle Cloud Infrastructure (OCI) para ofrecer a los clientes más opciones y una relación calidad-precio más del doble para cargas de trabajo de entrenamiento e inferencia de IA a gran escala, en comparación con la generación anterior. Oracle ofrecerá clústeres de IA a escala zetta acelerados por los últimos procesadores AMD Instinct con hasta 131 072 GPU MI355X para que los clientes puedan desarrollar, entrenar e inferir IA a escala.
“Para apoyar a los clientes que ejecutan las cargas de trabajo de IA más exigentes en la nube, nos dedicamos a ofrecer la infraestructura de IA más completa”, afirmó Mahesh Thiagarajan, vicepresidente ejecutivo de Oracle Cloud Infrastructure. “Las GPU AMD Instinct, combinadas con el rendimiento, las redes avanzadas, la flexibilidad, la seguridad y la escalabilidad de OCI, ayudarán a nuestros clientes a satisfacer sus necesidades de inferencia y entrenamiento para cargas de trabajo de IA y nuevas aplicaciones de agentes”.
Para dar soporte a nuevas aplicaciones de IA que requieren conjuntos de datos más grandes y complejos, los clientes necesitan soluciones de computación de IA diseñadas específicamente para el entrenamiento de IA a gran escala. El superclúster OCI a escala zetta con GPU AMD Instinct MI355X satisface esta necesidad al proporcionar una arquitectura de red de clúster RDMA de alto rendimiento y latencia ultrabaja para hasta 131 072 GPU MI355X. AMD Instinct MI355X ofrece casi el triple de potencia de computación y un aumento del 50 % en la memoria de alto ancho de banda en comparación con la generación anterior.
“AMD y Oracle comparten una trayectoria común en ofrecer a sus clientes soluciones abiertas que permiten un alto rendimiento, eficiencia y una mayor flexibilidad en el diseño de sistemas”, afirmó Forrest Norrod, vicepresidente ejecutivo y director general del Grupo de Negocios de Soluciones para Centros de Datos de AMD. “La última generación de GPU AMD Instinct y tarjetas de red Pollara en OCI facilitará nuevos casos de uso en inferencia, ajuste y entrenamiento, ofreciendo más opciones a los clientes a medida que crece la adopción de la IA”.
AMD Instinct MI355X llega a OCI
Las formas con tecnología AMD Instinct MI355X están diseñadas con un valor superior, flexibilidad en la nube y compatibilidad con código abierto, ideales para clientes que ejecutan los modelos de lenguaje y cargas de trabajo de IA más grandes de la actualidad. Con AMD Instinct MI355X en OCI, los clientes podrán beneficiarse de:
- Aumento significativo del rendimiento: Ayuda a los clientes a optimizar el rendimiento de las implementaciones de IA con un rendimiento hasta 2,8 veces superior. Para impulsar la innovación en IA a escala, los clientes pueden esperar resultados más rápidos, menor latencia y la capacidad de ejecutar cargas de trabajo de IA más grandes.
- Memoria más grande y rápida: Permite a los clientes ejecutar modelos grandes completamente en memoria, lo que mejora la velocidad de inferencia y entrenamiento de los modelos que requieren un alto ancho de banda de memoria. Las nuevas formas ofrecen 288 gigabytes de memoria de alto ancho de banda 3 (HBM3) y hasta ocho terabytes por segundo de ancho de banda de memoria.
- Nueva compatibilidad con FP4: Permite a los clientes implementar modelos modernos de lenguaje grande e IA generativa de forma rentable gracias al nuevo estándar de computación de punto flotante (FP4) de 4 bits. Esto permite una inferencia ultraeficiente y de alta velocidad.
- Diseño denso con refrigeración líquida: Permite a los clientes maximizar la densidad de rendimiento con 125 kilovatios por rack para cargas de trabajo de IA exigentes. Con 64 GPU por rack de 1400 vatios cada una, los clientes pueden esperar tiempos de entrenamiento más rápidos con mayor rendimiento y menor latencia.
- Diseñado para entrenamiento e inferencia a escala de producción: Apoya a los clientes que implementan nuevas aplicaciones de agente con un tiempo de obtención del primer token (TTFT) más rápido y un alto rendimiento de tokens por segundo. Los clientes pueden esperar una mejor relación calidad-precio para las cargas de trabajo de entrenamiento e inferencia.
- Potente nodo principal: ayuda a los clientes a optimizar el rendimiento de su GPU al permitir la orquestación de trabajos y el procesamiento de datos eficientes con una CPU AMD Turin de alta frecuencia con hasta tres terabytes de memoria del sistema.
- Pila de código abierto: Permite a los clientes aprovechar arquitecturas flexibles y migrar fácilmente su código existente sin depender de un proveedor a través de AMD ROCm. AMD ROCm es una pila de software abierto que incluye modelos de programación, herramientas, compiladores, bibliotecas y entornos de ejecución populares para el desarrollo de soluciones de IA y HPC en GPU AMD.
- Innovación de red con AMD Pollara™: Ofrece a los clientes funcionalidad RoCE avanzada que permite diseños innovadores de redes. Oracle será el primero en implementar tarjetas de red (NIC) AMD Pollara AI en redes backend, proporcionando funciones RoCE avanzadas, como control de congestión programable y compatibilidad con estándares abiertos del sector del Ultra Ethernet Consortium (UEC) para redes de alto rendimiento y baja latencia.
ORACLE News. Traducido al español