El borde del metro es el punto ideal para un rendimiento, privacidad y eficiencia óptimos.
Hoy en día, los líderes de TI dedican mucho tiempo a pensar en cómo conseguir la infraestructura adecuada para respaldar los objetivos de IA de sus organizaciones. No todos piensan en dónde implementar dicha infraestructura, pero acertar en la ubicación es igual de importante.
Esto es especialmente cierto en lo que respecta a las cargas de trabajo de inferencia de IA. No todas las organizaciones cuentan con los recursos o la necesidad de entrenar sus propios modelos de IA, lo que significa que no todas deben preocuparse por implementar su propia infraestructura de entrenamiento. Existen otras opciones para adquirir modelos, como usar un mercado de modelos de IA o colaborar con socios mediante un enfoque de IA federada . Por el contrario, la inferencia es un componente esencial de cualquier estrategia empresarial de IA, y es esencial implementarla en los lugares adecuados.
Para simplificar, muchas organizaciones prefieren realizar la inferencia en sus entornos locales o en la nube. Sin embargo, como exploraremos en esta entrada del blog, tanto los centros de datos en la nube como los locales tradicionales tienen sus limitaciones. El edge metropolitano representa la solución ideal para evitar estas limitaciones. Ofrece la combinación ideal de tres ventajas principales:
- Rendimiento optimizado
- Controles de soberanía y privacidad de datos
- Mayor eficiencia de los recursos
¿Dónde está el borde del metro?
Es un hecho que las cargas de trabajo de inferencia son sensibles a la latencia. Implementar infraestructura en el borde digital ayuda a garantizar la proximidad entre las fuentes de datos y las ubicaciones de procesamiento, manteniendo así una latencia baja. Sin embargo, el reto que enfrentan las empresas al implementar en el borde es que «el borde» no es un lugar específico. Existe una jerarquía de diferentes bordes en distintas ubicaciones, y cada uno gestiona la inferencia de forma distinta:
- Perímetro del dispositivo : La inferencia se realiza directamente en un dispositivo conectado, como un smartphone. Esto podría implicar realizar la inferencia en el mismo dispositivo donde se originaron los datos, eliminando así la latencia de la red.
- Extremo lejano : una empresa realiza inferencias sobre una infraestructura privada que opera dentro de sus propias instalaciones: el proverbial “servidor en el armario”.
- Perímetro metropolitano : Una empresa traslada sus datos de inferencia a una instalación diferente en la misma área metropolitana. Esta instalación suele ser un centro de datos de coubicación.
Además de estos edge, también existen centros de datos en la nube y mayoristas. Estos pueden formar parte de la estrategia de datos de IA más amplia de una empresa, desde el edge hasta el núcleo y la nube , por lo que conviene considerarlos en el mismo contexto que los edge mencionados anteriormente.
¿Por qué inferencia en el borde del metro?
Como lo muestra el diagrama a continuación, el borde del metro es el lugar lógico donde las empresas alojan sus cargas de trabajo de inferencia, ya sea que eso signifique extraer cargas de trabajo de la nube o enviarlas desde el borde más alejado.

Rendimiento optimizado
El perímetro metropolitano se ubica dentro de la misma área metropolitana que las fuentes de datos de las que se agrega, lo que generalmente permite una latencia inferior a 10 milisegundos. Implementar la infraestructura del perímetro metropolitano con el socio de coubicación adecuado también permite el acceso a servicios de interconexión dedicados para obtener mayores beneficios de rendimiento.
Por el contrario, las empresas no siempre pueden controlar dónde se alojan físicamente sus cargas de trabajo en la nube. Esto puede generar una latencia mucho mayor, lo que a su vez implica una inferencia menos efectiva.
Si bien es cierto que las cargas de trabajo en el borde del metro experimentarían una latencia ligeramente mayor que en el borde más alejado, aún estaría dentro de rangos aceptables para la inferencia.
Controles de soberanía y privacidad de datos
Cuando las empresas realizan inferencias en el extremo remoto, son responsables de proporcionar su propia seguridad física, lo cual puede ser complejo y costoso. Operan servidores en instalaciones que nunca fueron diseñadas para funcionar como centros de datos, por lo que es lógico que no tengan acceso a los mismos controles de seguridad física que se encuentran en un centro de datos de coubicación dedicado.
Consideremos el ejemplo de un minorista que opera servidores dentro de sus tiendas. Todo su modelo de negocio gira en torno a la entrada y salida de clientes a su antojo, por lo que les resultaría imposible controlar el acceso a sus servidores de la misma forma que lo hacen los centros de datos de coubicación en el perímetro metropolitano. Y si no pueden proteger esos servidores, ¿cómo pueden confiar en la seguridad de los datos confidenciales alojados en ellos?
Por otro lado, ubicar cargas de trabajo de inferencia y datos en la nube podría conllevar una pérdida de control. Las empresas no pueden esperar que sus proveedores de nube traten sus requisitos de privacidad y soberanía de datos con la misma importancia que ellas mismas.
Compare esto con el perímetro metropolitano, donde las empresas pueden implementar infraestructura bajo su control en las ubicaciones que elijan. Si deciden incorporar servicios en la nube a su estrategia de IA, pueden hacerlo mediante un enfoque de nube soberana , accediendo a las rampas de acceso a la nube ubicadas en el perímetro metropolitano.
Eficiencia de recursos
Cuando una organización realiza inferencias en el extremo remoto, debe asumir los gastos asociados con la implementación y la administración de servidores. Esto puede resultar costoso para cualquier empresa que opere varias instalaciones en la misma área metropolitana.
Trasladar la inferencia al perímetro metropolitano ayuda a las empresas a reducir costos al operar de forma más eficiente. Por ejemplo, una cadena de comida rápida con varios locales en la misma ciudad podría concentrar todas sus cargas de trabajo de inferencia en un solo lugar, en lugar de pagar por el hardware de cada restaurante.
Además, almacenar demasiados datos de IA en la nube podría generar tarifas de salida elevadas. Estas tarifas no solo incrementan los costos generales, sino que también limitan la movilidad de los datos. Las cargas de trabajo de IA están distribuidas por naturaleza, y las empresas deben poder mover sus datos de IA entre diferentes entornos, ya sean en la nube o de otro tipo, siempre que sea necesario. Las tarifas de salida dificultan esto, ya que obligan a las empresas a calcular si un traslado en particular justifica su costo.
Al alojar sus conjuntos de datos en el perímetro metropolitano, las empresas pueden mantener un mejor control sobre sus datos. Esto podría incluir la operación de un entorno multicloud híbrido que limita las tarifas de salida al trasladar únicamente ciertos conjuntos de datos a la nube, y solo cuando realmente lo necesitan.
Equinix ayuda a los clientes a capitalizar la inferencia en el borde metropolitano
Los centros de datos de coubicación Equinix IBX® están disponibles en 74 áreas metropolitanas de seis continentes, por lo que los clientes que buscan implementar inferencia en el borde metropolitano tendrán una amplia gama de opciones. También pueden aprovechar soluciones de red privadas y dedicadas como Equinix Fabric® para transferir sus datos rápidamente entre ubicaciones de procesamiento y mantenerlos protegidos durante su tránsito. Las organizaciones que deseen integrar servicios en la nube junto con su infraestructura de borde metropolitano pueden acceder a nuestra cartera líder en la industria de rampas de acceso a la nube en diversas ubicaciones a nivel mundial.
La IA requiere acceso a un ecosistema dinámico de socios y proveedores de servicios, y el ecosistema global más grande de la industria se encuentra en Equinix. Incluye miles de empresas, nubes, redes y otros proveedores de servicios, todos ellos disponibles para conectarse de forma directa, privada y en tiempo real.
Una incorporación reciente al ecosistema de Equinix es Groq, empresa pionera en el campo de la inferencia de IA. Groq ofrece unidades de procesamiento del lenguaje (LPU), una nueva categoría de procesadores de IA especializados diseñados para facilitar una inferencia más rápida y eficiente en el uso de recursos para modelos de texto, audio y visión. La empresa utilizará la infraestructura de Equinix como puerta de enlace para ayudar a los usuarios a conectarse a la plataforma GroqCloud™, lo que aumentará aún más la velocidad y la rentabilidad integradas.
Equinix puede ayudar a los clientes a implementar las soluciones Groq en el perímetro metropolitano para aprovechar al máximo los beneficios de rendimiento, privacidad y eficiencia de recursos descritos anteriormente. Para obtener más información sobre la colaboración entre Equinix y Groq, vea nuestra entrevista con theCUBE, grabada en el evento Dell Tech World de la semana pasada.
Para obtener más información sobre cómo las empresas utilizan la computación de borde y las redes multicloud híbridas para optimizar la infraestructura para tecnologías emergentes como la IA, lea nuestro informe técnico La paradoja de la proximidad.
Equinix Blog. A. D. y T. T. Traducido al español