El Portal de las Tecnologías para la Innovación

El impuesto a la latencia: cómo el procesamiento centralizado afecta sus iniciativas de IA

Fuente:

Para maximizar los resultados en tiempo real con IA, las empresas deben ser estratégicas a la hora de poner la inferencia en el borde

A medida que los nuevos casos de uso de la IA, como los vehículos autónomos, la monitorización continua del estado de salud y el análisis de fraude en tiempo real, se generalizan, las empresas necesitan cada vez más un procesamiento de datos ultrarrápido cerca de donde se generan y utilizan. Mientras tanto, la preocupación por la privacidad de los datos, las leyes de soberanía de datos y otras regulaciones las motivan a mantener los datos lo más cerca posible de la fuente.

Con el rápido crecimiento de la IA como tecnología empresarial esencial, las empresas han comenzado a reconocer la importancia de las implementaciones en el borde de la red en su arquitectura de TI. Aquellas que han dependido de la nube o de un centro de datos local están experimentando las limitaciones de los modelos de procesamiento centralizado para cargas de trabajo de inferencia de IA sensibles a la latencia.

Si realiza procesamiento de IA en la nube:

  • Tienes menos control sobre los datos, lo que puede generar problemas de cumplimiento.
  • Transferir datos dentro y fuera de la nube implica afrontar costos más elevados, tanto por las tarifas de salida como por el costo de la red de transporte.
  • La transferencia de datos requiere demasiado tiempo para casos de uso sensibles a la latencia, lo que hace imposible la inferencia de IA en tiempo real.
  • Incluso si hay regiones de nube locales disponibles, aún debe pagar tarifas de salida para trasladar datos a una ubicación central para capacitación.

Si realiza procesamiento de IA en un centro de datos centralizado:

  • Tienes más control de los datos que con la nube, pero es posible que la ubicación no cumpla con los requisitos de residencia de los datos.
  • Aún hay mayor latencia y congestión de red para transferir datos.
  • Es posible que tenga una capacidad limitada para escalar a medida que crecen los volúmenes de datos.

En ambos casos, los modelos de procesamiento centralizado pueden generar cuellos de botella en las cargas de trabajo de IA debido a la distancia que deben recorrer los datos y pueden agotar el presupuesto destinado a este sector. Algunas organizaciones, en las primeras etapas de la IA, creen que su configuración actual en la nube o centro de datos es suficiente, pero cuando llega el momento de trasladar los proyectos de IA de la fase de pruebas a la de producción, esa infraestructura puede minar las capacidades de IA.

La mejor manera de avanzar es un enfoque distribuido para la IA, donde algunos aspectos clave de un flujo de trabajo de IA se realizan en ubicaciones edge y otros en un centro de datos centralizado. La inferencia, el ajuste y parte del entrenamiento específico del dominio de la IA deben realizarse en el edge para lograr la menor latencia posible, mientras que el entrenamiento general de modelos de IA puede realizarse en una infraestructura centralizada o en la nube, donde es más fácil escalar y agregar múltiples fuentes de datos. Este enfoque requiere aprovechar una infraestructura híbrida interconectada que incorpore centros digitales en ubicaciones edge. Las organizaciones que actualmente no cuentan con una estrategia edge la necesitarán, ya que acercar la potencia de procesamiento a las fuentes de datos permite el procesamiento de baja latencia que exigen las aplicaciones de IA.

La IA multicloud necesita proximidad

¿Por qué las redes multicloud híbridas son el multiplicador de fuerza de la IA?Más información

Por qué la latencia es importante para la IA

Hay tres aspectos de la latencia a tener en cuenta para las aplicaciones de IA:

  1. El tiempo que lleva mover datos desde el objeto que genera esos datos al nodo de inferencia
  2. El tiempo que tarda el nodo de inferencia en procesar los datos con el modelo entrenado
  3. El tiempo que tarda el nodo de inferencia en responder con una acción en un dispositivo o proporcionar un informe

Estas transferencias de datos pueden tomar solo unos pocos milisegundos si está en una ubicación periférica, pero si debe enviar datos a una ubicación central, la latencia podría ser perjudicial.

Figura 1: El uso de un centro de datos centralizado puede aumentar los costos y el tiempo de las transferencias de datos

La baja latencia es especialmente importante para la inferencia de IA, ya que puede afectar negativamente la experiencia del usuario, los costos empresariales e incluso la vida y la seguridad de las personas. Considere los siguientes ejemplos:

  • Los vehículos autónomos necesitan poder responder instantáneamente cuando los datos de los sensores indican que hay un peatón delante para evitar accidentes.
  • Los sistemas de ambulancia conectados utilizan nodos de borde de red para procesar datos vitales y de diagnóstico del paciente en tiempo real durante el transporte, lo que ayuda a los hospitales a prepararse para emergencias entrantes.
  • Las empresas de servicios públicos y de producción de energía necesitan responder rápidamente a los cambios climáticos y a las emergencias por razones de seguridad.
  • En la automatización industrial , los modelos de IA en el borde analizan los datos de los sensores y las cámaras al instante, lo que permite respuestas inmediatas a eventos críticos como anomalías en los equipos, defectos de productos o cambios ambientales repentinos como picos de temperatura.

En todos estos casos, las organizaciones no pueden permitirse la latencia que implica el procesamiento centralizado o basado en la nube.

La inferencia de IA debe ocurrir en el borde

Dado que el entrenamiento de IA implica grandes volúmenes de datos y, en gran medida, no está sujeto a restricciones de latencia, resulta lógico centralizar el procesamiento. Una infraestructura centralizada está mejor preparada para gestionar la escala necesaria, y el entrenamiento puede pausarse mientras se reciben datos actualizados.

La inferencia de IA, por otro lado, se activa con el envío y la recepción de datos nuevos desde los dispositivos. Un nodo de inferencia debe reaccionar rápidamente a esos datos, por lo que no hay tiempo para que regresen a una ubicación central para su procesamiento. Si el nodo de inferencia está cerca de los datos, puede activar una acción en tiempo real. Con nodos de inferencia en diversas ubicaciones periféricas en la infraestructura empresarial, las empresas pueden mejorar la disponibilidad del servicio e implementar modelos de IA específicos para cada dominio que funcionan con un conjunto de datos más reducido, lo que puede generar un entrenamiento más rápido y menores requisitos de computación. Algunos ejemplos incluyen el análisis de imágenes médicas o la asistencia para el diagnóstico de enfermedades. La infraestructura periférica también permite servicios específicos de la ubicación, como el análisis de video en tiempo real para la seguridad aeroportuaria.

Sin embargo, la IA de borde no se limita a la latencia; también ofrece ventajas en términos de costo y privacidad. En el ejemplo de las ambulancias conectadas mencionado anteriormente, el procesamiento local de datos en el borde de la red puede reducir significativamente la latencia en comparación con las soluciones basadas exclusivamente en la nube, lo que permite alertas en tiempo real, como la detección de accidentes cerebrovasculares, que pueden ahorrar minutos vitales en la atención de emergencias. Además, el procesamiento local de datos minimiza el uso del ancho de banda y mejora la privacidad de los datos al transmitir únicamente resúmenes esenciales. Esto protege la información confidencial del paciente a la vez que mantiene la eficiencia operativa. Asimismo, en la automatización industrial, la IA de borde puede eliminar los retrasos del procesamiento basado en la nube y garantizar que las decisiones se tomen en tiempo real. Esto puede ayudar a mejorar la eficiencia operativa, reducir el tiempo de inactividad y mejorar la seguridad general y la calidad del producto en entornos de fabricación e industriales.

El papel de la tecnología de red en la computación de borde para la IA

Nuevas tecnologías de red, como el acceso directo a memoria remota (RDMA), están surgiendo como revolucionarias al abordar los desafíos de las redes extensas, es decir, aquellas con alto ancho de banda y latencia en distancias extensas. RDMA permite el acceso directo a memoria entre sistemas sin involucrar la CPU, lo que reduce significativamente la latencia y aumenta el rendimiento. Esto es crucial para las cargas de trabajo de IA que requieren transferencias de datos rápidas y a gran escala entre nodos de inferencia en el borde y clústeres de entrenamiento centralizados.

RDMA y la computación en el borde pueden trabajar en conjunto para minimizar la latencia de la IA. RDMA acelera la transferencia y agregación de datos, y la infraestructura en el borde acorta la distancia que estos necesitan recorrer para su procesamiento. Por lo tanto, RDMA facilita la adopción de un enfoque distribuido para la IA al permitir la distribución estratégica de datos entre la infraestructura de borde y la infraestructura central. Desde una perspectiva empresarial, la adopción de estas soluciones no solo acelera los ciclos de implementación de la IA, sino que también mejora la eficiencia operativa, lo que permite obtener información en tiempo real y acelerar la innovación a escala.

Una infraestructura de borde interconectada

En la era de la inteligencia basada en datos, la computación en el borde es fundamental. El éxito de la IA se basa, en última instancia, en la colaboración entre el entrenamiento centralizado y la inferencia local. Para lograrlo, necesita una infraestructura de borde interconectada en las ubicaciones adecuadas, cerca de sus fuentes de datos y usuarios finales, y conectada a nubes, proveedores de SaaS y otros socios de su ecosistema de IA.

Figura 2: Centros digitales interconectados en el borde

Con más de 270 centros de datos en 76 mercados de todo el mundo, Equinix tiene el alcance global para respaldar sus implementaciones de borde para IA. En nuestros centros de datos de alto rendimiento y preparados para IA, puede implementar una infraestructura flexible donde la necesite, optimizando costos y cumpliendo con las normativas.

Para obtener más información sobre la importancia de la computación de borde para reducir la latencia de la red para la IA, descargue nuestro informe técnico Dónde el borde se encuentra con la oportunidad de la IA .

EQUINIX Blog. M. Z. Traducido al español

Artículos relacionados

Huawei

Huawei presenta su visión de sinergia submarino-terrestre y orquestación óptica-inteligente

Huawei presentó su visión de sinergia submarino-terrestre y orquestación óptica-inteligente. En su debut en Submarine Networks World 2025, el principal evento de comunicaciones submarinas en Singapur, la compañía presentó una solución innovadora y productos estrella diseñados para facilitar la integración y la sinergia eficiente entre las redes submarinas y terrestres.

Continuar leyendo...
Nintendo

¡Despega con Mario en dos aventuras que desafían la gravedad!

¿Listo para explorar los confines del espacio? Super Mario Galaxy™ y Super Mario Galaxy 2 son dos aventuras icónicas de Mario, conocidas por sus plataformas desenfrenadas, sorpresas cósmicas y una banda sonora orquestada y envolvente. (Ah, y un dato curioso: ¡Super Mario Galaxy también fue la primera aparición de Rosalina y los Lumas!)

Continuar leyendo...
Scroll al inicio