El Portal de las Tecnologías para la Innovación

Oportunidades de red en el borde de la IA

Avanzamos rápidamente hacia un mundo digital hiperconectado donde la inteligencia artificial (IA) nos ayuda a gestionar, monetizar y materializar datos de forma innovadora.

 En mi anterior entrada de blog de esta serie, analicé varias aplicaciones emergentes de IA y su impacto en la evolución de las redes IP. Esta entrada se centra en el papel que pueden desempeñar los proveedores de servicios de red (NSP) y las oportunidades de ingresos que pueden generar para facilitar la entrega de estas aplicaciones de IA de forma rentable y fiable.

¿Dónde está el dinero en la IA?

La tecnología de IA evoluciona rápidamente, pero en muchos sentidos aún se encuentra en fase inicial. Hiperescaladores como Apple, Alibaba, Amazon, Google, Meta y Microsoft están invirtiendo miles de millones para construir los enormes centros de datos (y centrales eléctricas) que necesitan para entrenar grandes modelos lingüísticos como ChatGPT, Gemini, Llama y Qwen. Esta es la búsqueda de la inteligencia artificial general (IAG): construir agentes digitales cada vez más inteligentes que puedan replicar capacidades cognitivas humanas como leer, escribir, escuchar, hablar, aprender, razonar, operar máquinas y realizar tareas complejas.

Figura 1. La inferencia de IA es esencial para monetizar las inversiones en entrenamiento de IA.

Figura 1

Si bien la IA general es fundamental para las interacciones entre humanos y máquinas y para aplicaciones como los chatbots de IA y los asistentes virtuales, el mayor beneficio provendrá de las innumerables aplicaciones que usarán estos modelos de IA previamente entrenados para tareas, funciones y consultas de datos específicas en lo que se denomina «inferencia».

Las aplicaciones de consumo, como la edición de fotos y la automatización del hogar inteligente, dependen cada vez más de la IA para interpretar datos privados e inferir decisiones cruciales. Esto mismo ocurre con numerosas aplicaciones en comercio, finanzas, sanidad, manufactura, transporte y seguridad pública. Estas aplicaciones de inferencia favorecen modelos de IA más especializados o «limitados», optimizados para tareas, entornos y conjuntos de datos específicos. Estos modelos limitados requieren menos recursos e incluso pueden funcionar independientemente de la nube en algunos casos.

Cerrando la brecha con la nube

Actualmente, la lógica de inferencia de IA reside en un centro de datos o en el dispositivo o las instalaciones del usuario. Transferir datos entre los dispositivos del usuario y los centros de datos requiere tiempo, dinero y conlleva riesgos. Además de las limitaciones prácticas de escalabilidad impuestas por las limitaciones de energía y espacio, no queremos que los centros de datos se vuelvan demasiado grandes como para quebrar debido a desastres naturales o provocados por el hombre. Del lado del usuario, existen miles de millones de dispositivos muy diversos y ampliamente dispersos, y miles de organizaciones que podrían beneficiarse de la IA. Sin embargo, es posible que estas organizaciones no siempre cuenten con el hardware o los recursos de TI necesarios, o que aún deban depender de recursos externos de computación y almacenamiento de IA para algunas aplicaciones o funciones (por ejemplo, nube híbrida e inferencia dividida).

Alojar cargas de trabajo de inferencia de IA en el borde de la red, entre centros de datos centralizados y dispositivos de usuario, cerrará esta brecha y abordará los siguientes desafíos:

  • Reduzca la dependencia de centros de datos centralizados distribuyendo la carga de millones de interacciones diarias de usuarios en un gran conjunto de servidores informáticos de borde de IA con redundancia geográfica.
  • Reduzca los costos y la latencia del ancho de banda de la red (tiempos de ida y vuelta de los paquetes de datos) al acercar la lógica de inferencia de IA a los dispositivos del usuario y las fuentes de datos.
  • Reduzca la exposición a la congestión de la red, la ciberseguridad y los riesgos de privacidad o soberanía de los datos manteniendo el tráfico de datos dentro de los perímetros de una única red administrada.

Figura 2. Reducir la brecha entre los usuarios y la nube con inferencia de borde de IA

Figura 2. Muestra la vista de la red de área amplia que conecta los centros de datos de la era de la IA y los usuarios finales.

A diferencia de los centros de datos centralizados, que deben planificarse y dimensionarse cuidadosamente con antelación para gestionar la demanda prevista, el desarrollo de la nube perimetral con IA puede basarse en gran medida en la demanda. Además, la computación perimetral con IA puede descargar los centros de datos y el tráfico de red mediante el preprocesamiento y la selección de datos sin procesar. Pero la pregunta es: ¿quién la construiría y la operaría?

Al borde de un mundo hiperconectado

Los proveedores de servicios en la nube (CSP) no pueden conectar fácilmente sus centros de datos en la nube con los usuarios finales por sí solos. Cuentan con la tecnología, pero la mayoría suele recurrir a proveedores de intercambio de colocation de centros de datos (CXP), como Equinix, para alojar sus servidores y así extender su presencia en la nube a grandes metrópolis y ciudades. Ir más allá sería ir demasiado lejos debido a las leyes de soberanía de datos y a los costos insuperables y los desafíos logísticos que supone adquirir, equipar, operar y mantener ubicaciones edge adecuadas a escala global.

Los proveedores de servicios de red (NSP) —operadores de telecomunicaciones, operadores de cable y operadores móviles— viven literalmente en la periferia de este mundo digital hiperconectado. Pueden aprovechar su presencia local, activos inmobiliarios, infraestructura de red y servicios profesionales para permitir que los desarrolladores de nubes y los proveedores de infraestructura digital escalen horizontalmente la nube perimetral de IA. La transición de las conexiones de línea de abonado digital (DSL) sobre bucles de cobre tradicionales a las redes ópticas pasivas (PON) sobre fibra óptica está liberando valiosos recursos de espacio y energía en oficinas centrales y distribuidas. Los NSP pueden utilizar estos recursos para alojar infraestructura de servidores de IA para desarrolladores de nubes, socios de infraestructura digital, grandes empresas y para su propio uso privado.

En función de sus capacidades y su zona de confort, los proveedores de servicios de educación financiera (PNS) pueden considerar ofrecer una gama de servicios de valor añadido. Por ejemplo, un NSP podría:

  • Ofrecer servicios de coubicación con acceso a fibra para centros de datos de contenedores en parques empresariales, centros comerciales, aeropuertos, hospitales y otros lugares que requieran servicios informáticos de IA locales.
  • Alquile espacio en piso o en rack para alojar servidores de computación de IA en oficinas centrales de telecomunicaciones y ofrezca servicios de energía, refrigeración, instalación y mantenimiento, conectividad de fibra segura (cuánticamente segura) y servicios de red privada virtual (VPN).
  • Ofrecer servicios de alojamiento de software y computación de IA en nombre de socios y clientes mayoristas, así como para aplicaciones de telecomunicaciones internas como AI RAN y AI NetOps.

Impulsar el crecimiento de los ingresos con servicios de inferencia de borde de IA

La inferencia de borde con IA presenta enormes oportunidades de crecimiento para los proveedores de servicios de red. La conectividad es un factor clave para la era de la IA, pero por sí sola no será suficiente para aprovechar al máximo su valor en nuestro mundo digital hiperconectado. Participar activamente en el desarrollo de la nube de borde con IA con servicios de alojamiento de valor añadido permitirá a los proveedores de servicios de red monetizar los servicios de conectividad de forma más eficaz. Les permite pasar de ser meros intermediarios a convertirse en facilitadores de servicios de valor añadido que generan nuevas fuentes de ingresos, mejoran la experiencia del cliente e inspiran su fidelidad.

Para obtener más información sobre este tema, consulte mi charla en el Congreso Mundial de IA MPLS SDN. Para más información sobre nuestras soluciones de red IP para IA, visite https://www.nokia.com/ip-networks/ai/ . NOKIA Blog. A. J. Traducido al español

Artículos relacionados

Scroll al inicio