El Portal de las Tecnologías para la Innovación

Categoría: Big Data y Analítica Avanzada

La solución de transmisión con cifrado cuántico basada en enrutador de Huawei supera las pruebas

Huawei y un operador líder de Asia-Pacífico han completado con éxito una prueba de transmisión de cifrado cuántico en una red IP. La prueba, que abarcó escenarios clave como la recepción y el uso de claves cuánticas, el cifrado cuántico, el rendimiento de reenvío y la fiabilidad, se centró en la plataforma de routers de última generación de Huawei y su solución de transmisión de claves cuánticas, basada en interfaces definidas por el Instituto Europeo de Normas de Telecomunicaciones (ETSI). Todos los resultados de las pruebas cumplieron con las expectativas, lo que valida la aplicabilidad universal de la solución VPN SRv6 de Huawei en el ámbito del cifrado cuántico. Esta solución sigue liderando los estándares del sector en métricas clave como la capacidad de reenvío, la latencia y el jitter de reenvío, y la fiabilidad, cumpliendo así los estrictos requisitos de sectores como el financiero en líneas y redes privadas en la era del cifrado cuántico. Para las grandes empresas, en particular las del sector financiero, la seguridad sigue siendo una preocupación primordial en las líneas privadas. Tecnologías de seguridad como el cifrado cuántico se utilizan para transmitir datos de transacciones y se espera que se conviertan en estándares nacionales e industriales obligatorios. Los operadores, con sus robustas redes IP y sus completos sistemas de servicios de red y líneas privadas, tienen ventajas inherentes al ofrecer servicios de transmisión de cifrado cuántico. La prueba exitosa de la solución de transmisión de cifrado cuántico basada en enrutador de Huawei proporciona una base técnica sólida para que el operador de nivel 1 de Asia-Pacífico implemente servicios de transmisión de cifrado cuántico. La naturaleza inquebrantable del cifrado cuántico es ampliamente reconocida en la industria. Como proveedor líder de productos y soluciones TIC, Huawei integra tecnologías de cifrado IP y cuántico para acelerar la comercialización con operadores, ofreciendo servicios de transmisión de cifrado inigualables a usuarios empresariales. Obtenga más información sobre las soluciones de seguridad de red de Huawei . HUAWEI Blog. Traducido al español

Leer más »

El Futuro de TI se Ejecuta en Almacenamiento Más Inteligente

Cómo la última versión de PowerStore te prepara para los qués a continuación. En Delllans reciente “¿Está Su Infraestructura Lista para la Era de la IA?” evento, los líderes de la industria dejaron una cosa clara: La IA no es solo otra carga de trabajo.  Es un cambio fundamental que exige un replanteamiento completo de la infraestructura de TI. A medida que las empresas preparan sus datos locales para la IA (sí, el 75% de los datos lo hará permanecer en las instalaciones), la modernización ya no es opcional.  Los gerentes de TI deben crear espacio para las iniciativas impulsadas por la IA mediante la creación de una agilidad sin precedentes en sus sistemas, al tiempo que abordan los crecientes costos de energía, las amenazas de seguridad y la complejidad. Estos desafíos han dado paso a una nueva era de TI, impulsada por tecnologías integradas definidas por software – con almacenamiento que ocupa un lugar central. El Ascenso de las Arquitecturas Desagregadas Modernas Hace una década, el modelo de 3 niveles era el estándar de oro para los departamentos de TI de la empresa y construyó silos separados para computación, almacenamiento y redes, conectándolos para impulsar las operaciones comerciales.  Efectivo en su tiempo, las configuraciones complejas, a menudo de múltiples proveedores, finalmente lucharon por seguir el ritmo de los ciclos modernos de implementación de “need it yesterday”. La infraestructura hiperconvergente (HCI) surgió como un antídoto, colapsando silos y racionalizando la gestión a través de la integración de software. Sin embargo, incluso HCI ahora se está agrietando bajo el peso de nuevas cargas de trabajo y realidades económicas cambiantes.  La IA, los contenedores y las aplicaciones de borde exponen desafíos clave, incluida la baja utilización de recursos, la incapacidad de escalar el cómputo y el almacenamiento de forma independiente y la dependencia rígida de un solo ecosistema de hipervisor. No Tus Padres de 3 Niveles Entra en lo moderno arquitecturas desglosadas. Al igual que sus predecesores tradicionales de 3 niveles, estos entornos avanzados proporcionan recursos de almacenamiento y cómputo escalables de forma independiente –, pero los componentes ya no funcionan de forma aislada. Los mejores diseños de centros de datos de hoy en día son definidos por software, agnósticos de hipervisor y automatizados de extremo a extremo.  Permiten a las empresas componer soluciones ampliamente integradas a alta velocidad – y, lo mejor de todo, están enfocadas en minimizar los costos. Si Su Almacenamiento Isnnot Agile, Usted Tampoco Para crear esta infraestructura de próxima generación, el almacenamiento es la consideración más crítica. La gravedad de los datos hace que el almacenamiento sea el punto focal para las operaciones comerciales de misión crítica – e its también donde se pueden lograr los mayores ahorros de costos a través de reducción de datos.  Sin embargo, las arquitecturas de almacenamiento han sido típicamente la parte menos flexible de la pila, creando barreras para la movilidad, la escalabilidad y la integración. PowerStore Dell cambia eso. “Software-first” por diseño, PowerStoreors único arquitectura activa/activa autónoma, reducción de datos siempre activa (garantizada a las 5:1¹), y soporte programable del ecosistema déle la flexibilidad y la eficiencia necesarias para implementaciones totalmente orquestadas. PowerStore se adapta a su TI en evolución – asegurando que su almacenamiento funcione con cargas de trabajo modernas, no contra ellas. Presentamos PowerStore 4.1 – la Próxima Evolución en Smart Storage Los últimos años Prime PowerStore el anuncio estableció un nuevo estándar para el almacenamiento inteligente, y la versión más reciente de PowerStore eleva el listón nuevamente con aún más automatización, integración y servicios de datos avanzados. Las mejoras clave incluyen: Análisis Impulsado por IA Seguridad y Resiliencia más fuertes Capacidades de Archivo Ampliadas Es hora de Pensar Fuera de la Caja Los días del hardware en silos y el software inflexible han terminado.  Prepárate para conectarte, adaptarte e innovar.  Construido para la era de la IA, PowerStore es más que solo almacenamiento – es su trampolín para lo que viene. Únase a nosotros en Dell Technologies World el próximo mes para explorar las muchas formas en que estamos revolucionando la infraestructura para ayudar a su negocio a convertir el cambio en una oportunidad. Obtenga más información sobre las ventajas clave de PowerStore 1 Tarifa promedio 5:1 garantizada en todas las aplicaciones de los clientes para datos reducibles. Las tarifas para aplicaciones individuales pueden variar. Consulte los términos y condiciones del programa Future-Proof para obtener más detalles. 2 Basado en pruebas internas de rendimiento de restauración usando Protección Directa de Almacenamiento entre PowerStore 5200T y DD6900 3 Basado en el análisis de Dell de las capacidades de contabilidad e informes de capacidad proporcionadas por los competidores de almacenamiento primario – mayo 2024. Dell Technologies Blog. M. H. Traducido al español

Leer más »

En Todas Partes, Todo a la Vez: NVIDIA Impulsa la Próxima Fase de Crecimiento de la IA

Ayer, NVIDIA anunció fabricará supercomputadoras de IA en los Estados Unidos por primera vez. En los próximos cuatro años, la compañía planea con sus socios producir hasta medio billón de dólares de infraestructura de IA en los Estados Unidos. Cada empresa y país quiere crecer y crear oportunidades económicas — pero necesitan inteligencia prácticamente ilimitada para hacerlo. Trabajando con sus socios del ecosistema, NVIDIA esta semana está subrayando su trabajo avanzando en el razonamiento, los modelos de IA y la infraestructura de cómputo para fabricar inteligencia en las fábricas de IA — impulsando la próxima fase de crecimiento en los Estados Unidos y en todo el mundo. Ayer, NVIDIA anunció fabricará supercomputadoras de IA en los Estados Unidos por primera vez. En los próximos cuatro años, la compañía planea con sus socios producir hasta medio billón de dólares de infraestructura de IA en los Estados Unidos. Se espera que la construcción de supercomputadoras NVIDIA AI en los Estados Unidos para las fábricas estadounidenses de IA cree oportunidades para cientos de miles de personas e impulse el crecimiento de billones de dólares en las próximas décadas. Algunos de los motores de cómputo NVIDIA Blackwell en el corazón de esas supercomputadoras AI ya se están produciendo en las fábricas TSMC en Arizona. NVIDIA anunció hoy que los sistemas a escala de rack NVIDIA Blackwell GB200 NVL72 son ahora disponible en CoreWeave para que los clientes entrenen modelos de IA de próxima generación y ejecuten aplicaciones a escala. CoreWeave tiene miles de procesadores NVIDIA Grace Blackwell disponibles ahora para entrenar e implementar la próxima ola de IA. Más allá de la innovación de hardware, NVIDIA también es pionera en el software de IA para crear modelos más eficientes e inteligentes. Marcando lo último en esos avances, el modelo NVIDIA Llama Nemotron Ultra fue reconocido hoy por Análisis Artificial como el modelo de razonamiento de código abierto más preciso del mundo para tareas de codificación científicas y complejas. Ahora también está clasificado entre los mejores modelos de razonamiento del mundo. Las hazañas de ingeniería de NVIDIAia sirven como base de todo. Ganó un equipo de ingenieros de NVIDIA primer lugar en la Olimpiada Matemática de IAcompitiendo contra 2.200 equipos para resolver problemas complejos de razonamiento matemático, que son clave para avanzar en el descubrimiento científico, disciplinas y dominios. Las mismas técnicas de post-entrenamiento y conjuntos de datos abiertos del esfuerzo ganador de NVIDIAia en la competencia de razonamiento matemático se aplicaron en el entrenamiento del modelo Llama Nemotron Ultra. La necesidad de inteligencia de los mundos es prácticamente ilimitada, y la plataforma de IA de NVIDIA ia está ayudando a satisfacer esa necesidad — en todas partes, todo a la vez. NVIDIA Blog. H. D. Traducido al español

Leer más »

Cómo la observabilidad se está ajustando a la IA generativa

Observabilidad es la capacidad de comprender el estado interno de un sistema analizando sus salidas externas, principalmente a través de datos de telemetría como , eventos, registros y trazas, colectivamente conocido como “MELT data.” La observabilidad va más allá de las soluciones de monitoreo tradicionales para proporcionar información crítica sobre los sistemas de software y computación en la nube entornos, ayudando a los equipos de TI a garantizar la disponibilidad, optimizar el rendimiento y detectar anomalías. La mayoría de los sistemas de TI se comportan de manera determinista, lo que hace que análisis de causa raíz bastante sencillo. Cuando una aplicación falla, las herramientas de observabilidad pueden usar datos MELT para correlacionar señales y detectar fallas, determinando si se trata de una fuga de memoria base de datos falla de conexión o tiempo de espera de API. Pero modelos de idiomas grandes (LLM) y otro inteligencia artificial generativa (IA) las aplicaciones complican la observabilidad. A diferencia del software tradicional, los LLM producen salidas probabilísticas, lo que significa que las entradas idénticas pueden producir respuestas diferentes. Esta falta de interpretabilidad—o la dificultad de rastrear cómo las entradas dan forma a las salidas— pueden causar problemas para las herramientas de observabilidad convencionales. Como resultado, la resolución de problemas, la depuración y el monitoreo del rendimiento son significativamente más complejos en los sistemas de IA generativa. «La observabilidad puede detectar si una respuesta de IA contiene información de identificación personal (PII), por ejemplo, pero no puede evitar que suceda,” explica Drew Flowers de IBM, Líder de Ventas de las Américas para Instana. “El proceso de toma de decisiones del modelo sigue siendo una caja negra.» Esto «caja negra» el fenómeno destaca un desafío crítico para la observabilidad de LLM. Si bien las herramientas de observabilidad pueden detectar problemas que han ocurrido, no pueden prevenir esos problemas porque luchan con la IA explicabilidad—la capacidad de proporcionar una razón comprensible para el ser humano por la cual un modelo tomó una decisión específica o generó una salida en particular. Hasta que se resuelva el problema de explicabilidad, las soluciones de observabilidad de IA deben priorizar las cosas que pueden medir y analizar de manera efectiva. Esto incluye una combinación de datos MELT tradicionales y métricas de observabilidad específicas de IA. Métricas críticas para la observabilidad de la IA gen Si bien las métricas tradicionales no proporcionan una visibilidad completa del comportamiento del modelo, siguen siendo componentes esenciales de la observabilidad de la IA. CPU, la memoria y el rendimiento de la red afectan directamente la funcionalidad del sistema de IA y la experiencia del usuario. Pueden ayudar a las organizaciones a evaluar la eficiencia con la que se ejecutan las cargas de trabajo de IA y si las restricciones de infraestructura están afectando el rendimiento del modelo y los tiempos de respuesta. Sin embargo, la observabilidad integral de la IA requiere métricas adicionales que monitoreen las cualidades específicas del comportamiento y los resultados del modelo de IA, que incluyen: Uso de tokens Un token es una unidad individual de language—, generalmente una palabra o una parte de una palabra—, que un modelo de IA puede entender. El número de tokens que un modelo procesa para comprender una entrada o producir una salida afecta directamente el costo y el rendimiento de una aplicación basada en LLM. Un mayor consumo de tokens puede aumentar los gastos operativos y la latencia de respuesta. Las métricas clave para rastrear el uso del token incluyen: Estas métricas pueden ayudar a las organizaciones a identificar oportunidades de optimización para reducir el consumo de tokens, como refinar las solicitudes para transmitir más información en menos tokens. Al optimizar la utilización de tokens, las organizaciones pueden mantener una alta calidad de respuesta al tiempo que reducen potencialmente los costos de inferencia aprendizaje automático cargas de trabajo. Modelo drift  A diferencia del software tradicional, los modelos de IA pueden cambiar gradualmente su comportamiento como mundo real datos evoluciona. Este fenómeno, conocido como modelo drift, puede afectar significativamente la confiabilidad y el rendimiento del sistema de IA. Las métricas clave para rastrear la deriva del modelo incluyen: Los mecanismos de detección de deriva pueden proporcionar alertas tempranas cuando la precisión de un modelo disminuye para casos de uso específicos, lo que permite a los equipos intervenir antes de que el modelo interrumpa las operaciones comerciales. Calidad de respuesta El monitoreo de la calidad de salida de IA es esencial para mantener la confianza, la confiabilidad y el cumplimiento. Las métricas clave para rastrear la calidad de la respuesta incluyen: Si bien el seguimiento de estas métricas puede ayudar a marcar respuestas anómalas, las herramientas de observabilidad no pueden explicar completamente por qué ocurren las alucinaciones, ni pueden determinar automáticamente la corrección del contenido generado por la IA. Estos son desafíos centrales para la confianza y la gobernanza de la IA que aún no han sido abordados por nadie. Monitoreo responsable de IA Garantizar la implementación ética de la IA y el cumplimiento normativo requiere un monitoreo integral del contenido generado por la IA. Métricas clave para el seguimiento IA responsable incluir: En tiempo real visualización los paneles con detección automatizada de anomalías pueden alertar a los equipos cuando las salidas de IA se desvían de las normas esperadas. Este enfoque proactivo ayuda a las organizaciones a abordar los problemas rápidamente, monitorear el rendimiento de la IA a lo largo del tiempo y garantizar la implementación responsable de la IA a escala. Mixture of Experts | 11 abril, episodio 50 OpenTelemetry y observabilidad de IA OpenTelemetry (OTel) se ha convertido en el marco estándar de la industria para recopilar y transmitir datos de telemetría, y también puede ayudar con la observabilidad generativa de la IA. Esto código abierto el proyecto proporciona un enfoque neutral para el proveedor de la observabilidad que es particularmente valioso en ecosistemas complejos de IA. Para los proveedores de IA, OpenTelemetry ofrece una forma de estandarizar la forma en que comparten los datos de rendimiento sin exponer los detalles del modelo propietario o el código fuente. Para las empresas, garantiza que los datos de observabilidad fluyan de manera consistente a través de tuberías de IA complejas que pueden incluir múltiples modelos, varias dependencias y recuperación de generación aumentada (RAG) sistemas. Los

Leer más »

Bloques de construcción más pequeños e inteligentes para la futura tecnología cuántica

Los científicos de EPFL han logrado un gran avance en el diseño de matrices de resonadores, los componentes básicos que impulsan las tecnologías cuánticas. Esta innovación podría crear dispositivos cuánticos más pequeños y precisos. Los Qubits, o bits cuánticos, son conocidos principalmente por su papel en la computación cuántica, pero también se utilizan en la simulación cuántica analógica, que utiliza un sistema cuántico bien controlado para simular otro más complejo. Un simulador cuántico analógico puede ser más eficiente que una simulación por ordenador digital, de la misma manera que es más sencillo utilizar un túnel de viento para simular las leyes de la aerodinámica en lugar de resolver muchas ecuaciones complicadas para predecir el flujo de aire. La clave tanto para la computación cuántica digital como para la simulación cuántica analógica es la capacidad de dar forma al entorno con el que interactúan los qubits. Una herramienta para hacer esto de manera efectiva es una matriz de cavidades acopladas (CCA), pequeñas estructuras hechas de múltiples cavidades de microondas dispuestas en un patrón repetitivo donde cada cavidad puede interactuar con sus vecinos. Estos sistemas pueden dar a los científicos nuevas formas de diseñar y controlar sistemas cuánticos. De manera similar a los electrones en los cristales, que pueden bloquear el flujo de electricidad a ciertas frecuencias, dando lugar a semiconductores y aislantes, en los CCA, la luz, en forma de fotones, solo puede propagarse a longitudes de onda específicas. Al adaptar cuidadosamente la geometría de estos resonadores, los científicos pueden seleccionar con precisión las longitudes de onda a las que pueden pasar los fotones y aquellas a las que pueden atravesar. Un equipo de EPFL, dirigido por el profesor Pasquale Scarlino, jefe de la Laboratorio de Circuitos Cuánticos Híbridos, en colaboración con el Dr. Marco Scigliuzzo de la Laboratorio de Fotónica y Mediciones Cuánticas en EPFL, y el profesor Oded Zilberberg de la Universidad de Konstanz, ha desarrollado un diseño innovador para un CCA que utiliza nitruro de niobio (NbN), un superconductor que se basa en una propiedad de material avanzada llamada alta inductancia cinética, en la que el laboratorio Scarlinoiss es un experto líder. Aprovechando la alta inductancia cinética, Scarlino y su equipo han demostrado una nueva clase de CCA donde cada cavidad está altamente miniaturizada y el trastorno no deseado en las frecuencias resonantes de todas las cavidades se mantiene al mínimo. Ambas características son críticas para lograr las funcionalidades requeridas en la computación cuántica futura y la simulación cuántica. La investigación, publicado en Naturaleza Comunicaciones, demostró su capacidad para crear una matriz compacta de hasta 100 cavidades de alta calidad. Mostraron cómo funcionan estas estructuras y las usaron para imitar un material llamado aislante topológico fotónico, que puede guiar la luz a lo largo de sus bordes de una manera muy controlada e inusual. “Ya estamos construyendo sobre este trabajo estudiando átomos artificiales acoplados a esta arquitectura,” dice Vincent Jouanny, el primer autor de los artículos. “Nuestro enfoque muestra que la compacidad y la precisión no son objetivos opuestos, sino herramientas complementarias para avanzar en la tecnología de dispositivos cuánticos,” dice Scarlino. “Este trabajo demuestra cómo el diseño reflexivo puede equilibrar la compacidad, la alta impedancia y el bajo desorden, lo que resulta en una plataforma versátil para matrices de cavidades acopladas que abre nuevas oportunidades para simulaciones cuánticas avanzadas y la exploración de fenómenos cuánticos Al aprovechar las propiedades únicas del nitruro de niobio, los investigadores de EPFL han abierto nuevas posibilidades para explorar sistemas cuánticos complejos y desarrollar plataformas escalables para futuras innovaciones. Este avance en el diseño de matriz de cavidades acopladas representa un paso significativo hacia dispositivos cuánticos más compactos, eficientes y confiables. EPFL News. S. P. Traducido al español

Leer más »

Oportunidades de red en el borde de la IA

Avanzamos rápidamente hacia un mundo digital hiperconectado donde la inteligencia artificial (IA) nos ayuda a gestionar, monetizar y materializar datos de forma innovadora.  En mi anterior entrada de blog de esta serie, analicé varias aplicaciones emergentes de IA y su impacto en la evolución de las redes IP. Esta entrada se centra en el papel que pueden desempeñar los proveedores de servicios de red (NSP) y las oportunidades de ingresos que pueden generar para facilitar la entrega de estas aplicaciones de IA de forma rentable y fiable. ¿Dónde está el dinero en la IA? La tecnología de IA evoluciona rápidamente, pero en muchos sentidos aún se encuentra en fase inicial. Hiperescaladores como Apple, Alibaba, Amazon, Google, Meta y Microsoft están invirtiendo miles de millones para construir los enormes centros de datos (y centrales eléctricas) que necesitan para entrenar grandes modelos lingüísticos como ChatGPT, Gemini, Llama y Qwen. Esta es la búsqueda de la inteligencia artificial general (IAG): construir agentes digitales cada vez más inteligentes que puedan replicar capacidades cognitivas humanas como leer, escribir, escuchar, hablar, aprender, razonar, operar máquinas y realizar tareas complejas. Figura 1. La inferencia de IA es esencial para monetizar las inversiones en entrenamiento de IA. Si bien la IA general es fundamental para las interacciones entre humanos y máquinas y para aplicaciones como los chatbots de IA y los asistentes virtuales, el mayor beneficio provendrá de las innumerables aplicaciones que usarán estos modelos de IA previamente entrenados para tareas, funciones y consultas de datos específicas en lo que se denomina «inferencia». Las aplicaciones de consumo, como la edición de fotos y la automatización del hogar inteligente, dependen cada vez más de la IA para interpretar datos privados e inferir decisiones cruciales. Esto mismo ocurre con numerosas aplicaciones en comercio, finanzas, sanidad, manufactura, transporte y seguridad pública. Estas aplicaciones de inferencia favorecen modelos de IA más especializados o «limitados», optimizados para tareas, entornos y conjuntos de datos específicos. Estos modelos limitados requieren menos recursos e incluso pueden funcionar independientemente de la nube en algunos casos. Cerrando la brecha con la nube Actualmente, la lógica de inferencia de IA reside en un centro de datos o en el dispositivo o las instalaciones del usuario. Transferir datos entre los dispositivos del usuario y los centros de datos requiere tiempo, dinero y conlleva riesgos. Además de las limitaciones prácticas de escalabilidad impuestas por las limitaciones de energía y espacio, no queremos que los centros de datos se vuelvan demasiado grandes como para quebrar debido a desastres naturales o provocados por el hombre. Del lado del usuario, existen miles de millones de dispositivos muy diversos y ampliamente dispersos, y miles de organizaciones que podrían beneficiarse de la IA. Sin embargo, es posible que estas organizaciones no siempre cuenten con el hardware o los recursos de TI necesarios, o que aún deban depender de recursos externos de computación y almacenamiento de IA para algunas aplicaciones o funciones (por ejemplo, nube híbrida e inferencia dividida). Alojar cargas de trabajo de inferencia de IA en el borde de la red, entre centros de datos centralizados y dispositivos de usuario, cerrará esta brecha y abordará los siguientes desafíos: Figura 2. Reducir la brecha entre los usuarios y la nube con inferencia de borde de IA A diferencia de los centros de datos centralizados, que deben planificarse y dimensionarse cuidadosamente con antelación para gestionar la demanda prevista, el desarrollo de la nube perimetral con IA puede basarse en gran medida en la demanda. Además, la computación perimetral con IA puede descargar los centros de datos y el tráfico de red mediante el preprocesamiento y la selección de datos sin procesar. Pero la pregunta es: ¿quién la construiría y la operaría? Al borde de un mundo hiperconectado Los proveedores de servicios en la nube (CSP) no pueden conectar fácilmente sus centros de datos en la nube con los usuarios finales por sí solos. Cuentan con la tecnología, pero la mayoría suele recurrir a proveedores de intercambio de colocation de centros de datos (CXP), como Equinix, para alojar sus servidores y así extender su presencia en la nube a grandes metrópolis y ciudades. Ir más allá sería ir demasiado lejos debido a las leyes de soberanía de datos y a los costos insuperables y los desafíos logísticos que supone adquirir, equipar, operar y mantener ubicaciones edge adecuadas a escala global. Los proveedores de servicios de red (NSP) —operadores de telecomunicaciones, operadores de cable y operadores móviles— viven literalmente en la periferia de este mundo digital hiperconectado. Pueden aprovechar su presencia local, activos inmobiliarios, infraestructura de red y servicios profesionales para permitir que los desarrolladores de nubes y los proveedores de infraestructura digital escalen horizontalmente la nube perimetral de IA. La transición de las conexiones de línea de abonado digital (DSL) sobre bucles de cobre tradicionales a las redes ópticas pasivas (PON) sobre fibra óptica está liberando valiosos recursos de espacio y energía en oficinas centrales y distribuidas. Los NSP pueden utilizar estos recursos para alojar infraestructura de servidores de IA para desarrolladores de nubes, socios de infraestructura digital, grandes empresas y para su propio uso privado. En función de sus capacidades y su zona de confort, los proveedores de servicios de educación financiera (PNS) pueden considerar ofrecer una gama de servicios de valor añadido. Por ejemplo, un NSP podría: Impulsar el crecimiento de los ingresos con servicios de inferencia de borde de IA La inferencia de borde con IA presenta enormes oportunidades de crecimiento para los proveedores de servicios de red. La conectividad es un factor clave para la era de la IA, pero por sí sola no será suficiente para aprovechar al máximo su valor en nuestro mundo digital hiperconectado. Participar activamente en el desarrollo de la nube de borde con IA con servicios de alojamiento de valor añadido permitirá a los proveedores de servicios de red monetizar los servicios de conectividad de forma más eficaz. Les permite pasar de ser meros intermediarios a convertirse en facilitadores de servicios de valor añadido que generan nuevas fuentes de ingresos,

Leer más »

ELD: Presentamos una nueva herramienta de enlace integrado de código abierto para sistemas integrados

En Qualcomm Technologies, Inc., los enlazadores integrados juegan un papel crucial en nuestra pila de software. Si bien muchos enlazadores funcionan bien en las plataformas tradicionales, a menudo se quedan cortos cuando se trata de sistemas integrados. Los proyectos integrados tienen requisitos únicos, tales como: Para abordar estos desafíos, desarrollamos un enlazador llamado eld, que se deriva de mclinker. Este enlazador está diseñado para trabajar con archivos ELF y está diseñado específicamente para satisfacer las necesidades de la comunidad integrada. El enlazador eld se incluye en las cadenas de herramientas del compilador Qualcomm y aprovecha los componentes y bibliotecas de LLVM siempre que sea posible. Nuestros clientes confían en eld para crear imágenes que se ejecutan en el hardware de Qualcomm Technologies. ¡Estamos emocionados de abrir el código eld linker! Nuestro objetivo es colaborar con las comunidades de software de enlace y sistema para desarrollar nuevas características y mejorar sus capacidades. Descargar eld de GitHub Características El enlazador es totalmente compatible con los estándares GNU, abarcando la lectura de archivos de entrada, resolución de símbolos y la generación de salida compatible con GNU. El enlazador admite los siguientes objetivos: El enlazador incorpora varias características comúnmente disponibles en enlazadores compatibles con GNU, incluyendo: Además, el enlazador ofrece soporte maduro para scripts de enlazador con extensiones personalizadas. Características Extendidas El enlazador también incluye numerosas características destinadas a mejorar la experiencia del usuario, tales como: Enlazadores Plugins En respuesta a la creciente demanda de los clientes para inspeccionar y alterar los diseños de imágenes, ampliar la funcionalidad del enlazador para casos de uso imprevistos y generar informes personalizados, hemos desarrollado complementos de enlazador. Estos complementos permiten a los clientes crear pases personalizados que se ejecutan durante el tiempo de enlace, ofreciendo un control y administración completos del usuario por parte del enlazador, con un enfoque en el diagnóstico. La infraestructura del plugin también permite a los desarrolladores de toolchain tratar el enlazador como un componente transparente, facilitando la gestión cuidadosa de los supuestos en la imagen, emitiendo errores o advertencias si se violan los supuestos, y codificando información en el código fuente para el consumo del enlazador. Esta infraestructura también ayuda a los desarrolladores de compiladores con las decisiones de diseño, lo que les permite: Productos de Qualcomm Technologies que utilizan el enlazador El enlazador se emplea en varios productos de Qualcomm Technologies’, que incluyen: Linker Source Organización El código fuente del enlazador se clasifica en tres secciones principales: El enlazador central abarca las características más críticas, mientras que las anulaciones específicas del objetivo facilitan la personalización de la funcionalidad proporcionada por el enlazador central. Esta encapsulación permite a los desarrolladores modificar y mejorar la funcionalidad específica del objetivo sin afectar a otros objetivos. Las pruebas unitarias se dividen en dos categorías: Pruebas El enlazador incluye un conjunto completo de casos de prueba unitarios que están diseñados para ser fácilmente legibles y modificables. Estas pruebas cubren tanto el enlazador en sí como varios ejemplos de complementos de enlazador, lo que ayuda a los clientes a comprender la sólida infraestructura de complementos de enlazador. Nuestro equipo también realiza pruebas para aplicaciones internas en plataformas simuladas y en dispositivos. Documentación eld El enlazador está acompañado por documentación completa orientada al usuario eso aclara el comportamiento del enlazador, así como un FAQ completo que aborda problemas y soluciones comunes.  Conéctate con nosotros El equipo se dedica a evaluar e introducir continuamente características que se centran en la comunidad integrada. Lo invitamos a unirse a nuestros esfuerzos para mejorar el enlazador y mejorar la solución. No dude en abrir cualquier problema en el que desee trabajar en GitHub o comparta casos de uso que actualmente no admitimos. Observaciones de Cierre Esperamos que la solución de enlazador integrado aborde los casos de uso que pretende resolver. También nos gustaría reconocer el equipo mayor y todo nuestro equipo LLVM por sus continuas contribuciones para mejorar el enlazador. Si tiene alguna idea para compartir o desea hablar con nosotros, no lo dude para llegar a nuestro equipo en GitHub. Qualcomm News. S. K. E. Traducido al español

Leer más »

Nokia, Digita y CoreGo colaboran para mejorar la experiencia del cliente en grandes eventos

Nokia y Digita anunciaron hoy que están ampliando su asociación con CoreGo, una compañía especializada en soluciones de pago y control de acceso para eventos, para proporcionar una transmisión de datos segura y confiable para grandes eventos finlandeses e internacionales.  10 De abril de 2025 Espoo, Finlandia – Nokia y Digita anunciaron hoy que están ampliando su asociación con CoreGo, una compañía especializada en soluciones de pago y control de acceso para eventos, para proporcionar una transmisión de datos segura y confiable para grandes eventos finlandeses e internacionales. Esta colaboración ha permitido múltiples implementaciones en los últimos dos años, ha beneficiado a los organizadores deportivos y de festivales con una conectividad confiable y ha mejorado significativamente la experiencia del cliente de más de 2 millones de asistentes a eventos en Europa. El CoreGo POS combinado con Nokia Digital Automation Cloud (DAC)la red inalámbrica privada de ’permite a los organizadores de eventos utilizar y mover fácilmente la red privada según sea necesario para permitir una gestión fluida de los pagos in situ en los lugares. Implementada por Digita, la red privada 5G garantiza la transferencia de datos ininterrumpida y en tiempo real para sistemas de eventos críticos como la gestión de inventario, terminales de pago, control de acceso y validación de tickets que cumplen con los requisitos de las empresas modernas y los entornos dinámicos. La solución garantiza confiabilidad, seguridad y escalabilidad para satisfacer las necesidades de grandes eventos.  Las redes privadas han demostrado ser una tecnología crucial para grandes eventos públicos donde la transferencia de datos en tiempo real e ininterrumpida es crítica. Apoyan el éxito de los eventos al permitir la venta y verificación de boletos electrónicos eficientes, transacciones de pago confiables, uso fluido de la señalización digital y control de acceso seguro. Además, las redes privadas permiten el análisis avanzado de datos en tiempo real, la participación interactiva de los fanáticos, las comunicaciones críticas del personal y los servicios basados en la ubicación geográfica que mejoran aún más la experiencia general de los huéspedes.  “Nuestro objetivo es mejorar la experiencia del cliente y apoyar a los trabajadores de la organización y los eventos de la mejor manera posible al permitir la conciencia situacional en tiempo real. Entregada a través de nuestros socios a largo plazo, Nokia y Digita, la solución inalámbrica privada permitió una experiencia de servicio de primera clase, con el control de acceso y el pago desempeñando un papel crucial, dijo Hannu Elomaa, CEO y fundador de CoreGo. “Estamos orgullosos de que CoreGo nos haya elegido como su socio para implementar redes de eventos críticos en Finlandia e internacionalmente. Este acuerdo fortalece nuestra experiencia en la entrega de soluciones de red de alta calidad, escalables y confiables, apoyando nuestra estrategia para expandirnos a los países nórdicos. La tecnología Nokia garantiza que la transferencia de datos de eventos funcione de manera confiable y eficiente, dijo Pekka Koskinen, Jefe de Ventas de Redes Privadas en Digita.  “Las redes privadas 5G implementadas con potentes capacidades de procesamiento en la nube de borde están transformando la industria de eventos. Los visitantes del evento ahora tienen acceso seguro a servicios bien conectados desde el momento en que compran su boleto hasta cuando salen del lugar. Hemos colaborado con éxito con Digita y CoreGo en múltiples proyectos, y es genial ver que la tecnología privada 5G demuestra su capacidad para asegurar una transmisión de datos confiable en grandes eventos, dijo Michael Aspinall, Director de Ventas de Enterprise Campus Edge, Europa en Nokia  Multimedia, información técnica y noticias relacionadasPágina del Producto: Nokia DAC Inalámbrico Privado NOKIA News. Traducido al español

Leer más »

Explorando el Computo Híbrido Clásico-Cuántico

Dell Technologies’ Plataforma para Modelar Aplicaciones Cuánticas Usando IBM Qiskit Runtime Emulator Satisfacer las necesidades de la cantidad cada vez mayor de datos en la economía digital actual requerirá una expansión exponencial de nuestra capacidad de cómputo a través de una colección de arquitecturas informáticas distribuidas y diversas que se unen para funcionar como un sistema – que incluye el espacio en constante evolución de la computación cuántica. La computación cuántica ofrece una aceleración potencial para casos de uso de algoritmos de simulación, optimización y aprendizaje automático. Los equipos de TI de todo el mundo están explorando cómo la computación cuántica influye en las operaciones futuras y, a medida que dan sus primeros pasos, existe una percepción errónea común de que la computadora cuántica reemplazará toda la computación clásica y, por lo tanto, solo se puede acceder a ella utilizando un dispositivo cuántico físico, ya sea localmente o a través del acceso remoto a la nube. De hecho, en esta etapa del desarrollo de las tecnologías, es posible recrear partes clave del entorno cuántico en recursos clásicos, haciendo que la tecnología sea más accesible para los líderes de TI que desean explorar la tecnología, así como para aquellos que ya han dado sus primeros pasos y desean refinar sus algoritmos existentes. Esto puede tomar la forma de un simulador que recrea los aspectos cuánticos de un sistema cuántico, o un emulador, que recrea los aspectos cuánticos y clásicos de un sistema cuántico. Dell Technologies trabajó recientemente para probar una plataforma de emulación híbrida que aprovecha Dell PowerEdge R740xd y está construida con el servicio en contenedores de código abierto de IBM para computadoras cuánticas, Qiskit Runtime. La plataforma permite al usuario replicar Qiskit Runtime localmente y explorar cómo se ejecutarán las aplicaciones cuánticas, utilizando un emulador. “Esta plataforma de emulación híbrida representa un importante paso adelante para el Ecosistema Qiskit y la industria cuántica en su conjunto,” dijo Jay Gambetta, Vicepresidente de Quantum en IBM. “La plataforma permite a los usuarios trabajar con Qiskit Runtime en sus propios recursos clásicos, lo que facilita que tanto los nuevos usuarios como los desarrolladores cuánticos establecidos construyan y refinen sus algoritmos. Esperamos trabajar con Dell para expandir los horizontes de la industria cuántica.” El entorno Qiskit Runtime es capaz de ejecutar cálculos utilizando hardware cuántico que anteriormente habría tomado varias semanas en un solo día. Como parte del proyecto Qiskit, la tecnología es completamente de código abierto, lo que permite integraciones e innovaciones de terceros para avanzar en la industria. La plataforma de emulación híbrida ayudará a que el ecosistema de desarrolladores sea más accesible y acelerará la exploración de casos de uso y el desarrollo de algoritmos. Los detalles completos de la solución probada están disponibles en GitHub. Las conclusiones clave de la prueba incluyen lo siguiente: Configuración Rápida – La plataforma ejecuta el procesamiento clásico y cuántico en plataformas nativas de la nube, como Kubernetes. Los clientes pueden implementar fácilmente en la infraestructura local. Anteriormente, los usuarios tenían que enviar sus datos y cargas de trabajo para su procesamiento a través de la nube. Tiempo Más Rápido para Resultar – Cada circuito cuántico ya no necesita ser ejecutado y esperar en cola por separado. Los componentes clásicos de los algoritmos están estrechamente integrados con los recursos cuánticos, obteniendo una mejora en el rendimiento y reduciendo el tiempo de desarrollo. Mayor Seguridad – El cálculo clásico, incluido el procesamiento de datos, la optimización y la ejecución de algoritmos, se puede ejecutar en las instalaciones, proporcionando una privacidad y seguridad mucho más altas, por lo que no es necesario enviar datos y cargas de trabajo a un tercero. Eficiencia de Costos y Elección – Aprovechar la capacidad a través de una solución de infraestructura local puede proporcionar una mayor eficiencia de costos y beneficios sobre los proveedores de servicios en la nube tradicionales. Además, este modelo proporciona flexibilidad al elegir soluciones cuánticas, ya que puede ejecutarse utilizando el simulador Qiskit Aer u otras soluciones comparables. A medida que crecen los volúmenes de carga de trabajo para la computación cuántica, la infraestructura clásica, compuesta por servidores y escritorios tradicionales, así como almacenamiento, redes, GPU y FPGA, también debe escalar en consecuencia. Los líderes de TI necesitan una plataforma que les permita modelar de manera eficiente cálculos cuánticos y clásicos en su infraestructura existente –, que es exactamente lo que proporciona la plataforma de emulación híbrida. Por favor visite esto enlace para obtener más información sobre la plataforma de Emulación Híbrida. Solo estamos rascando la superficie de la computación cuántica. Esta solución probada destaca nuevas oportunidades rentables para explorar la computación cuántica. Dell Technologies Blog. J. R. Traducido al español

Leer más »
Scroll al inicio