El Portal de las Tecnologías para la Innovación

Categoría: Nube e Infraestructura como Servicio

Nokia completa la adquisición de Infinera para crear una potencia de innovación en redes ópticas, con la escala para impulsar la revolución del centro de datos

La adquisición reúne a dos líderes en innovación con una historia de primicias de la industria. 28 De febrero de 2025Espoo, Finlandia — Nokia anunció hoy el cierre de la adquisición de Infinera Corporation. La compañía con sede en San José se ha convertido en parte de Nokia efectiva a partir del cierre. La adquisición reúne a dos líderes en innovación con una historia de primicias de la industria. Al hacerlo, crea una potencia de redes ópticas con la escala para acelerar las hojas de ruta de los productos, ampliando aún más la capacidad de Nokia para ayudar a los operadores de red – ya sean proveedores de servicios, escaladores web o empresas – a desbloquear las oportunidades y satisfacer las demandas de red y energía de la era de la IA. “Estoy encantado de haber podido completar rápida y exitosamente la adquisición de Infinera. Esta transacción mejorará significativamente nuestra escala y rentabilidad en redes ópticas, y nos permite acelerar el ritmo de la innovación para cumplir con los requisitos de la era de la IA. La adquisición de Infinera acelerará nuestra estrategia de crecimiento en los centros de datos y fortalecerá nuestra presencia tanto en América del Norte como con clientes en escala web, comentó Pekka Lundmark, Presidente y CEO de Nokia. “La velocidad con la que se aprobó la transacción es muy positiva para Nokia, al igual que el fuerte apoyo que ha recibido el acuerdo de los clientes. Al dar la bienvenida a nuestros nuevos colegas – y el talento y la experiencia que traen consigo – estamos creando una nueva organización que marcará el ritmo de la innovación, ofreciendo capacidades en una amplia gama de tecnologías de redes ópticas, respaldadas por la investigación de vanguardia de Nokia Bell Labs. La innovación se beneficia de la escala, y la expansión ofrecida por la adquisición significa que podremos llevar más a los clientes, más rápido, ” comentó Federico Guillén, presidente de Infraestructura de Red en Nokia. El equipo de Infinera se unirá al negocio de Redes Ópticas de Nokiaians – encabezado por su Vicepresidente y Gerente General, James Watt. Mientras tanto, el CEO de Infinera, David Heard, se unirá al grupo empresarial de Infraestructura de Red de Nokia como Director de Crecimiento Estratégico de NI. En esta posición, ayudará a establecer y supervisar la implementación de los planes de crecimiento de las agrupaciones empresariales, incluidas las estrategias específicas del segmento de clientes, la combinación de productos y mercados y el enfoque de comercialización en todo el grupo empresarial. “Estoy encantado de dar la bienvenida a David a Nokia y a Network Infrastructure. Su amplia experiencia en tecnología e implementación de estrategias comerciales desempeñará un papel de liderazgo para ayudar a nuestro grupo empresarial a aprovechar las oportunidades en el mercado y lograr nuestras ambiciones en todos nuestros mercados y áreas comerciales, agregó Guillén. “Desde un fuerte crecimiento en el espacio de escala web hasta los éxitos de los proveedores de servicios que abarcan redes metropolitanas, de larga distancia y submarinas, los logros probados del equipo de Infinera son un complemento ideal para el reconocido liderazgo e innovación de la red óptica de Nokia. Iicim entusiasmado con las oportunidades ampliamente ampliadas que abre este nuevo capítulo y lo que significa para Nokia y su negocio de Infraestructura de Red, y encantado de unirse al equipo para ayudar a acelerar su crecimiento en todos los segmentos de clientes en todo el mundo, dijo Heard. Con más de 1,000 clientes en todo el mundo, las soluciones combinadas de compañías impulsan a algunos de los operadores más grandes del mundo, junto con organizaciones líderes en verticales que incluyen empresas, servicios públicos, gobierno e investigación y educación.   Cumplir con los desafíos de la era de la IA Los centros de datos están en un punto de inflexión a medida que la IA y la nube les imponen nuevas demandas masivas. Para superar estos desafíos se requieren nuevas formas de pensar sobre la tecnología del centro de datos que enfatice los aspectos de misión crítica de la tecnología de redes. Las ofertas de Nokia en toda la cartera de Infraestructura de red aplican los mismos estándares de misión crítica a los clientes en todos los sectores, desde proveedores de servicios hasta escaladores web y organizaciones en una amplia gama de sectores industriales. Dirigiendo el poder de la innovación hacia temas como la confiabilidad, la seguridad y la sostenibilidad –, así como la capacidad, la flexibilidad y la capacidad de administración – Nokia está en una posición sólida para aportar valor a los constructores y usuarios de centros de datos, incluso en el centro de datos para conexiones de servidor a servidor para soportar las crecientes demandas de nuevas cargas de trabajo de IA. 200 Millones EUR de objetivo de sinergia reconfirmados El 28 de junio de 2024, Nokia e Infinera anunciaron que las compañías habían firmado un acuerdo definitivo en virtud del cual Nokia adquiriría Infinera por US$6.65 por acción con accionistas capaces de elegir efectivo, acciones de Nokia o una combinación de ambas con un mecanismo de prorrateo que limita la emisión de acciones de Nokia a aproximadamente el 30% de la contraprestación agregada pagada a los accionistas de Infinera. Todas las acciones de Nokia se emitirán a los accionistas de Infinera en forma de Acciones Depositarias Americanas. Nokia anunció en ese momento y reconfirma hoy que espera que la transacción se incremente al beneficio operativo comparable de Nokia y EPS en 2025 y Nokia continúa apuntando a más de EUR 200 millones de sinergias netas de ganancias operativas comparables del acuerdo para 2027 con las sinergias aumentando gradualmente durante el período de tres años. Se espera que la transacción entregue más del 10% de acreción de EPS comparable en 2027. NOKIA News. Traducido al español

Leer más »

Qualcomm e IBM Scale Enterprise-grade Generative AI de Edge a Cloud

 A través de esta colaboración, las compañías planean integrar watsonx.governance para soluciones de IA generativas impulsadas por las plataformas Qualcomm Technologies’ y permitir el soporte para los modelos IBM de Granite a través de Qualcomm® AI Inference Suite y Qualcomm® AI Hub. Destacados:  Antes del MWC Barcelona 2025, Qualcomm Technologies, Inc. e IBM anunciaron una colaboración ampliada para impulsar soluciones de inteligencia artificial generativa (IA) de nivel empresarial en dispositivos de borde y en la nube diseñados para permitir una mayor inmediatez, privacidad, confiabilidad, personalización y menor costo y consumo de energía. A través de esta colaboración, las compañías planean integrar watsonx.governance para soluciones de IA generativas impulsadas por las plataformas Qualcomm Technologies’ y permitir el soporte para los modelos IBM de Granite a través de Qualcomm® AI Inference Suite y Qualcomm® AI Hub. «En Qualcomm Technologies, estamos entusiasmados de unir fuerzas con IBM para ofrecer soluciones de IA generativas de vanguardia y de nivel empresarial para dispositivos a través del borde y la nube, dijo Durga Malladi, vicepresidente senior y gerente general de planificación tecnológica y soluciones de borde de Qualcomm Technologies, Inc. “Esta colaboración permite a las empresas implementar soluciones de IA que no solo son rápidas y personalizadas, sino que también vienen con capacidades sólidas de gobernanza, monitoreo y toma de decisiones, con la capacidad de mejorar la confiabilidad general de la IA desde el borde hasta la nube.» «Profundizar nuestra colaboración con Qualcomm Technologies fortalece nuestra capacidad de llevar la IA generativa de nivel empresarial desde la nube al límite, dijo Ritika Gunnar, gerente general de datos e IA de IBM. “Al optimizar los modelos watsonx.governance y Granite de IBM para su uso con las plataformas Snapdragon y Qualcomm Dragonwing, estamos ayudando a las empresas a capitalizar el poder transformador de la IA sin importar dónde residan los datos. Es un gran ejemplo del poder de la asociación.” Las plataformas Qualcomm son compatibles con IBM watsonx.governance y Granite Models Expandiendo sobre un anuncio en CES, Qualcomm Technologies e IBM planean ejecutar modelos watsonx.govenance, Granite Guardian 8B y Granite 3.1 8B en un diseño de referencia Snapdragon® 8 Elite y la Qualcomm Dragonwing™ AI On-Prem Appliance Solution con Qualcomm AI Inference Suite. Estos modelos funcionan en conjunto para proporcionar soluciones de IA generativas de extremo a extremo que se ejecutan en el borde y que contienen barandillas para controlar las implementaciones y operaciones del modelo, monitorear y mejorar la toma de decisiones. A través de esta colaboración, Qualcomm Technologies e IBM están combinando inferencia en el dispositivo, baja potencia y características de privacidad con el rendimiento de watsonx para ayudar a abordar la seguridad, la eficiencia, la confiabilidad y la gobernanza de las soluciones de IA para empresas. Qualcomm AI Hub + IBM Granite Models Qualcomm Technologies ha optimizado los modelos de lenguaje insignia de IBM de Granite 3.1, IBM de tercera generación de Granite, para Qualcomm AI Hub para ayudar a los desarrolladores y empresas a aprovechar todo el potencial de la IA en el borde. Las compañías ampliarán la colaboración de Qualcomm AI Hub e IBM watsonx para incluir barandillas de gobernanza y responsabilidad para modelos en el dispositivo a través de las capacidades de gobierno de watsonx. Para obtener más información sobre esta nueva implementación, visite Blog de desarrolladores de Qualcomm. Qualcomm Cloud AI Accelerators + Red Hat OpenShift La familia de aceleradores Qualcomm® Cloud AI ahora está certificada y disponible para Red Hat OpenShift, la plataforma de aplicaciones de nube híbrida líder en la industria impulsada por Kubernetes.  La certificación facilita la implementación a escala del conjunto de aplicaciones de software de IBM, incluido watsonx, utilizando soluciones de hardware basadas en Qualcomm Cloud AI. Para obtener más información sobre las innovaciones y demostraciones de Qualcomm Technologies’ e IBM de AI, visite el stand de Qualcomm en el MWC Barcelona (Punto #3E10, Pabellón 3, Fira Gran Via). Qualcomm News. Traducido al español

Leer más »

Thunderbolt Compartir: Uso de Múltiples PC para Manejar Flujos de Trabajo Exigentes

El nuevo software Intel permite a los usuarios compartir sin esfuerzo archivos, pantallas y periféricos comunes entre PC con Windows para un flujo de trabajo más rápido y fluido. Thunderbolt Share Cambia el Juego para Transmitir y Capturar Thunderbolt Share permite a los usuarios con una PC con licencia Thunderbolt Share o periférico conectar dos PC para un control perfecto de ambas computadoras, compartir pantalla, compartir archivos y audio sincronizado. En esta demostración, vea cómo Thunderbolt Share – con un solo cable Thunderbolt – se aprovecha para convertir una computadora portátil en un dispositivo dedicado de captura y transmisión de juegos, liberando recursos valiosos en la PC principal para juegos (Crédito: Intel Corporation) La rápida adopción de la inteligencia artificial ha aumentado significativamente la demanda de desarrolladores que pueden crear nuevos programas y aplicaciones impulsados por IA. Pero procesar, analizar o entrenar con grandes cantidades de datos puede tensar incluso un potente ancho de banda de PC, lo que dificulta la multitarea con otras aplicaciones que funcionan en segundo plano. Es un punto de dolor que se puede resolver conectando dos computadoras. Inteli Thunderbolt™ Compartir el software permite a los usuarios conectar fácilmente dos PC con Windows® para compartir pantallas y controlar con un solo teclado, mouse y almacenamiento. Usando un puerto Thunderbolt™ 4 o Thunderbolt™ 5 existente para PC, un solo cable proporciona cómputo seguro de alta velocidad y baja latencia para compartir archivos y compartir pantallas. Una de las PC o accesorios debe tener licencia Thunderbolt Share. “AI usa modelos de lenguaje, y esos modelos son enormes. Así que tal vez estás trabajando y ajustando un modelo, pero luego necesitas enviarlo a otra PC para probarlo. Toda esta idea de desarrolladores e IA y mover cantidades masivas de datos es enorme para Thunderbolt Share,” dijo Lyle Warnke, ingeniero técnico de marketing de Intel. “No tiene que repasar mi red Wi-Fi, que es lenta, o la nube, que es aún más lenta, o usar una unidad externa, que lleva tiempo y no es muy eficiente. Esto es privado. No voy a la nube, nadie verá mis datos porque simplemente va de una PC a otra a través de un cable.” La mayoría de las computadoras, Windows y Apple, están equipadas con un puerto Thunderbolt. Se ve igual que un puerto USB-C y está designado por un símbolo de rayo. Si bien se puede usar como un puerto USB-C, que generalmente tiene una velocidad de ancho de banda de 10 gigabits por segundo para transferir información, el uso de un cable Thunderbolt aumenta la velocidad de 4x a un ancho de banda de 40 gigabits por segundo o de 8x a un ancho de banda de 80 gigabits por segundo con Thunderbolt 5. El software Thunderbolt Share se puede descargar e instalar en PC con Windows con puertos Thunderbolt 4 o Thunderbolt 5. El software verifica que al menos un PC o accesorio Thunderbolt, como un dock, monitor o almacenamiento, tenga licencia Thunderbolt Share por parte del fabricante, luego permite que las PC conectadas compartan recursos. Las primeras PC y muelles con licencia están disponibles ahora, con más en 2025. En el CES 2025, las capacidades de pantalla compartida de Thunderbolt Shareals se exhibieron con una computadora portátil conectada directamente a través de un cable y puerto Thunderbolt a una poderosa computadora de escritorio que reproducía Marvel Rivals. El escritorio manejó la pesada tarea de ejecutar el juego, mientras que la computadora portátil administró la carga de trabajo de transmisión utilizando Thunderbolt Share y OBS (Open Broadcaster Software). Ambos fueron controlados en una pantalla. (Crédito: Intel Corporation) En el CES 2025, las capacidades de pantalla compartida de Thunderbolt Shareals se exhibieron con una computadora portátil conectada directamente a través de un cable y puerto Thunderbolt a una poderosa computadora de escritorio que reproducía Marvel Rivals. El escritorio manejó la pesada tarea de ejecutar el juego, mientras que la computadora portátil administró la carga de trabajo de transmisión utilizando Thunderbolt Share y OBS (Open Broadcaster Software). Ambos fueron controlados en una pantalla. (Crédito: Intel Corporation) Una computadora portátil alimentada por un procesador Intel Core Ultra serie 200 muestra los puertos Thunderbolt 4 en CES 2025 en Las Vegas en enero de 2025. (Crédito: Intel Corporation) Una computadora portátil alimentada por un procesador Intel Core Ultra serie 200 muestra los puertos Thunderbolt 4 en CES 2025 en Las Vegas en enero de 2025. (Crédito: Intel Corporation) (~17 MB) Más Empleos Requieren Más Que Una Computadora Usar múltiples computadoras es más común de lo que muchos piensan. Pero antes de la introducción de Thunderbolt Share en 2024, no había un método fácil para conectar dos PC con Windows directamente con un cable. “Esta es la parte de productividad que vemos para los usuarios comerciales que es tan buena,” Warnke dijo. “Tal vez tengo una computadora de escritorio y está haciendo mis cosas financieras, pero tengo mi computadora portátil que está haciendo correo electrónico y PowerPoint, pero solo quiero usar el área de monitor de escritorio.” Los jugadores entusiastas y los creadores profesionales a menudo usan dos o tres computadoras para obtener más flexibilidad, reducir la tensión del sistema y la capacidad de dedicar máquinas a tareas específicas. Cuantas más computadoras se usen, mejor será el flujo de trabajo y menos cuellos de botella. Por ejemplo, un artista visual tendrá un escritorio potente para tareas intensivas como edición de video, creación de video AI, renderizado 3D o diseño gráfico. Esas aplicaciones toman la mayor parte del ancho de banda de los escritorios para funcionar sin problemas. Es probable que ese creador también tenga una computadora portátil para la portabilidad al asistir a reuniones de clientes, presentaciones o sesiones en el lugar. Y podrían tener una tercera PC más antigua en uso como servidor dedicado. Ben Hacker, gerente general de Intel Client Connectivity Division, lo explica de esta manera: “Si soy un creador, tengo una computadora portátil y una computadora de escritorio que ejecutan simultáneamente múltiples aplicaciones; mi computadora portátil puede estar ejecutando aplicaciones diferentes a mi computadora

Leer más »

IO Remoto de Alto Rendimiento con NVIDIA KviKIO

Las cargas de trabajo que procesan grandes cantidades de datos, especialmente las que se ejecutan en la nube, a menudo utilizan un servicio de almacenamiento de objetos (S3, Google Cloud Storage, Azure Blob Storage, etc.) como fuente de datos.  Los servicios de almacenamiento de objetos pueden almacenar y servir grandes cantidades de datos, pero obtener el mejor rendimiento puede requerir adaptar su carga de trabajo a cómo se comportan los almacenes de objetos remotos. Esta publicación es para usuarios de RAPIDS que desean leer o escribir datos en el almacenamiento de objetos lo más rápido posible para que IO no bloquee su carga de trabajo. Parte de su conocimiento sobre cómo se comportan los sistemas de archivos locales se traduce en almacenes de objetos remotos, pero son fundamentalmente diferentes. Probablemente la mayor diferencia entre los dos, al menos para las cargas de trabajo de análisis de datos, es que las operaciones de lectura y escritura en el almacenamiento de objetos tienen latencia más alta y más variable. Cada servicio de almacenamiento tiene su propio conjunto de mejores prácticas y pautas de rendimiento (AWS, Azure). Aquí, weizll dar algunas pautas generales que se centran en las cargas de trabajo de análisis de datos. Ubicación Colocar sus nodos de cómputo cerca del servicio de almacenamiento (idealmente, en la misma región de la nube) le dará la red más rápida y confiable entre las máquinas que ejecutan su carga de trabajo y las máquinas que sirven los datos. Y, al final del día, la transferencia estará limitada por la velocidad de la luz, por lo que minimizar la distancia física no duele. Formato de archivo  “Los formatos de archivo Cloud-native” se han desarrollado para funcionar bien con el almacenamiento de objetos. Estos formatos de archivo generalmente proporcionan un acceso rápido y fácil a los metadatos (que incluye información de alto nivel como los nombres de columna o los tipos de datos, e información de nivel inferior como dónde se encuentran los subconjuntos de datos específicos del archivo). Parquet Apache, Zarr, y GeoTIFF Optimizado en la Nube son algunos ejemplos de formatos de archivo nativos de la nube para varios tipos de datos. Porque los servicios de almacenamiento de objetos generalmente admiten solicitudes de rango, clientes (como cuDF) puede leer los metadatos y luego descargar solo los datos que realmente necesitas. Por ejemplo, cuDF puede leer solo unas pocas columnas de un archivo de parquet con muchas columnas, o un cliente de Zarr puede leer un solo fragmento de una gran matriz n-dimensional. Estas lecturas se realizan en solo unas pocas solicitudes HTTP, y sin necesidad de descargar un montón de datos extraños que simplemente se filtran. Tamaño del archivo Debido a que cada operación de lectura requiere (al menos) una petición HTTP, weedd prefiere amortizar la sobrecarga de cada petición HTTP sobre un número razonablemente grande de bytes. Si controla el proceso de escritura de datos, querrá asegurarse de que los archivos sean lo suficientemente grandes como para que sus tareas de procesamiento posteriores obtengan un buen rendimiento. El valor óptimo depende de su carga de trabajo, pero en algún lugar de las docenas a cientos de MB es común para los archivos de parquet (ver más abajo para algunos ejemplos específicos). Dicho esto, deberá tener cuidado con la forma en que el tamaño del archivo interactúa con la siguiente herramienta de nuestro kit: concurrencia. Concurrencia El uso de concurrencia para descargar múltiples blobs (o múltiples piezas de un solo blob) al mismo tiempo es esencial para obtener un buen rendimiento de un servicio de almacenamiento remoto. Ya que es un remoto servicio, su proceso va a pasar algún tiempo (quizás mucho tiempo) esperando no hacer nada. Esta espera abarca el tiempo entre el momento en que se envía la solicitud HTTP y la respuesta recibida. Durante este tiempo, esperamos a que la red lleve la solicitud, el servicio de almacenamiento la procese y envíe la respuesta, y la red lleve la respuesta (posiblemente grande). Mientras que partes de esa escala de ciclo de solicitud/respuesta con la cantidad de datos involucrados, otras partes son solo gastos generales fijos. Los servicios de almacenamiento de objetos están diseñados para manejar muchas solicitudes concurrentes. Podemos combinar eso con el hecho de que cada solicitud implica algún tiempo esperando no hacer nada, para hacer muchas solicitudes concurrentes para aumentar nuestro rendimiento general. En Python, esto se haría típicamente usando un piscina de hilo: pool =concurrent.futures.ThreadPoolExecutor()futures =pool.map(request_chunk, chunks) O con asincio: tasks =[request_chunk_async(chunk) forchunk inchunks]awaitasyncio.gather(*tasks) Podemos tener muchas lecturas esperando sin hacer nada al mismo tiempo, lo que mejora nuestro rendimiento. Debido a que cada hilo/tarea no está haciendo nada en su mayoría, está bien tener más hilos/tareas de las que su máquina tiene núcleos. Dadas las suficientes solicitudes concurrentes, eventualmente saturará su servicio de almacenamiento, que tiene algunas solicitudes por segundo y objetivos de ancho de banda que intenta cumplir. Pero esos objetivos son altos; por lo general, necesitará muchas máquinas para saturar el servicio de almacenamiento y debería lograr un rendimiento muy alto. Bibliotecas Todo lo anterior se aplica esencialmente a cualquier biblioteca que haga IO remoto desde un servicio de almacenamiento de objetos. En el contexto de RAPIDS, NVIDIA KviKIO es notable porque Como se mencionó en el Anuncio de lanzamiento de RADIDS 24.12, KvikIO puede lograr un rendimiento impresionante al leer desde S3. Echemos un vistazo a algunos puntos de referencia para ver cómo funciona. Puntos de referencia Cuando lee un archivo, KvikIO divide esa lectura en lecturas más pequeñas de kvikio.defaults.task_size bytes. Hace esas solicitudes de lectura en paralelo usando un grupo de hilos con kvikio.defaults.num_threads trabajadores. Estos pueden controlarse utilizando las variables de entorno KVIKIO_TASK_SIZE y KVIKIO_NTHREADS, o a través de Python con: with kvikio.defaults.set_num_threads(num_threads), kvikio.defaults.set_task_size(size):    … Ver Configuración de tiempo de ejecución para más. Este gráfico muestra el rendimiento, en megabits por segundo, de leer una gota de 1 GB S3 a g4dn instancia EC2 en la misma región para varios tamaños de la agrupación de hilos (más alto es mejor). Menos hilos (menos de cuatro) logran un rendimiento más bajo y tardan más en leer el archivo. Más subprocesos (64, 128, 256) logran un mayor rendimiento al paralelizar las solicitudes al

Leer más »

IBM Completa la Adquisición de HashiCorp, Crea una Plataforma de Nube Híbrida Integral de Fin a Fin

Las capacidades de HashiCorp impulsan sinergias significativas en múltiples áreas de crecimiento estratégico para IBM, incluyendo Red Hat, watsonx, seguridad de datos, automatización de TI y consultoría ARMONK, N.Y., 27 De febrero de 2025 /PRNewswire/– IBM (NYSE: IBM) anunció hoy que ha completado su adquisición de HashiCorp, cuyos productos automatizan y aseguran la infraestructura que sustenta las aplicaciones de nube híbrida y la IA generativa. Juntas, las capacidades de las empresas ayudarán a los clientes a acelerar la innovación, fortalecer la seguridad y obtener más valor de la nube. Hoy en día, casi el 75% de las empresas están utilizando la nube híbrida1, incluidas las nubes públicas de hiperescaladores y centros de datos locales, que pueden permitir una verdadera innovación con un enfoque consistente para entregar y administrar esa infraestructura a escala. Las empresas están buscando formas de administrar y modernizar de manera más eficiente la infraestructura en la nube y las tareas de seguridad desde la planificación y el diseño iniciales hasta el mantenimiento continuo. Para 2028, se proyecta que la IA generativa conducirá a la creación de 1 mil millones de nuevas aplicaciones nativas de la nube.2 Apoyar esta escala requiere la automatización de la infraestructura mucho más allá de la capacidad de la fuerza laboral sola. «Las organizaciones de todo el mundo están buscando implementar aplicaciones modernas e híbridas listas para la nube, que requieren una infraestructura de nube automatizada a gran escala» dicho Thomas Rob, Vicepresidente Senior, IBM Software y Director Comercial. «Con esta adquisición, IBM se compromete a continuar invirtiendo y haciendo crecer las capacidades de HashiCorp y juntos, con la tecnología líder de HashiCorp y la extensa comunidad de desarrolladores, el alcance global de IBM y los recursos de I&D, nuestro objetivo es infundir la tecnología HashiCorp en cada centro de datos.» «HashiCorp ha estado ayudando a las empresas más grandes del mundo a tener éxito en entornos híbridos y de múltiples nubes durante más de una década. Hemos visto crecer la nube desde sus orígenes y hemos participado de primera mano en el cambio que ha traído a la industria» dicho McJannet Dave, CEO, HashiCorp. «Con la historia de IBM, global escala y relaciones con los clientes, HashiCorp ahora puede ampliar nuestro alcance para ayudar a nuestra comunidad de clientes, profesionales y socios a automatizar, proteger y optimizar su infraestructura en la nube, proporcionando una plataforma de extremo a extremo para entornos híbridos.» «HashiCorp ha sido un pionero en la infraestructura de la nube desde los primeros días de la nube pública. Hemos creado una cartera de productos para ayudar a los clientes a adoptar un enfoque nativo de la nube para la Gestión del Ciclo de Vida de Infraestructura y Seguridad que ha sido adoptado por cientos de miles de organizaciones en todo el mundo» dicho Armon Dadgar, CTO y cofundador de HashiCorp. «Estoy emocionado de que HashiCorp se una a la familia IBM, donde hay una clara alineación en la visión de habilitar la infraestructura híbrida para las empresas más grandes del mundo. Juntos, podemos seguir invirtiendo profundamente en la innovación del R&D y permitir que la próxima generación de aplicaciones sea construida y escalada.» Detalle del producto y disponibilidad Se basa en la cartera de IBM de Capacidades de Automatización de TI impulsadas por IA La adquisición de HashiCorp continúa con las amplias inversiones de IBM en software de automatización para ayudar a las organizaciones a optimizar sus gastos de TI y reducir los costos. Esto incluye software impulsado por IA para información de administración de aplicaciones en las carteras de los clientes para identificar, predecir y sugerir soluciones para problemas; software para la observabilidad completa de la pila de TI y para optimizar el rendimiento de las aplicaciones al menor costo; herramientas de administración de recursos de aplicaciones que escalan eficientemente las operaciones y reducen los gastos en la nube; soluciones de administración financiera que impulsan información en tiempo real sobre las decisiones de gasto de TI en toda la empresa; y y software para integrar miles de aplicaciones y datos en entornos de nube híbrida. El cierre de la adquisición de IBM de HashiCorp incluye todas las acciones ordinarias emitidas y en circulación de HashiCorp para $35 por acción en efectivo, que representa un valor empresarial de $6.4 mil millones. Para obtener más información sobre las noticias de hoy, visite https://www.ibm.com/products/hashicorp y visita https://www.hashicorp.com/en/blog/hashicorp-officially-joins-the-ibm-family para leer más del cofundador y CTO de HashiCorp Armon Dadgar. Fuentes: IBM News. Traducido al español

Leer más »

Nokia añade nuevas capacidades Agentic-AI a través de su cartera de redes autónomas #MWC25

Nokia anunció hoy nuevas capacidades de Agentic AI dentro de su cartera de redes autónomas que ayudarán a los Proveedores de Servicios de Comunicación (CSP) a automatizar, asegurar y monetizar mejor sus redes. 27 De febrero de 2025Espoo, Finlandia – Nokia anunció hoy nuevas capacidades de Agentic AI dentro de su cartera de redes autónomas que ayudarán a los Proveedores de Servicios de Comunicación (CSP) a automatizar, asegurar y monetizar mejor sus redes. Ampliando las capacidades de IA ya integradas en la cartera de redes autónomas de Nokia, las últimas mejoras de Agentic AI permiten a los CSP detectar más fácilmente amenazas de seguridad, acelerar la creación de nuevos servicios y mejorar la gestión de sus redes. “CSP en todo el mundo están buscando activamente niveles más altos de autonomía de red para lograr una mayor eficiencia operativa y ofrecer a sus clientes experiencias personalizadas. AI es el catalizador para desbloquear la autonomía L4/L5, administrar la complejidad y orquestar acciones en dominios de red y funciones operativas, dijo Kal De, SVP Product and Engineering, Cloud and Network Services en Nokia. “El aprendizaje automático tradicional, los LLM y la IA agénica desempeñarán roles críticos en el viaje hacia redes totalmente autónomas. Nokia está ayudando a los CSP a evolucionar sus operaciones de red, servicio y seguridad con modelos de IA capacitados en datos de telecomunicaciones y con acceso a información contextual como inteligencia de amenazas, dijo Andy Hicks, Analista Principal Senior de GlobalData. La cartera de redes autónomas de Nokia ofrece capacidades avanzadas de seguridad, análisis y operaciones que proporcionan a los CSP una visión holística y en tiempo real de la red para que puedan reducir costos, acelerar el tiempo de valor y ofrecer la mejor experiencia al cliente. Los analistas de la industria han reconocido a Nokia como líder en ciberseguridad, IA de telecomunicaciones, software de automatización de redes, garantía de servicios y orquestación de servicios entre dominios*. Las últimas capacidades de IA en la cartera de redes autónomas de Nokia incluyen: Las últimas innovaciones de Nokia en IA demuestran un compromiso para ayudar a los CSP a realizar la visión de redes totalmente autónomas que sienten, piensan y actúan. * ‘Proveedores Líderes en Network Automation Software’ (Appledore Research, July 2024), ‘Frost Radar™: Extended Detection and Response, 2024 (Frost & Sullivan, December 2024), ‘GigaOm Radar for Extended Detection and Response’ (GigaOm, April 2024), ‘Automated Assurance: Worldwide Market Shares 2023’ (Analysys Mason, October 2024), ‘Service Assurance: Competitive Landscape Assessment’ (GlobalData, December 2024). NOKIA News. Traducido al español

Leer más »

Juniper e IBM Simplificarán las Operaciones de Red Empresarial con la innovación Next Era of Gen AI

 Redes Juniper (NYSE: JNPR), un líder en redes seguras y nativas de IA, y IBM (NYSE: IBM) anunció hoy planes para ampliar su colaboración en torno a esfuerzos conjuntos de ventas, marketing e integración de productos.   Se espera que las compañías integren Juniperials Mist AI e IBM watsonx con el objetivo de abordar las complejidades de la administración de redes de TI que pueden ayudar a mejorar las experiencias de los usuarios y reducir los costos operativos.  La última colaboración se centrará en llevar Mist AI, una parte clave de la plataforma AI-Native Networking Platform de Juniperica que utiliza AI para optimizar la experiencia de cliente a nube E2E a través de experiencias inalámbricas, cableadas, SD-WAN, centros de datos y seguridad, con IBM watsonx, la cartera de productos de IA de IBM diseñada para acelerar el impacto de la IA generativa e impulsar la productividad en los flujos de trabajo empresariales centrales. IBM y Juniper trabajarán juntos para construir sobre dos internos Proyectos de IBM: Juniper e IBM también planean explorar capacidades adicionales, como información y diagnósticos basados en la ubicación que pueden ayudar a generar valor adicional en torno a la administración de instalaciones y la experiencia del usuario del paciente/cliente en industrias como la atención médica y el comercio minorista. “Nuestra colaboración con IBM representa un salto significativo en AI-Native Networking,” dijo Bob Friday, Vicepresidente del Grupo y Director de IA en Juniper Networks. “Traer dos visiones poderosas para los AIOps en la nube en la empresa junto con Mist AI e IBM watsonx puede ayudarnos a mostrar una mayor eficiencia, agilidad y seguridad a customers.” “IBM se compromete a aprovechar el poder de la IA confiable para ayudar a las empresas a alcanzar nuevos niveles de innovación y eficiencia,” dijo Ayal Steinberg, Gerente General de Ventas Técnicas e Ingeniería de Clientes de IBM. “Nuestra colaboración con Juniper ilustra cómo las asociaciones de ecosistemas pueden ayudar a acelerar la adopción de IA para casos críticos de uso comercial, como la administración de redes, lo que demuestra un valor aún mayor para los clientes empresariales Ven a ver a Juniper e IBM en el Mobile World Congress (MWC): IBM News. Traducido al español

Leer más »

Qualcomm e IBM Scale Enterprise-grade Generative AI de Edge a Cloud

Qualcomm e IBM anuncian una colaboración ampliada para impulsar soluciones de IA generativas listas para la empresa en dispositivos de nube y de borde. Destacados: Qualcomm e IBM anuncian una colaboración ampliada para impulsar soluciones de IA generativas listas para la empresa en dispositivos de nube y de borde. planes para integrar IBM watsonx.governance, diseñado para ayudar a las empresas a administrar su IA de manera responsable a escala empresarial, en Qualcomm AI Inference Suite y ejecutarse en dispositivos alimentados por plataformas de alto rendimiento y baja potencia de Qualcomm. los modelos Granite 3.1 de IBM se han optimizado y están disponibles para su descarga a través de Qualcomm AI Hub—, lo que permite a los desarrolladores y empresas aprovechar el potencial de la IA al límite con las plataformas Qualcomm.la familia de aceleradores Qualcomm Cloud AI ha recibido la certificación Red Hat OpenShift, lo que permite verdaderas implementaciones de nube híbrida. 27 De febrero de 2025 SAN DIEGO – 27 de febrero de 2025 – Antes del Mobile World Congress 2025, Qualcomm Technologies, Inc. e IBM (NYSE: IBM) anunció una colaboración ampliada para impulsar soluciones de inteligencia artificial generativa (IA) de nivel empresarial a través de dispositivos de borde y en la nube diseñados para permitir una mayor inmediatez, privacidad, confiabilidad, personalización y menor costo y consumo de energía. A través de esta colaboración, las compañías planean integrar watsonx.governance para soluciones de IA generativas impulsadas por las plataformas Qualcomm Technologies’, y permitir el soporte para los modelos IBM de Granite a través de Qualcomm® AI Inference Suite y Qualcomm® AI Hub. «En Qualcomm Technologies, estamos entusiasmados de unir fuerzas con IBM para ofrecer soluciones de IA generativas de vanguardia y de nivel empresarial para dispositivos a través del borde y la nube, dijo Durga Malladi, vicepresidente senior y gerente general de planificación tecnológica y soluciones de borde de Qualcomm Technologies, Inc. “Esta colaboración permite a las empresas implementar soluciones de IA que no solo son rápidas y personalizadas, sino que también vienen con capacidades sólidas de gobernanza, monitoreo y toma de decisiones, con la capacidad de mejorar la confiabilidad general de la IA desde el borde hasta la nube.» «Profundizar nuestra colaboración con Qualcomm Technologies fortalece nuestra capacidad de llevar la IA generativa de nivel empresarial desde la nube al límite, dijo Ritika Gunnar, Gerente General de Datos e IA de IBM. “Al optimizar los modelos watsonx.governance y Granite de IBM para su uso con las plataformas Snapdragon y Qualcomm Dragonwing, estamos ayudando a las empresas a capitalizar el poder transformador de la IA sin importar dónde residan los datos. Es un gran ejemplo del poder de la asociación.” Las plataformas Qualcomm son compatibles con IBM watsonx.governance y Granite Models Expandiendo sobre sus anuncio en CES, Qualcomm Technologies e IBM planean ejecutar modelos watsonx.governance y Granite Guardian 8B y Granite 3.1 8B en un diseño de referencia Snapdragon® 8 Elite y la Qualcomm Dragonwing™ AI On-Prem Appliance Solution con Qualcomm AI Inference Suite. Estos modelos funcionan en conjunto para proporcionar soluciones de IA generativas de extremo a extremo que se ejecutan en el borde y que contienen barandillas para controlar las implementaciones y operaciones del modelo, monitorear y mejorar la toma de decisiones. A través de esta colaboración, Qualcomm Technologies e IBM están combinando inferencia en el dispositivo, baja potencia y características de privacidad con el rendimiento de watsonx para ayudar a abordar la seguridad, la eficiencia, la confiabilidad y la gobernanza de las soluciones de IA para empresas. Qualcomm AI Hub + IBM Granite Models Qualcomm Technologies ha optimizado IBM Granite 3.1, los modelos de lenguaje insignia Granite de tercera generación de IBM, para Qualcomm AI Hub para ayudar a los desarrolladores y empresas a aprovechar el potencial de la IA en el borde. Las compañías ampliarán la colaboración de Qualcomm AI Hub e IBM watsonx para incluir barandillas de gobernanza y responsabilidad para modelos en el dispositivo a través de las capacidades de gobierno de watsonx. Para obtener más información sobre esta nueva implementación, visita el Blog de desarrolladores de Qualcomm. Qualcomm Cloud AI Accelerators + Red Hat OpenShift La familia de aceleradores Qualcomm® Cloud AI ahora está certificada y disponible para Red Hat OpenShift, la plataforma de aplicaciones de nube híbrida líder en la industria impulsada por Kubernetes. La certificación facilita la implementación a escala del conjunto de aplicaciones de software de IBM, incluido watsonx, utilizando soluciones de hardware basadas en Qualcomm Cloud AI. Para obtener más información sobre las innovaciones y demostraciones de Qualcomm Technologies’ e IBM de AI, visite el stand de Qualcomm Technologies’ en el MWC Barcelona (Booth #3E10, Hall 3, Fira Gran Via). IBM News. Traducido al español

Leer más »

Intel presenta Soluciones Ethernet de Alto Rendimiento y Eficiencia Energética

Los nuevos productos Ethernet ofrecen un rendimiento superior, eficiencia energética y un costo total reducido de propiedad en centros de datos empresariales, telecomunicaciones, nube y entornos de borde. Qué hay Nuevo: Intel lanzó hoy dos nuevas líneas de productos Ethernet – los Controladores Intel® Ethernet E830 y Adaptadores de Red, y los Controladores Intel® Ethernet E610 y Adaptadores de Red – diseñados para satisfacer las crecientes demandas de aplicaciones empresariales, de telecomunicaciones, de nube, de borde, de computación de alto rendimiento (HPC) e inteligencia artificial (IA). Estas soluciones de próxima generación proporcionan una conectividad robusta y de alto rendimiento al tiempo que mejoran la eficiencia y la seguridad energética y reducen el costo total de propiedad (TCO). “En el mundo interconectado de hoy, la creación de redes es esencial para el éxito de la transformación empresarial y tecnológica. Con el lanzamiento de los productos Intel Ethernet E830 y E610, estamos ayudando a los clientes a satisfacer la creciente demanda de soluciones de alto rendimiento y eficiencia energética que optimizan las infraestructuras de red, reducen los costos operativos y mejoran TCO.” –Bob Ghaffari, vicepresidente de Intel, Network y Edge Group Lo Que Hacen: Al combinar los procesadores Xeon® 6 de vanguardia de Intel con conectividad Ethernet de alto rendimiento, las nuevas soluciones Ethernet de Intel sientan las bases para aplicaciones escalables e intensivas en datos, lo que permite a las empresas acelerar la innovación, reducir costos y obtener una ventaja competitiva. Con los últimos avances en tecnología de nodo de proceso y Ethernet, las familias E830 y E610 ofrecen avances significativos en rendimiento por vatio y seguridad robusta tanto para centros de datos como para entornos de borde. Los controladores Intel Ethernet E830 y los adaptadores de red ofrecen conectividad de red de alto rendimiento y un rendimiento mejorado por vatio para cargas de trabajo exigentes. Se encuentran entre las dos líneas de productos Ethernet que Intel introdujo en febrero de 2025 para satisfacer las crecientes demandas de aplicaciones empresariales, de telecomunicaciones, de nube, de borde, de computación de alto rendimiento y de IA. (Crédito: Intel Corporation) Intel Ethernet E610 Controllers and Network Adapters are designed with the latest advances in 10GBASE-T for optimized network management and control plane operations. They are among two Ethernet product lines Intel introduced in February 2025. With choices of dual port or quad port and up to 10GbE bandwidth, comprehensive security and manageability features and high energy efficiency, Intel Ethernet E610 Network Adapters deliver optimized and scalable network connectivity required for diverse edge workloads. (Credit: Intel Corporation) Intel Ethernet E610 Controllers and Network Adapters are designed with the latest advances in 10GBASE-T for optimized network management and control plane operations. They are among two Ethernet product lines Intel introduced in February 2025. With choices of dual port or quad port and up to 10GbE bandwidth, comprehensive security and manageability features and high energy efficiency, Intel Ethernet E610 Network Adapters deliver optimized and scalable network connectivity required for diverse edge workloads. (Credit: Intel Corporation) Los controladores Intel Ethernet E830 y los adaptadores de red ofrecen conectividad de red de alto rendimiento y un rendimiento mejorado por vatio para cargas de trabajo exigentes. Se encuentran entre las dos líneas de productos Ethernet que Intel introdujo en febrero de 2025 para satisfacer las crecientes demandas de aplicaciones empresariales, de telecomunicaciones, de nube, de borde, de computación de alto rendimiento y de IA. (Crédito: Intel Corporation) (~14 MB) Por Qué Importa: La tecnología Ethernet continúa sirviendo como la piedra angular de las infraestructuras de red modernas. A medida que las aplicaciones de IA, redes de acceso de radio virtual (vRAN), computación en la nube 5G, edge e Internet de las Cosas (IoT) impulsan el crecimiento de las necesidades de datos y conectividad, las soluciones Ethernet de Intel están diseñadas para proporcionar el rendimiento, la escalabilidad y la seguridad esenciales para satisfacer estas necesidades en evolución. Lo Que Ofrecen: Los Controladores Intel Ethernet E830 y Adaptadores de red están optimizados para cargas de trabajo virtualizadas de alta densidad, ofreciendo configuraciones de puertos flexibles, capacidades avanzadas de sincronización de tiempo y características de seguridad superiores. Los Controladores Intel Ethernet E610 y Adaptadores de Red proporcionan una solución ideal para operaciones de plano de control, con características avanzadas de manejabilidad y eficiencia energética excepcional. Familia Intel Ethernet E830: Alto Rendimiento y Conectividad Versátil La familia Intel Ethernet E830 ofrece soluciones de alto rendimiento, seguras y eficientes diseñadas para cargas de trabajo exigentes en entornos empresariales, de nube, de telecomunicaciones y de borde virtualizados. La primera disponibilidad incluye adaptadores PCIe 25GbE de doble puerto y adaptadores compatibles con OCP 3.0, con configuraciones adicionales a finales de este año. Las características clave de la familia E830 incluyen: Familia Intel Ethernet E610: Redes Eficientes, Seguras y Gestionables La familia Intel Ethernet E610 ofrece una combinación convincente de capacidad de administración, eficiencia energética y seguridad para controlar las redes planas. Disponible en una variedad de velocidades y factores de forma, los productos E610 proporcionan: Acerca de Intelians Proven Partner Ecosystem: Como líder mundial en tecnología Ethernet, Intel ha fomentado un amplio ecosistema de socios, incluidos Cisco, Dell Technologies, Hewlett Packard Enterprise y Supermicro. Este ecosistema abierto garantiza que las soluciones Intel Ethernet se implementen en una amplia variedad de aplicaciones, ofreciendo a los clientes una flexibilidad y opciones incomparables en sus implementaciones de redes. Más Contexto: Para obtener más información sobre Intel Ethernet y cómo puede potenciar los negocios, visite el Sitio Intel Ethernet en Intel.com. Para una inmersión más profunda en los temas de conectividad de cómputo abierto, vea las presentaciones de Intel de OCP Summit: Optimización de redes para Tomorrow‚ como Cloud & Enterprise y ¿Puede el Tiempo Preciso Hacer que Gen AI Workload sea Más Eficiente? Aún Más Contexto: Intel presenta Soluciones de Liderazgo de IA y Redes con Procesadores Xeon 6 | Ecosistema Logra Avance de Eficiencia de Energía en Xeon 6 con E-Cores | Procesadores Intel Xeon 6 (Kit de Prensa) La Pequeña Impresión: 1 La comparación se basa en E610-XAT2 vs. X550AT2 El rendimiento varía según el uso, la configuración y otros factores. Obtenga más información

Leer más »
Scroll al inicio