El Portal de las Tecnologías para la Innovación

Categoría: Nube e Infraestructura como Servicio

Los socios de NVIDIA DRIVE presentan las últimas innovaciones en movilidad en el CES

Desde la potenciación de la informática en el vehículo hasta el impulso de la capacitación en la nube, la innovación en el transporte avanza a gran velocidad. Las principales empresas de transporte mundial, que abarcan los fabricantes de vehículos de pasajeros, camiones, robotaxis y sistemas de entrega autónomos, están recurriendo a la plataforma NVIDIA DRIVE AGX y a la IA para construir el futuro de la movilidad. El negocio automotriz de NVIDIA ofrece una gama de tecnologías de desarrollo de vehículos autónomos y altamente automatizados de próxima generación, que incluyen capacitación en inteligencia artificial basada en la nube, simulación y computación en el vehículo. En la feria comercial CES en Las Vegas esta semana, los clientes y socios de NVIDIA están mostrando sus últimas innovaciones en movilidad basadas en la computación acelerada y la inteligencia artificial de NVIDIA. Preparando las hojas de ruta de los vehículos del futuro con NVIDIA DRIVE Thor, desarrollado sobre NVIDIA Blackwell El sistema en chip (SoC) NVIDIA DRIVE AGX Thor, construido sobre la arquitectura NVIDIA Blackwell , está diseñado para manejar las cargas de trabajo intensivas en datos más exigentes de la industria del transporte, incluidas aquellas que involucran IA generativa , modelos de lenguaje de visión y modelos de lenguaje de gran tamaño. Los socios del ecosistema DRIVE transforman el espacio de exposición y la industria en general Los socios de NVIDIA están ampliando los límites de la innovación automotriz con sus últimos desarrollos y demostraciones, utilizando tecnologías NVIDIA y computación acelerada para avanzar en todo, desde sensores, simulación y capacitación hasta inteligencia artificial generativa y teleconducción, e incluyen: Con 1000 teraflops de rendimiento computacional acelerado, DRIVE Thor está equipado para acelerar las tareas de inferencia que son fundamentales para que los vehículos autónomos comprendan y naveguen por el mundo que los rodea, como reconocer peatones, adaptarse a las inclemencias del tiempo y más. En la CES, Aurora, Continental y NVIDIA anunciaron una alianza estratégica a largo plazo para implementar camiones sin conductor a gran escala, impulsados ​​por el SoC NVIDIA DRIVE Thor de próxima generación. NVIDIA DRIVE Thor y DriveOS se integrarán en Aurora Driver, un sistema de conducción autónoma de nivel SAE 4 que Continental planea fabricar en masa en 2027. Arm , uno de los socios tecnológicos clave de NVIDIA, es la plataforma de computación elegida para una serie de innovaciones en CES. La CPU Arm Neoverse V3AE, diseñada para satisfacer las demandas específicas de seguridad y rendimiento de la industria automotriz, está integrada con DRIVE Thor. Esto marca la primera implementación de la CPU automotriz de próxima generación de Arm, que combina tecnologías basadas en Arm v9 con un rendimiento de un solo subproceso de clase de centro de datos, junto con funciones esenciales de seguridad y protección. Probado y verdadero: la adopción generalizada de DRIVE Orin continúa NVIDIA DRIVE AGX Orin, el predecesor de DRIVE Thor, continúa siendo una computadora con sistema avanzado de asistencia al conductor probada en producción y ampliamente utilizada en los automóviles actuales, que ofrece 254 billones de operaciones por segundo de procesamiento acelerado para procesar datos de sensores para decisiones de conducción seguras en tiempo real. Toyota , el mayor fabricante de automóviles del mundo, fabricará sus vehículos de próxima generación con el sistema operativo NVIDIA DRIVE Orin de alto rendimiento y grado automotriz, que ejecutará el sistema operativo NVIDIA DriveOS con certificación de seguridad. Estos vehículos ofrecerán capacidades avanzadas de asistencia a la conducción funcionalmente seguras. En la exposición de NVIDIA en el cuarto piso de Fontainebleau, se exhibirá el EX90 definido por software de Volvo Cars y la tecnología de conducción autónoma de Nuro , la plataforma Nuro Driver, desarrollada sobre NVIDIA DRIVE AGX. Otros vehículos impulsados ​​por NVIDIA DRIVE Orin que se exhibirán durante el CES incluyen: Los socios de NVIDIA también exhibirán sus soluciones automotrices basadas en tecnologías NVIDIA, que incluyen: La seguridad es el camino hacia la innovación autónoma  En el CES, NVIDIA también anunció que su plataforma DRIVE AGX Hyperion ha obtenido certificaciones de seguridad de TÜV SÜD y TÜV Rheinland, estableciendo nuevos estándares para la seguridad y la innovación de los vehículos autónomos. Para mejorar las medidas de seguridad, NVIDIA también lanzó el Laboratorio de inspección de sistemas de inteligencia artificial DRIVE , diseñado para ayudar a los socios a cumplir con los rigurosos requisitos de seguridad y ciberseguridad de los vehículos autónomos. Además, para complementar sus tres computadoras diseñadas para acelerar el desarrollo de vehículos autónomos (NVIDIA AGX, NVIDIA Omniverse con OVX y NVIDIA DGX ), NVIDIA ha presentado la plataforma NVIDIA Cosmos . Los modelos de base mundial y los canales de procesamiento de datos avanzados de Cosmos pueden escalar drásticamente los datos generados y acelerar el desarrollo de sistemas de IA físicos. Con la capacidad de volante de datos de la plataforma, los desarrolladores pueden transformar de manera efectiva miles de millas recorridas en el mundo real en miles de millones de millas virtuales. Los líderes del transporte que utilizan Cosmos para desarrollar IA física para vehículos autónomos incluyen a Fortellix, Uber, Waabi y Wayve . Obtenga más información sobre las últimas noticias automotrices de NVIDIA viendo la conferencia inaugural del fundador y director ejecutivo de NVIDIA, Jensen Huang, en el CES . Consulte el aviso sobre la información del producto de software. NVIDIA Blog. J. S. Traducido al español

Leer más »

Cisco permite a los proveedores de servicios reimaginar las redes para la IA

Cisco (NASDAQ: CSCO), el líder mundial en redes y seguridad, anunció hoy nuevas soluciones para permitir que los proveedores de servicios brinden conectividad con inteligencia artificial.  Resumen de noticias: CISCO LIVE, ÁMSTERDAM, 11 de febrero de 2025 — Cisco (NASDAQ: CSCO), el líder mundial en redes y seguridad, anunció hoy nuevas soluciones para permitir que los proveedores de servicios brinden conectividad con inteligencia artificial. Los proveedores de servicios desempeñarán un papel fundamental a la hora de definir cómo, dónde y cuándo los datos de las aplicaciones de inteligencia artificial (IA) se mueven a través de las redes. Con estas soluciones, Cisco puede permitir que los proveedores de servicios gestionen el aumento del volumen y la variedad de datos, y moneticen los servicios que respaldan el tráfico de IA. Estas innovaciones también muestran la evolución de Cisco Silicon One, con nuevos dispositivos que permiten a los clientes de Cisco construir redes con la flexibilidad que requieren los servicios de IA. Los datos creados por las aplicaciones de IA deben procesarse más cerca del borde y de los usuarios, lo que requiere mejores velocidades de acceso, rendimiento del servicio, resiliencia y seguridad de los datos. Cisco ofrece a los proveedores de servicios un camino a seguir con Cisco Agile Services Networking , una arquitectura para la conectividad de IA que permite a los proveedores de servicios monetizar la entrega de servicios y redes asegurados. “La revolución de la IA es un enorme potencial impulsor para los proveedores de servicios”, afirmó Jeetu Patel, vicepresidente ejecutivo y director de productos de Cisco. “La IA, y especialmente la llegada de agentes de IA, supondrá una increíble afluencia de nuevos trabajadores digitales que trabajarán juntos y se comunicarán constantemente. La red de servicios ágiles de Cisco es el modelo a seguir para los proveedores de servicios que buscan aprovechar las oportunidades de la IA satisfaciendo la demanda de conectividad segura, de alto ancho de banda y de bajo consumo energético”. Impulsando la conectividad de la IA y ofreciendo nuevos servicios  Los proveedores de servicios ocupan una posición única en el ecosistema de la IA. Son propietarios y operadores de las redes que conectan los lugares donde se generan los datos de IA y donde se consumen las aplicaciones de IA. También son propietarios y operadores de los centros de datos donde las aplicaciones de inferencia y entrenamiento de IA procesan conjuntos de datos masivos. Cisco Agile Services Networking es una arquitectura diseñada para eliminar la complejidad con redes simplificadas que convergen las capas y los servicios de red. Puede garantizar experiencias con redes resilientes y servicios habilitados por la automatización, la observabilidad y la seguridad impulsadas por IA. Además, los proveedores de servicios pueden monetizar los servicios implementados más cerca de sus usuarios finales desde una arquitectura de red optimizada para la entrega de servicios inteligentes. Para ofrecer esta arquitectura, Cisco presenta: En conjunto, estas nuevas innovaciones proporcionan a los proveedores de servicios las herramientas necesarias para desarrollar sus redes, desarrollar nuevas ofertas de servicios y monetizar la entrega de servicios asegurados. Agile Services Networking también es una arquitectura más eficiente energéticamente y que consume menos recursos. En comparación con las implementaciones tradicionales y centralizadas, se proyectó que un caso de uso de arquitectura de borde que utiliza la serie Cisco 8000 reduciría las emisiones de gases de efecto invernadero en 324 toneladas métricas de CO2e durante la vida útil del producto y todas las fases de vida del producto cuando se combina con el programa Takeback and Reuse de Cisco, y reduciría el consumo de energía en un 80%. El primer modelo de la serie 8000 con tecnología Silicon One de Cisco ya está disponible en general; se prevé que los modelos adicionales se envíen en la primavera y el verano de 2025. También se prevé que el primer modelo de óptica conectable coherente de Cisco comience a enviarse en la primavera de 2025. Las funciones de automatización y garantía de red ya están disponibles. Asociación para aprovechar la oportunidad de la IA A medida que la IA continúa impulsando cambios rápidos en la forma en que se construyen, administran y optimizan las redes, las alianzas de Cisco con los proveedores de servicios son más cruciales que nunca. Los proveedores de servicios globales, incluidos Arelion, Bell Canada, BT Business, Colt, Lumen, Megaport, OTE (Deutsche Telekom) y Swisscom, han expresado su entusiasmo por las capacidades introducidas por Cisco Agile Services Networking. Lea más aquí . Recursos adicionales  CISCO News. Traducido al español

Leer más »

Cisco redefine la arquitectura del centro de datos con nuevos conmutadores inteligentes que integran servicios directamente en la red

Los nuevos conmutadores con DPU AMD Pensando integrados son altamente adaptables y escalables para las demandas de IA, lo que permite a las empresas agregar servicios a medida que evolucionan las necesidades Resumen de noticias CISCO LIVE, ÁMSTERDAM, 11 de febrero de 2025 — Cisco (NASDAQ: CSCO) anunció hoy una familia de conmutadores inteligentes para centros de datos que revoluciona el diseño tradicional de redes de centros de datos al permitir servicios de redes y seguridad en una solución compacta todo en uno. Al utilizar unidades de procesamiento de datos (DPU) programables AMD Pensando™ , el conmutador funciona como un dispositivo de alojamiento de servicios multifuncional de alta capacidad que transforma la arquitectura de los centros de datos para simplificar su diseño y hacerlos más eficientes. La primera oferta integrada de Cisco, el conmutador inteligente con Cisco Hypershield , presenta un nuevo enfoque para proteger los centros de datos de IA al fusionar la seguridad directamente con la estructura de la red.  A medida que se multiplican las cargas de trabajo de la IA, la construcción y la gestión de centros de datos se ha vuelto mucho más compleja. Los operadores de centros de datos necesitan una forma más sencilla de diseñar, construir e implementar infraestructura para aprovechar al máximo la IA. Las aplicaciones de IA deben ubicarse donde se las necesita, ya sea un modelo de lenguaje enorme ubicado en instalaciones centralizadas a gran escala o un dron de red que monitorea el riego de cultivos en el mismo borde de la red. Este cambio en el lugar donde se crean, se accede y se almacenan los datos requiere un nuevo tipo de infraestructura de centro de datos simplificada: una que integre computación, almacenamiento, redes y seguridad de nuevas formas y permita operaciones automatizadas y predictivas a través de plataformas de gestión simplificadas. «La infraestructura del centro de datos debe repensarse para las cargas de trabajo de inferencia y entrenamiento de IA que eclipsan incluso los trabajos empresariales más grandes del pasado», afirmó Jeetu Patel, vicepresidente ejecutivo y director de productos de Cisco. «Simplemente actualizar la infraestructura del centro de datos con conmutadores de mayor ‘velocidad y alimentación’ no aborda los requisitos de los centros de datos modernos, que requieren la aceleración de la seguridad y los servicios de red de forma nativa dentro de la estructura del centro de datos». «El enfoque innovador de Cisco para el diseño de centros de datos, que aprovecha el liderazgo de las DPU AMD Pensando, marca un hito importante en la transformación de la infraestructura empresarial para abordar las cambiantes demandas de seguridad de las redes de centros de datos y, al mismo tiempo, lidiar con las rápidas implementaciones de IA», afirmó Soni Jiandani, vicepresidente sénior y gerente general del Grupo de Tecnología y Soluciones de Redes de AMD. «Nuestra colaboración con Cisco permite a las empresas lograr un rendimiento de alta capacidad y una seguridad de red impresionante sin comprometer el rendimiento de la carga de trabajo en los servidores Cisco UCS o las plataformas habilitadas para Hypershield. Juntos, estamos allanando el camino para una nueva era de centros de datos inteligentes, adaptables y seguros». Cisco Smart Switches: un punto de inflexión A medida que la IA impulsa el crecimiento rápido, las organizaciones deben gestionar demandas significativamente mayores de energía, computación y redes. En las arquitecturas de centros de datos tradicionales, cuando cada nuevo servicio requería un dispositivo específico, el crecimiento generaba complejidad. También requería agregar, cambiar o actualizar la aplicación de políticas de seguridad con cada nuevo servicio o carga de trabajo. Los conmutadores inteligentes de Cisco ofrecen una arquitectura más simple, eficiente y extensible al integrar los servicios directamente con la estructura del centro de datos, en lugar de agregarlos por encima. Al combinar la red de centros de datos de Cisco, Silicon One y las DPU de AMD, los clientes pueden escalar los servicios y adaptarse rápidamente a las cambiantes necesidades comerciales, todo ello sin necesidad de hardware adicional. Los conmutadores cuentan con dos motores de procesamiento: un procesador de red de alto rendimiento para una transferencia de datos estable y un sidecar de servicios de red para un procesamiento de seguridad ágil. El tráfico se dirige de forma inteligente entre los dos motores para lograr un rendimiento óptimo. Este cambio arquitectónico genera ahorros de costos a través de la consolidación de hardware, la reducción del consumo de energía y la simplicidad operativa. Los conmutadores inteligentes de Cisco adoptan todas las capacidades de un  conmutador NX-OS y la gestión a través de Nexus Dashboard , y desbloquearán un conjunto diverso de casos de uso como segmentación con estado, cifrado IPSec, telemetría mejorada, protección DDoS y más. Reimaginando la seguridad del centro de datos con Smart Switch y Hypershield El primer servicio integrado combinará Cisco Smart Switches e Hypershield para crear un nuevo enfoque de seguridad para centros de datos. Combinará una arquitectura de seguridad distribuida, acelerada por hardware y nativa de IA directamente dentro de la estructura del centro de datos para: La integración directa de la seguridad en la red del centro de datos cambia los fundamentos de la seguridad del centro de datos. En combinación con Cisco Firewall Threat Defense, las nuevas capacidades de AI Defense y Security Cloud Control, Cisco ofrecerá el primer firewall híbrido en malla optimizado para proteger las aplicaciones de IA en el centro de datos y la nube pública. Disponibilidad general El primer Cisco N9300 Smart Switch disponible, que cuenta con 24 puertos de 100 G, se enviará en la primavera de 2025. Un modelo top-of-rack, que contará con 48 puertos de 25 G, dos puertos de 100 G y seis puertos de 400 G, estará disponible por primera vez en el verano de 2025. Recursos adicionales: CISCO News. Traducido al español

Leer más »

La CPU NVIDIA Grace se integra con el ecosistema de software Arm

La CPU NVIDIA Grace está transformando el diseño de los centros de datos al ofrecer un nuevo nivel de rendimiento con eficiencia energética. Creada específicamente para la escala de los centros de datos, la CPU Grace está diseñada para manejar cargas de trabajo exigentes y consumir menos energía. NVIDIA cree en el beneficio de aprovechar las GPU para acelerar cada carga de trabajo. Sin embargo, no todas las cargas de trabajo se aceleran. Esto es especialmente cierto para aquellas cargas de trabajo que involucran código complejo y ramificado, como el análisis de gráficos, que se usa comúnmente en casos de uso populares como la detección de fraudes, la optimización operativa y el análisis de redes sociales.  A medida que los centros de datos enfrentan limitaciones energéticas cada vez mayores, es fundamental acelerar tantas cargas de trabajo como sea posible y ejecutar el resto con la computación más eficiente posible. La CPU Grace está optimizada para manejar tanto tareas aceleradas como tareas que solo requieren CPU, y ofrece hasta el doble de rendimiento con el mismo consumo de energía que las CPU convencionales. La CPU Grace cuenta con 72 núcleos Arm Neoverse V2 de alto rendimiento y bajo consumo de energía, conectados por NVIDIA Scalable Coherency Fabric (SCF). Esta estructura de gran ancho de banda garantiza un flujo de datos fluido entre los núcleos de la CPU, la memoria caché, la memoria y la E/S del sistema, lo que proporciona hasta 3,2 TB/s de ancho de banda de bisección, el doble que las CPU tradicionales.  La CPU Grace también utiliza memoria LPDDR5X de alta velocidad con confiabilidad de clase servidor, entregando hasta 500 GB/s de ancho de banda de memoria mientras consume solo una quinta parte de la energía de la memoria DDR tradicional.  En esta publicación, queríamos compartir cómo la CPU Grace se basa en el ecosistema Arm existente y, al mismo tiempo, aprovecha la amplia gama de software y herramientas de NVIDIA. Infraestructura de software estándar La CPU Grace fue diseñada para ser una CPU de propósito general equilibrada y funcionar como cualquier otra CPU. El flujo de trabajo para ejecutar software en la CPU Grace es el mismo que usarías en cualquier CPU x86. Las distribuciones estándar de Linux (Ubuntu, RHEL, SLES, etc.) y cualquier compilador multiplataforma de código abierto (GCC, LLVM, etc.) son compatibles con la CPU Grace.  La mayoría del software de código abierto actual ya es compatible con Arm y, por lo tanto, con la CPU Grace. De manera similar, cualquier optimización y adaptación de software realizada en la CPU Grace también funciona en el resto del ecosistema de software Arm Neoverse.  NVIDIA continúa trabajando con desarrolladores y socios en el ecosistema Arm y se compromete a garantizar que los compiladores, bibliotecas, marcos, herramientas y aplicaciones de código abierto aprovechen al máximo las CPU basadas en Arm Neoverse, como la CPU Grace. Muchas aplicaciones de ISV comerciales y nativas de la nube ya ofrecen ejecutables optimizados para Arm. El centro para desarrolladores de Arm ofrece una muestra de paquetes de software seleccionados para IA, nube, centro de datos, 5G, redes y edge. Este centro también ofrece orientación sobre cómo migrar aplicaciones a Arm.   Este ecosistema está habilitado por los estándares de Arm, como la Arquitectura del sistema base del servidor Arm (SBSA) y los Requisitos de arranque base (BBR) del Programa de certificación Arm SystemReady.  El software de NVIDIA es compatible con el ecosistema Arm Arm ha invertido durante décadas en el ecosistema de software. Puede innovar y saber que el software no solo funciona, sino que también está optimizado para Arm. El ecosistema de software de NVIDIA también aprovecha décadas de trabajo en computación acelerada y ahora se ha optimizado para Arm: NVIDIA también está ampliando su ecosistema de software para CPU Arm. NVIDIA lanzó anteriormente un nuevo conjunto de bibliotecas matemáticas de alto rendimiento para CPU Arm llamadas NVIDIA Performance Libraries (NVPL) . Estas bibliotecas implementan API estándar, lo que hace que su adopción sea un reemplazo sencillo de x86 en la etapa de vinculación.  De manera similar, las bibliotecas matemáticas como la biblioteca de rendimiento de Arm (ArmPL) también están optimizadas para maximizar el rendimiento de la CPU Grace además de cualquier otra CPU de Arm. Por ejemplo, Arm ha compartido cómo ArmPL Sparse se puede utilizar de manera similar a x86 . ArmPL tiene API similares a las de las bibliotecas matemáticas x86, lo que significa que desarrollar un contenedor puede requerir solo unos pocos cambios de API en el código.  NVIDIA es un participante activo en las comunidades de software de código abierto, como las de los compiladores GCC y LLVM. Si no desea esperar a que se publiquen estos lanzamientos regulares y desea crear código que funcione de manera óptima en la CPU Grace, las optimizaciones más recientes también están disponibles a través de la distribución Clang . Traslada tu software a Arm sin problemas El ecosistema de software Arm es grande y está en crecimiento, con cientos de proyectos de código abierto y proveedores de software independientes comerciales que ya admiten la arquitectura Arm. Si su aplicación aún no es compatible, es posible que deba volver a compilar el código fuente. Hay una variedad de herramientas disponibles para ayudarlo a hacerlo: Para obtener más información sobre la optimización y la portabilidad de aplicaciones, consulte la Guía de ajuste del rendimiento de NVIDIA Grace . Incluye instrucciones para configurar y optimizar el rendimiento de la CPU Grace. También proporciona orientación de alto nivel para desarrolladores sobre la programación de SIMD de Arm, el modelo de memoria de Arm y otros detalles. Utilice esta guía para obtener el mejor rendimiento posible para su sistema NVIDIA Grace en particular. Resumen La CPU NVIDIA Grace está diseñada para el centro de datos moderno con 72 núcleos Arm Neoverse V2 de alto rendimiento, un SCF de alto ancho de banda diseñado por NVIDIA para maximizar el rendimiento y una memoria de bajo consumo de alto ancho de banda. Puede ofrecer hasta el doble de rendimiento con el mismo consumo de energía que las principales CPU x86

Leer más »

IBM y Lenovo amplían su alianza tecnológica estratégica en el Reino de Arabia Saudita

Colaboración para ofrecer a los clientes de Arabia Saudita soluciones específicas compuestas por productos de inteligencia artificial generativa de la cartera de IBM Watsonx y la infraestructura de Lenovo RIAD, REINO DE ARABIA SAUDITA – 10 de febrero de 2025 – IBM y Lenovo anunciaron hoy en LEAP 2025 una expansión planificada de su asociación tecnológica estratégica diseñada para ayudar a escalar el impacto de la IA generativa para los clientes en el Reino de Arabia Saudita. IDC espera que el gasto anual mundial en sistemas centrados en IA supere los 300 mil millones de dólares para 2026, y muchas organizaciones líderes en Arabia Saudita están explorando e invirtiendo en casos de uso de IA generativa mientras se preparan para el surgimiento de un mundo de «IA en todas partes». 1 Basándose en su asociación de 20 años, IBM y Lenovo colaborarán para ofrecer soluciones de IA compuestas por tecnología de la cartera de productos de IA de IBM Watson, incluido el modelo de lenguaje árabe de código abierto (ALLaM) de la Autoridad Saudí de Datos e Inteligencia Artificial (SDAIA) y la infraestructura de Lenovo. Se espera que estas soluciones ayuden a los clientes gubernamentales y comerciales del Reino a acelerar el uso de la IA para mejorar los servicios públicos y tomar decisiones basadas en datos en áreas como la detección de fraudes, la seguridad pública, el servicio al cliente, la modernización de códigos y las operaciones de TI. Ayman AlRashed, vicepresidente regional de IBM Arabia Saudita, y Giovanni Di Filippo, presidente de Lenovo para EMEA, en LEAP 2025 en Riad. (Crédito: IBM) “El anuncio de hoy representa un paso importante en la relación de larga data entre IBM y Lenovo”, afirmó Giovanni Di Filippo, presidente de EMEA, Infrastructure Solutions Group en Lenovo. “Nos complace profundizar nuestra asociación para unir las ofertas de inteligencia artificial generativa de IBM con las soluciones de infraestructura de Lenovo para uso local y en la nube, a fin de brindarles a los clientes de Arabia Saudita soluciones diseñadas para satisfacer sus necesidades únicas en este mercado de rápido crecimiento”. Actualmente, las organizaciones de Arabia Saudita pueden acceder a ALLaM a través de Watsonx; utilizar capacidades avanzadas de IA para entrenar, ajustar e implementar ALLaM; y ejecutar sus cargas de trabajo de IA en la infraestructura de Lenovo para casos de uso locales y en la nube. Se espera que las nuevas soluciones proporcionen formas adicionales para que los clientes aprovechen el poder de la IA generativa con un enfoque basado en la transparencia, la confianza y la elección. “IBM y Lenovo tienen una rica historia de innovación y asociación conjunta que abarca dos décadas”, afirmó Ayman AlRashed, vicepresidente regional de IBM Arabia Saudita. “Esperamos que esta nueva colaboración una las ofertas de infraestructura de Lenovo y la cartera de inteligencia artificial de IBM, que utiliza modelos pequeños, eficientes y de código abierto destinados a casos de uso específicos y requisitos geográficos. Juntos generaremos un valor aún mayor para nuestros clientes mutuos en el Reino”. Las declaraciones sobre la dirección e intenciones futuras de IBM y Lenovo están sujetas a cambios o retiro sin previo aviso y representan únicamente metas y objetivos. IBM News. Traducido al español

Leer más »

Un sistema fácil de usar puede ayudar a los desarrolladores a crear simulaciones y modelos de IA más eficientes

Al generar automáticamente código que aprovecha dos tipos de redundancia de datos, el sistema ahorra ancho de banda, memoria y cálculo. Los modelos de inteligencia artificial basados ​​en redes neuronales que se utilizan en aplicaciones como el procesamiento de imágenes médicas y el reconocimiento de voz realizan operaciones sobre estructuras de datos sumamente complejas que requieren una enorme cantidad de cálculos para su procesamiento. Esta es una de las razones por las que los modelos de aprendizaje profundo consumen tanta energía. Para mejorar la eficiencia de los modelos de IA, los investigadores del MIT crearon un sistema automatizado que permite a los desarrolladores de algoritmos de aprendizaje profundo aprovechar simultáneamente dos tipos de redundancia de datos. Esto reduce la cantidad de computación, ancho de banda y almacenamiento de memoria necesarios para las operaciones de aprendizaje automático. Las técnicas existentes para optimizar algoritmos pueden ser engorrosas y, por lo general, solo permiten a los desarrolladores aprovechar la escasez o la simetría: dos tipos diferentes de redundancia que existen en las estructuras de datos de aprendizaje profundo. Al permitir que un desarrollador construya un algoritmo desde cero que aproveche ambas redundancias a la vez, el enfoque de los investigadores del MIT aumentó la velocidad de los cálculos casi 30 veces en algunos experimentos. Dado que el sistema utiliza un lenguaje de programación fácil de usar, podría optimizar los algoritmos de aprendizaje automático para una amplia gama de aplicaciones. El sistema también podría ayudar a los científicos que no son expertos en aprendizaje profundo pero que desean mejorar la eficiencia de los algoritmos de IA que utilizan para procesar datos. Además, el sistema podría tener aplicaciones en la computación científica. “Durante mucho tiempo, capturar estas redundancias de datos ha requerido un gran esfuerzo de implementación. En cambio, un científico puede decirle a nuestro sistema lo que le gustaría calcular de una manera más abstracta, sin decirle al sistema exactamente cómo calcularlo”, dice Willow Ahrens, posdoctora del MIT y coautora de un artículo sobre el sistema , que se presentará en el Simposio Internacional sobre Generación y Optimización de Código. A ella se unen en el artículo la autora principal Radha Patel ’23, SM ’24 y el autor principal Saman Amarasinghe, profesor del Departamento de Ingeniería Eléctrica y Ciencias de la Computación (EECS) e investigador principal del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL). Eliminando el cálculo En el aprendizaje automático, los datos suelen representarse y manipularse como matrices multidimensionales conocidas como tensores. Un tensor es como una matriz, que es una matriz rectangular de valores dispuestos en dos ejes, filas y columnas. Pero a diferencia de una matriz bidimensional, un tensor puede tener muchas dimensiones o ejes, lo que hace que sea más difícil manipularlos. Los modelos de aprendizaje profundo realizan operaciones sobre tensores mediante la multiplicación y la suma repetidas de matrices: este proceso es el que permite a las redes neuronales aprender patrones complejos en los datos. El gran volumen de cálculos que se deben realizar en estas estructuras de datos multidimensionales requiere una enorme cantidad de computación y energía. Pero debido a la forma en que se organizan los datos en los tensores, los ingenieros a menudo pueden aumentar la velocidad de una red neuronal eliminando cálculos redundantes. Por ejemplo, si un tensor representa datos de reseñas de usuarios de un sitio de comercio electrónico, dado que no todos los usuarios reseñaron todos los productos, es probable que la mayoría de los valores de ese tensor sean cero. Este tipo de redundancia de datos se denomina escasez. Un modelo puede ahorrar tiempo y cálculos si solo almacena y opera con valores distintos de cero. Además, a veces un tensor es simétrico, lo que significa que la mitad superior y la mitad inferior de la estructura de datos son iguales. En este caso, el modelo solo necesita operar en una mitad, lo que reduce la cantidad de cálculos. Este tipo de redundancia de datos se denomina simetría. “Pero cuando intentas capturar ambas optimizaciones, la situación se vuelve bastante compleja”, dice Ahrens. Para simplificar el proceso, ella y sus colaboradores crearon un nuevo compilador, que es un programa informático que traduce código complejo a un lenguaje más simple que puede ser procesado por una máquina. Su compilador, llamado SySTeC, puede optimizar los cálculos aprovechando automáticamente tanto la escasez como la simetría de los tensores. Comenzaron el proceso de construcción de SySTeC identificando tres optimizaciones clave que pueden realizar utilizando simetría. En primer lugar, si el tensor de salida del algoritmo es simétrico, entonces solo necesita calcular la mitad de él. En segundo lugar, si el tensor de entrada es simétrico, entonces el algoritmo solo necesita leer la mitad de él. Por último, si los resultados intermedios de las operaciones con tensores son simétricos, el algoritmo puede omitir los cálculos redundantes. Optimizaciones simultáneas Para utilizar SySTeC, un desarrollador introduce su programa y el sistema optimiza automáticamente su código para los tres tipos de simetría. Luego, la segunda fase de SySTeC realiza transformaciones adicionales para almacenar únicamente valores de datos distintos de cero, optimizando el programa para lograr una mayor escasez. Al final, SySTeC genera código listo para usar. “De esta manera, obtenemos los beneficios de ambas optimizaciones. Y lo interesante de la simetría es que, como el tensor tiene más dimensiones, se pueden obtener incluso más ahorros en los cálculos”, afirma Ahrens. Los investigadores demostraron aceleraciones de casi un factor de 30 con el código generado automáticamente por SySTeC. Debido a que el sistema está automatizado, podría ser especialmente útil en situaciones en las que un científico desea procesar datos utilizando un algoritmo que está escribiendo desde cero. En el futuro, los investigadores quieren integrar SySTeC en los sistemas de compilación de tensores dispersos existentes para crear una interfaz perfecta para los usuarios. Además, les gustaría utilizarlo para optimizar el código de programas más complejos. Este trabajo está financiado, en parte, por Intel, la Fundación Nacional de Ciencias, la Agencia de Proyectos de Investigación Avanzada de Defensa y el Departamento de

Leer más »

LEAP 2025: Hewlett Packard Enterprise ampliará su cartera de iniciativas «Saudi Made» para incluir HPE Aruba Networking

HPE anuncia la disponibilidad de servidores HPE «fabricados en Arabia Saudita» en todo el Medio Oriente y comparte planes para llevar la producción de soluciones HPE Aruba Networking al Reino, impulsando aún más la innovación desde el borde hasta la nube con redes basadas en inteligencia artificial y con seguridad prioritaria En este artículo Riad, Arabia Saudita – 10 de febrero de 2025 –  Hewlett Packard Enterprise  (HPE) anunció hoy sus planes de ampliar su iniciativa «Saudi Made» para incluir la cartera de HPE Aruba Networking y confirmó además la disponibilidad de servidores HPE «Saudi Made» en Jordania, Egipto y los países del Golfo. La medida subraya el compromiso de HPE de fomentar la innovación local y el avance tecnológico en Arabia Saudita y de apoyar la Visión 2030 del Reino para una mayor diversificación económica.  “Esto marca un hito importante para HPE y demuestra nuestro fuerte compromiso con el mercado de Arabia Saudita y el programa ‘Saudi Made’, mientras continuamos apoyando la ambiciosa agenda de crecimiento del país”. Mohamed Al-RehailiDirector general de HPE para Oriente Medio “Tras el exitoso lanzamiento de nuestros servidores HPE ‘Saudi Made’ el año pasado, que recibieron el Certificado Nacional de Producto, me enorgullece anunciar nuestros planes de construir un nuevo pilar de redes dentro de la iniciativa ‘Saudi Made’ de HPE”, afirmó Mohammad Alrehaili, Director General de HPE para Oriente Medio. “Esto marca un hito importante para HPE y demuestra nuestro fuerte compromiso con el mercado de Arabia Saudita y el programa ‘Saudi Made’, a medida que continuamos apoyando la ambiciosa agenda de crecimiento del país y ampliamos la autosuficiencia tecnológica del reino. Con la incorporación de la cartera de HPE Aruba Networking, estamos abordando la creciente demanda de conectividad y soluciones de redes, impulsada por las necesidades de los proyectos giga del Reino, así como por tecnologías emergentes como la IA”. Al aprovechar el talento y los recursos locales, HPE tiene como objetivo crear un ecosistema sólido que respalde el desarrollo de soluciones de redes de vanguardia adaptadas a las necesidades únicas de la región. La introducción de HPE Aruba Networking significa el siguiente paso y el elemento central de la iniciativa «Saudi Made» de HPE, que tiene como objetivo mejorar las capacidades del país en inteligencia artificial, redes y nube híbrida. “Con personas, dispositivos y volúmenes de datos cada vez mayores en todas partes, la red juega un papel protagónico para los clientes a la hora de mover datos de forma rápida, sencilla y segura, especialmente si se tienen en cuenta las crecientes demandas de datos de la IA” Phil MottramVicepresidente ejecutivo y gerente general de Intelligent Edge (HPE Aruba Networking) HPE “Con personas, dispositivos y volúmenes de datos cada vez mayores en todas partes, la red desempeña un papel protagónico para los clientes a la hora de mover datos de forma rápida, sencilla y segura, especialmente si tenemos en cuenta las crecientes demandas de datos de la IA”, afirmó Phil Mottram, vicepresidente ejecutivo y director general de Intelligent Edge (HPE Aruba Networking) de Hewlett Packard Enterprise. “En Arabia Saudita, vemos que esta tendencia se refleja en su Visión 2030, que apunta a construir y expandir la infraestructura digital y las redes de conectividad del Reino para permitir aún más la infraestructura inteligente, la comunicación y la colaboración fluidas. Las soluciones de red HPE ‘Saudi Made’ serán un acelerador clave para lograr este objetivo, ofreciendo tecnología de red inteligente basada en los principios Zero Trust y SASE que proporciona un acceso simple, inteligente y más seguro”. Además, se espera que este movimiento estratégico cree nuevos puestos de trabajo altamente cualificados para los ciudadanos saudíes, fomentando nuevas capacidades locales de fabricación e innovación y acelerando el desarrollo del ecosistema tecnológico del Reino. HPE. News. Traducido al español

Leer más »

Estudio de Cisco: los directores ejecutivos adoptan la IA, pero las brechas de conocimiento amenazan las decisiones estratégicas y el crecimiento

El 97 % de los directores ejecutivos planean la integración de la IA, pero solo el 1,7 % se siente completamente preparado. Una nueva investigación destaca qué impide el progreso y cómo planean los directores ejecutivos convertir la ambición en acción. Resumen de noticias: CISCO LIVE, ÁMSTERDAM, 10 de febrero de 2025 — Un nuevo estudio de Cisco, el líder mundial en redes y seguridad, revela una paradoja entre los directores ejecutivos. Si bien 4 de cada 5 reconocen los beneficios potenciales de la IA y casi todos planean integrarla en sus operaciones, muchos temen que las brechas en su conocimiento obstaculicen las decisiones en la sala de juntas (74 %) y ahoguen el crecimiento (58 %), lo que los llevará a perder oportunidades y quedarse atrás de sus competidores. Sin embargo, los directores ejecutivos no se quedan de brazos cruzados. Con el apoyo de los líderes de TI y socios de confianza, planean empoderar a su gente, modernizar la infraestructura y fortalecer la ciberseguridad para agudizar su ventaja competitiva en un futuro impulsado por la IA. Jeetu Patel, director de productos de Cisco, subraya la urgencia de actuar: “En un panorama dinámico en el que la competencia es feroz, la velocidad decide quiénes son los ganadores. Los líderes que actúen con decisión hoy para construir redes resilientes y preparadas para el futuro serán los líderes que se centren en la IA y generen valor real para sus negocios. Al final, solo habrá dos tipos de empresas: las que sean empresas de IA y las que sean irrelevantes”. Los directores ejecutivos temen los crecientes costos de la inacción La investigación de Cisco muestra que más del 70% de los CEOs están preocupados por perder terreno frente a los competidores y oportunidades debido a brechas en TI e infraestructura, temores que ya se están traduciendo en pérdidas reales. Más de la mitad de los CEOs (53%) temen que la falta de inversión en tecnología les esté costando ventaja competitiva, mientras que dos tercios están preocupados por los costos de oportunidad de no invertir más en tecnología. Los costos de la inacción no son escenarios hipotéticos. Si no invierten en tecnología ahora, los CEOs esperan mayores costos operativos, menores ganancias, menor productividad y disminución de la participación de mercado. Los valientes actúan mientras otros se quedan atrás Para los líderes que afronten sus miedos, las recompensas irán más allá de simplemente “mantenerse al día”. Los directores ejecutivos recurren a la IA por su potencial transformador: impulsa la eficiencia (69%), estimula la innovación (68%) y supera a los competidores (54%). Pero para cumplir esa ambición, los directores ejecutivos deben derribar las barreras que les impiden aprovechar el potencial de la IA: escasez de habilidades, brechas de infraestructura y riesgos de seguridad (Figura 1). Mientras que los CEO se centran en el panorama general, sus CIO y CTO suelen tener que lidiar con obstáculos operativos, incluida la falta de casos prácticos empresariales convincentes, un desafío que los CEO clasifican en un lugar inferior (Figura 1). Esta tensión quizás refleje la fase exploratoria de la IA, donde el 82% de los CEO que reconocen los beneficios potenciales de la IA deben apoyar una experimentación audaz en el corto plazo para descubrir valor en el largo plazo. Oliver Tuszik, presidente de Cisco EMEA, destaca la oportunidad: “Las empresas enteras se verán revolucionadas si pueden aprovechar el potencial de la IA para innovar más rápido, simplificar sus operaciones y resistir las disrupciones digitales. Pero nadie puede hacerlo solo. Es por eso que el 96% de los directores ejecutivos se apoyan en socios de confianza para dar el salto”. El plan del CEO: personas, infraestructura y ciberseguridad La investigación de Cisco revela el plan de los CEO para convertir el miedo en progreso: invertir en conocimiento y habilidades, actualizar la infraestructura y mejorar la seguridad para prepararse para las demandas de la IA (Figura 2). Para cumplir con este plan será necesario un liderazgo tecnológico decisivo, tanto dentro de la organización como a través de alianzas de confianza. Los directores ejecutivos recurren cada vez más a sus directores de tecnología y de informática, y casi el 80 % reconoce su papel vital a la hora de orientar las decisiones empresariales y de inversión. Cada vez más, los líderes tecnológicos son líderes empresariales que ven las redes y la tecnología modernas no solo como herramientas, sino como facilitadores del crecimiento, la resiliencia y la innovación. Los directores ejecutivos saben que no pueden cumplir con su plan sin el apoyo de expertos: el 96 % recurre a asociaciones de confianza para preparar su red para el futuro con respecto a la IA. Con un liderazgo tecnológico audaz dentro y fuera de sus organizaciones, los directores ejecutivos tienen la experiencia para sortear las incertidumbres y traducir el potencial de la IA en resultados tangibles.  Cisco continúa ayudando a las organizaciones a superar la complejidad y crear oportunidades en la era de la IA La escasez de habilidades, los desafíos de implementación, la infraestructura preparada para la IA y la ciberseguridad son las principales preocupaciones de los equipos de TI y los líderes de todas las industrias. Los próximos anuncios de Cisco apuntan a abordar estos desafíos: cerrar las brechas entre la seguridad y la red para los centros de datos de IA, empoderar a los proveedores de servicios con nuevas herramientas generadoras de ingresos y equipar a la próxima generación de profesionales con inteligencia artificial con certificaciones mejoradas. Descargue los aspectos más destacados de la investigación de directores ejecutivos de Cisco aquí El estudio de directores ejecutivos, realizado por Opinion Matters (del 24 de diciembre de 2024 al 2 de enero de 2025), encuestó a 2503 directores ejecutivos de empresas con más de 250 empleados en todo el mundo. En los próximos meses se realizará un estudio complementario con 8065 líderes sénior en redes, que explorará las necesidades estratégicas y operativas de las redes y la seguridad en la era de la IA. CISCO News. Traducido al español

Leer más »

Lanzamiento: actualización acumulativa del primer semestre de 2025 para Exchange Server

Hoy anunciamos la disponibilidad de la actualización acumulativa (CU) del primer semestre de 2025 para Exchange Server 2019 (también conocida como CU15). Esta es la última CU que lanzaremos para Exchange Server 2019. CU15 incluye nuevas características, correcciones para problemas informados por los clientes, un cambio de seguridad e incorpora todas las Actualizaciones de Seguridad (SU) publicadas anteriormente. CU15 contiene todos los cambios de seguridad incluidos en la SU v2 de noviembre de 2024 (paquete relanzado) y también incluye una solución para el problema de zona horaria conocido en la SU de noviembre de 2024 . En el artículo de Knowledge Base para CU15 se incluye una lista completa de correcciones, pero también queremos destacar algunos cambios importantes en CU15. Distribución de funciones de Exchange Server CU15 presenta los componentes del lado del servidor para una nueva capacidad para servidores de buzones de correo denominada Feature Flighting que se incluye en Exchange Server Subscription Edition (SE). Históricamente, antes de instalar una actualización de Exchange en producción, las organizaciones suelen implementar actualizaciones en un entorno de prueba para validar primero la actualización antes de implementarla en su entorno de producción. Esta es una tarea importante, pero también requiere mucho tiempo y puede ralentizar la implementación de actualizaciones importantes. Además, no todas las organizaciones tienen entornos de prueba. Feature Flighting proporcionará una forma adicional para que los administradores prueben e implementen nuevas funciones seleccionadas en toda su organización de Exchange Server SE. Feature Flighting es un servicio opcional basado en la nube para servidores Exchange locales. Utiliza el Servicio de configuración de Office (OCS), el mismo punto de conexión que utilizan el Servicio de mitigación de emergencias y los clientes de Microsoft Office, para buscar actualizaciones de Microsoft relacionadas con las funciones incluidas en el paquete. Con Feature Flighting, los administradores pueden implementar actualizaciones de inmediato y controlar cuándo se habilita una función incluida en el paquete en su entorno. Feature Flighting también permite a Microsoft deshabilitar una función incluida en el paquete en caso de que se descubra un problema importante después de que se haya publicado la actualización que contiene la función incluida en el paquete. Feature Flighting no se aplicará a todas las nuevas funciones y cambios en futuras actualizaciones. El equipo de ingeniería de Exchange Server determinará qué funciones se distribuirán a través de Feature Flighting, y se mantendrá una lista detallada y actualizada de las funciones incluidas aquí . El uso de Feature Flighting es opcional, pero está habilitado de forma predeterminada. Puede configurarlo o deshabilitarlo siguiendo los pasos que se describen en la documentación . Nota: No se están implementando funciones en CU15 y, debido a nuestra promesa de equivalencia de código, no se implementarán funciones en Exchange Server SE RTM. La implementación de funciones se aplicará solo a futuras actualizaciones y brindaremos más información en las futuras actualizaciones cuando haya funciones implementadas. Datos de diagnóstico adicionales opcionales enviados a Microsoft Microsoft recopila datos de diagnóstico para mantener Exchange Server seguro y actualizado, detectar y solucionar problemas, e identificar y mitigar amenazas. Cuando un administrador lo habilita, un servidor Exchange 2019 envía datos de diagnóstico al OCS. A partir de la versión CU15, Exchange Server recopilará y enviará datos de diagnóstico adicionales a Microsoft, incluida información adicional sobre las funciones de prueba. Estos datos adicionales solo se recopilarán y enviarán si los datos de diagnóstico están habilitados en el servidor. Compatibilidad con Windows Server 2025 Nos complace anunciar que tanto CU14 como CU15 incluyen compatibilidad para ejecutar Exchange Server 2019 en Windows Server 2025 y en organizaciones que usan servidores de Active Directory que ejecutan Windows Server 2025. Esto significa que puede instalar CU14 o CU15 en hardware nuevo con Windows Server 2025 y luego actualizar en el lugar a Exchange Server Subscription Edition (SE) para aprovechar al máximo el ciclo de vida del producto compatible del servidor. Anteriormente mencionamos que esta compatibilidad llegaría a CU15, pero también validamos CU14 para este escenario para facilitar sus migraciones a la última versión de Windows Server. DocParser reemplaza a Oracle Outside In Technology A partir de CU15, Exchange Server utiliza DocParser como reemplazo de la tecnología Oracle Outside In que se utilizaba anteriormente en Exchange Server. DocParser es una biblioteca de Microsoft diseñada para analizar varios formatos de archivo. Realiza la extracción de texto al procesar correos electrónicos en el transporte para la prevención de pérdida de datos y las reglas de transporte de Exchange. Compatibilidad parcial con TLS 1.3 A partir de CU15, Exchange 2019 admite TLS 1.3 en Windows Server 2022 y versiones posteriores para todos los protocolos, excepto SMTP. Cuando CU15 está instalado en Windows Server 2022 o versiones posteriores, TLS 1.3 está habilitado de forma predeterminada (pero tenga en cuenta que CU15 no deshabilita ninguna versión existente de TLS). La compatibilidad de TLS 1.3 con SMTP se agregará en una actualización futura. Mejoras en la integración de AMSI en Exchange Server La integración mejorada de Exchange Server AMSI (anunciada previamente en las SU de noviembre de 2024 ) también está incluida en CU15. La interfaz de gestión de certificados está de vuelta en el EAC En una actualización de actualización anterior, se eliminaron algunas tareas críticas de administración de certificados del EAC. La actualización de actualización 15 reintroduce la administración de certificados en el EAC. Consulte Procedimientos de certificación para obtener más información. La coexistencia con Exchange Server 2013 está bloqueada Como se anunció anteriormente , Exchange Server 2019 CU15 no se puede instalar en una organización que tenga servidores que ejecuten Exchange 2013. Debe retirar y desinstalar todos los servidores Exchange 2013 de su organización antes de poder instalar CU15. Tenga en cuenta que la eliminación de servidores de transporte perimetral requiere pasos adicionales, como se describe aquí . Recordatorio: Protección extendida habilitada de manera predeterminada Como recordatorio para nuestros clientes que actualizan desde CU anteriores, desde Exchange 2019 CU14, la Protección extendida está habilitada de manera predeterminada después de instalar CU. Para obtener más información e instrucciones sobre cómo inhabilitar la Protección extendida, consulte esta publicación del blog . Funciones retrasadas en Exchange Server SE CU1 Anteriormente anunciamos que Exchange Server 2019 CU15 agregaría compatibilidad con claves de producto de Exchange Server SE. Estamos retrasando este cambio hasta

Leer más »
Scroll al inicio