El Portal de las Tecnologías para la Innovación

Categoría: Nube e Infraestructura como Servicio

La era inteligente: tender puentes entre lo visible y lo invisible en un mundo impulsado por la tecnología

3 corredores digitales donde las personas y la infraestructura tecnológica sientan las bases La tecnología se ha vuelto tan parte de la vida moderna que es fácil darla por sentada. Los teléfonos inteligentes ponen el mundo a nuestro alcance, nos conectan con familiares y amigos a distancia y nos brindan acceso instantáneo a información sobre todos los temas imaginables. Gracias a los avances en inteligencia artificial, hemos incorporado inteligencia a dispositivos cotidianos como nuestros relojes, refrigeradores, bombillas, automóviles y aspiradoras. La tecnología nos ayuda a controlar nuestra salud, aprender más rápido, comprar de manera más inteligente, trabajar de forma remota y ahorrar tiempo y energía en tareas mundanas, entre muchas otras posibilidades. Vivimos verdaderamente en la era inteligente. Cuando Internet se hizo accesible al público en los años 90, marcó el comienzo de una nueva era para la humanidad. Desde entonces, ha alterado radicalmente nuestro mundo, tanto que rara vez pensamos en lo que hace posible el acceso digital global. Y ahora, la IA está transformando el mundo de manera similar, infiltrándose en todo lo que nos rodea y cambiando la forma en que operan las organizaciones. Estas tecnologías a menudo parecen invisibles e intangibles, pero hay una infraestructura física real detrás de ellas, así como innumerables personas que construyen y mantienen los sistemas informáticos, el almacenamiento de datos y las redes interconectadas a través de las cuales enormes volúmenes de información viajan por el mundo todos los días. La tecnología es física La infraestructura está en gran medida fuera de la vista del usuario promedio. Sin embargo, no habría Internet, ni tecnología digital ni inteligencia artificial sin ella. A medida que la inteligencia artificial evoluciona y su adopción se acelera, necesitamos niveles sin precedentes de potencia computacional, almacenamiento seguro de datos de alto valor y de propiedad exclusiva, y conectividad segura entre infraestructuras de TI distribuidas. Los centros de datos de alto rendimiento son las instalaciones que albergan gran parte de esta infraestructura de TI: no solo los sistemas, redes y aplicaciones que forman la columna vertebral de la era inteligente, sino también el suministro de energía, la refrigeración, los bastidores, los gabinetes y otros equipos necesarios. Los cables físicos de fibra óptica transportan información entre las partes y las ubicaciones, mientras que los cables submarinos atraviesan los océanos para conectar los continentes digitalmente. Las tecnologías emergentes que surgieron a raíz de Internet, como la computación en la nube, la Internet de las cosas (IoT), las redes celulares 5G y la IA, solo existen porque esta infraestructura física, que se encuentra en gran medida en centros de datos, las respalda. La tecnología está impulsada por las personas El hardware físico no es lo único que opera detrás de escena en las tecnologías digitales actuales. Nuestras vidas digitales en la era inteligente no serían posibles sin las personas que construyen, mantienen y optimizan esta infraestructura física. En todas partes del planeta hay ingenieros, arquitectos, administradores de sistemas, técnicos, equipos de logística y muchos otros profesionales técnicos que hacen que estas tecnologías que alteran el mundo funcionen. La gente está trabajando duro, las 24 horas del día, para mantener nuestros sistemas inteligentes en línea: La era inteligente está aquí y ahora No sorprende que el tema del Foro Económico Mundial 2025 sea “Colaboración para la era inteligente”. [1] Las tecnologías como la IA están generando una rápida transformación y ofrecen una enorme promesa de mayor eficiencia y conocimiento en todas las industrias, pero también conllevan desafíos técnicos y éticos. Para utilizar la IA de manera responsable y sostenible , los líderes mundiales deben comprender los riesgos y trabajar para garantizar que usemos la tecnología de manera inteligente. La era inteligente tiene un profundo potencial para generar progreso humano. Ya lo estamos viendo, pero hay mucho más por venir. En Equinix, pensamos en la infraestructura de TI todos los días. Es nuestro sustento, al igual que las personas que la hacen funcionar. Incluso con todo lo que se habla de IA y automatización, la experiencia y la colaboración humanas siguen siendo la columna vertebral de nuestro mundo digital. Nuestra fuerza laboral global de centros de datos, junto con innumerables otras personas en los ecosistemas tecnológicos que colaboran e intercambian valor en nuestros centros de datos, desempeña un papel importante para mantener el funcionamiento sin problemas de Internet y todas las tecnologías digitales que dependen de él. Mientras pensamos en lo que realmente hay detrás de la era inteligente, respaldando las tecnologías de vanguardia que están transformando nuestro mundo, exploraremos tres corredores digitales globales que muestran la interacción entre la infraestructura física y las personas que mantienen esa infraestructura vital en funcionamiento. Profundicemos un poco más en cada uno de estos lugares para explorar las innumerables formas en que la tecnología y las personas están trabajando juntas en todo el mundo para impulsar esta era de la inteligencia. Londres: el centro financiero y de la nube de Europa Londres es ampliamente reconocido como el principal centro financiero, de telecomunicaciones y tecnológico de Europa. No sorprende que también sea el mayor mercado de centros de datos de Europa y que haya atraído a hiperescaladores globales. Las rampas de acceso a la nube para todos los principales proveedores están alojadas en el Gran Londres. Las empresas digitales pueden obtener acceso a demanda a una infraestructura flexible, todo ello mientras aprovechan uno de los centros de población más grandes de Europa. La ciudad también ocupa un lugar clave en la historia de la infraestructura digital. Los primeros cables submarinos se instalaron en la década de 1850 entre Dover y Calais, lo que permitió la conectividad directa entre Londres y París. Esto convierte a Londres en una de las cunas de las telecomunicaciones globales. Muchos años después, Londres sigue firmemente conectada con París (y con otras ciudades centrales como Ámsterdam y Frankfurt) a lo largo del corredor digital más importante de Europa . Para las empresas financieras que operan en Europa, la implementación en Londres no es negociable. En particular, las empresas comerciales deben acercarse lo más posible a la acción, y esa acción ocurre en Londres. Para

Leer más »

Optimice el rendimiento de la inferencia de IA con las soluciones full-stack de NVIDIA

La explosión de aplicaciones impulsadas por IA ha impuesto exigencias sin precedentes tanto a los desarrolladores, que deben equilibrar la entrega de un rendimiento de vanguardia con la gestión de la complejidad y los costos operativos, como a la infraestructura de IA NVIDIA está capacitando a los desarrolladores con innovaciones integrales (que abarcan chips, sistemas y software) que redefinen lo que es posible en la inferencia de IA , haciéndola más rápida, más eficiente y más escalable que nunca. Implemente fácilmente inferencia de alto rendimiento y baja latencia Hace seis años, NVIDIA se propuso crear un servidor de inferencia de IA diseñado específicamente para desarrolladores que crean aplicaciones de producción de alto rendimiento y con latencia crítica. En ese momento, muchos desarrolladores se enfrentaban a servidores personalizados y específicos de cada marco que aumentaban la complejidad, elevaban los costos operativos y tenían dificultades para cumplir con los estrictos acuerdos de nivel de servicio en cuanto a latencia y rendimiento. Para abordar este problema, NVIDIA desarrolló NVIDIA Triton Inference Server , una plataforma de código abierto capaz de ofrecer modelos de cualquier marco de IA. Al consolidar servidores de inferencia específicos del marco, Triton optimizó la implementación de inferencia de IA y aumentó la capacidad de predicción de IA. Este enfoque ha convertido a Triton en uno de los proyectos de código abierto de NVIDIA más adoptados , que ahora utilizan cientos de organizaciones líderes para implementar modelos de IA de producción de manera eficiente. Además de Triton, NVIDIA ofrece un amplio ecosistema de soluciones de inferencia de IA. Para los desarrolladores que buscan herramientas potentes y personalizables, NVIDIA TensorRT ofrece una biblioteca de inferencia de aprendizaje profundo de alto rendimiento con API que permiten optimizaciones detalladas. Los microservicios NVIDIA NIM proporcionan un marco flexible para implementar modelos de IA en la nube, centros de datos o estaciones de trabajo. Optimizaciones para cargas de trabajo de inferencia de IA En la actualidad, la inferencia es un problema integral que requiere una infraestructura de alto rendimiento y un software eficiente para hacer un uso eficaz de esa infraestructura. Además, las cargas de trabajo de inferencia siguen siendo cada vez más desafiantes, ya que los tamaños de los modelos siguen creciendo y las restricciones de latencia se hacen más estrictas, todo ello mientras que la cantidad de usuarios que aprovechan estos servicios de IA también sigue aumentando. Y con la introducción del escalamiento del tiempo de inferencia, un nuevo paradigma para escalar la inteligencia de los modelos, se están aplicando más cálculos durante la inferencia para mejorar el rendimiento de los modelos.  Estas tendencias significan que es importante seguir mejorando el rendimiento de la inferencia entregada, incluso en la misma plataforma de hardware subyacente. Al combinar métodos establecidos como el paralelismo de modelos, el entrenamiento de precisión mixta, la poda, la cuantificación y la optimización del preprocesamiento de datos con avances de vanguardia en tecnologías de inferencia, los desarrolladores pueden lograr ganancias notables en velocidad, escalabilidad y rentabilidad. La biblioteca TensorRT-LLM incorpora muchas características de última generación que aceleran el rendimiento de inferencia para modelos de lenguaje grandes (LLM) , que se describen a continuación. Optimizaciones de caché de KV y precarga Optimización de la decodificación Inferencia de múltiples GPU Cuantificación y cálculo de menor precisión  Con estas características, así como muchas otras de Triton y TensorRT-LLM, los desarrolladores ahora pueden implementar LLM que no solo sean más rápidos y eficientes, sino que también sean capaces de gestionar una gama más amplia de tareas y demandas de los usuarios. Esto abre nuevas oportunidades para que las empresas mejoren el servicio al cliente, automaticen procesos complejos y obtengan información más detallada de sus datos.  Evaluación del rendimiento de la inferencia  Para ofrecer un rendimiento de inferencia de primer nivel se necesita un conjunto completo de tecnología (chips, sistemas y software), todo lo cual contribuye a aumentar el rendimiento, reducir el consumo de energía por token y minimizar los costos.  MLPerf Inference es una medida clave del rendimiento de inferencia. El punto de referencia mide el rendimiento de inferencia en condiciones estandarizadas y los resultados están sujetos a una revisión exhaustiva por pares. El punto de referencia se actualiza periódicamente para reflejar los nuevos avances en IA, lo que garantiza que las organizaciones puedan confiar en estos resultados para evaluar el rendimiento de la plataforma. En la última ronda de MLPerf Inference, NVIDIA Blackwell hizo su debut , ofreciendo hasta 4 veces más rendimiento que la GPU NVIDIA H100 Tensor Core en el benchmark Llama 2 70B. Este logro fue el resultado de las numerosas innovaciones arquitectónicas en el corazón de la GPU Blackwell, incluido el Transformer Engine de segunda generación con núcleos Tensor FP4 y memoria GPU HBM3e ultrarrápida que ofrece 8 TB/s de ancho de banda de memoria por GPU.  Además, muchos aspectos de la pila de software NVIDIA, incluido NVIDIA TensorRT-LLM, se rediseñaron para aprovechar las nuevas capacidades de Blackwell, como el soporte para la precisión FP4, al mismo tiempo que se sigue cumpliendo el riguroso objetivo de precisión del punto de referencia.  La GPU NVIDIA H200 Tensor Core, disponible ahora a través de los fabricantes de servidores y proveedores de servicios en la nube, también logró resultados sobresalientes en cada prueba comparativa en la categoría de centros de datos. Esto incluye la nueva prueba Mixtral 8x7B de mezcla de expertos (MoE) LLM, así como en las pruebas de texto a imagen Llama 2 70B LLM y Stable Diffusion XL. Como resultado de las mejoras de software continuas, la arquitectura Hopper brindó hasta un 27 % más de rendimiento de inferencia en comparación con la ronda anterior.  NVIDIA Triton Inference Server, que se ejecuta en un sistema con ocho GPU H200, logró un rendimiento prácticamente idéntico en comparación con la presentación de NVIDIA sin sistema operativo en el benchmark Llama 2 70B en MLPerf Inference v4.1. Esto demuestra que las empresas ya no necesitan elegir entre un servidor de inferencia de IA de nivel de producción con muchas funciones y un rendimiento de procesamiento máximo: ambos se pueden lograr simultáneamente con NVIDIA Triton. El futuro de la inferencia de

Leer más »

Su próximo paso en la gestión financiera de TI: IBM Apptio Costing and Planning ahora disponible en Azure Marketplace

En IBM, nuestro compromiso de empoderar a las organizaciones con soluciones de TI innovadoras siempre ha estado a la vanguardia de nuestra misión.  Estamos encantados de anunciar la última expansión de nuestra cartera en Azure Marketplace , que ahora incluye IBM Apptio Costing and Planning . Como la solución de gestión financiera de TI (ITFM) líder en el mercado, IBM Apptio Costing and Planning permite a los líderes y las unidades de negocios comprender a dónde va cada dólar y el valor que aporta a la organización.  Este hito sigue al exitoso lanzamiento de IBM Targetprocess en Azure Marketplace en octubre de 2024. Con la incorporación de Apptio Costing and Planning en enero de 2025, estamos fortaleciendo nuestro compromiso de brindar soluciones de gestión financiera de TI líderes en la industria a través de la plataforma confiable de Azure.  Por qué es importante esta expansión  En la actualidad, las organizaciones enfrentan una presión cada vez mayor para alinear las inversiones en TI con el valor y los resultados comerciales, al tiempo que impulsan una mayor transparencia y responsabilidad financiera. IBM Apptio Costing and Planning aborda estos desafíos al brindar herramientas que ayudan a las empresas a:  «Estamos encantados de que nuestras soluciones de gestión financiera de TI líderes en el mercado estén ahora disponibles para los clientes a través de Azure Marketplace. Este nuevo canal global ofrece a los clientes de Microsoft acceso a las ofertas de IBM Technology Business Management (TBM) para gestionar mejor el coste y el valor de la tecnología. Estamos entusiasmados de colaborar con Microsoft para garantizar que las nuevas inversiones en tecnología generen un retorno de la inversión atractivo y un impacto comercial», Larry Blasko, director de marketing y ventas de WW Apptio Software. Juntos, IBM y Microsoft están capacitando a los clientes para usar eficientemente los recursos de TI y adaptarse a las cambiantes necesidades tecnológicas, especialmente con el auge de la innovación de IA basada en la nube». «La nueva solución de gestión financiera de TI de IBM, IBM Apptio Costing and Planning , brindará un nuevo valor para los clientes», dijo Dinis Couto, gerente general de GSI Commercial Partners en Microsoft. Al hacer que Apptio Costing and Planning esté disponible en Azure Marketplace, garantizamos que las organizaciones tengan acceso sin inconvenientes a esta poderosa solución, aprovechando el ecosistema de Azure para acelerar el tiempo hasta obtener valor.  Maximizar el valor con los compromisos de consumo de Azure  Uno de los aspectos más interesantes de esta oferta es la posibilidad de que los clientes de Azure utilicen sus compromisos de consumo de Microsoft Azure (MACC) para adquirir IBM Apptio Costing and Planning. Esto significa que las organizaciones pueden aprovechar sus inversiones preexistentes en Azure para acceder a las principales capacidades de ITFM sin obstáculos financieros adicionales.  Al integrar Apptio Costing and Planning en sus entornos de Azure, las empresas pueden lograr una visión unificada de sus costos de TI locales y en la nube, lo que proporciona la claridad y el control necesarios para prosperar en el complejo panorama de TI actual. Como resultado, las organizaciones pueden identificar la optimización de costos y desbloquear ahorros de costos de gastos previamente comprometidos para reinvertirlos en prioridades comerciales e inversiones de crecimiento. Al ayudar a identificar y transferir fondos previamente destinados a actividades «ejecutadas» a nuevas inversiones de crecimiento, las empresas pueden crear de manera efectiva presupuestos autofinanciados que impulsen la innovación e impulsen iniciativas estratégicas.  Impulsando juntos la gestión estratégica de TI  En IBM, estamos orgullosos de asociarnos con Microsoft para ayudar a las organizaciones a transitar con confianza su camino hacia la gestión financiera de TI. Con Apptio Costing and Planning ahora como parte de Azure Marketplace, estamos haciendo que sea más fácil que nunca para las empresas aprovechar las herramientas de gestión financiera de TI de vanguardia para optimizar los costos, impulsar la planificación estratégica y ofrecer un valor comercial tangible.  Lo invitamos a explorar la solución IBM Apptio Costing and Planning en Azure Marketplace hoy mismo y a descubrir un nuevo nivel de claridad y control financiero para sus inversiones en TI. Demos forma al futuro de la TI juntos. IBM News. M. P.Traducido al español

Leer más »

Proteja fácilmente sus cargas de trabajo de IBM Cloud PowerVS con IBM Cloud Security and Compliance Center Workload Protection

IBM Power Virtual Server ofrece una plataforma de nube potente y flexible con seguridad, confiabilidad, disponibilidad y rendimiento integrados. Esto ayuda a los clientes a cumplir con los requisitos de una variedad de cargas de trabajo complejas y altamente reguladas: en la industria bancaria y financiera para ejecutar soluciones de procesamiento de pagos, plataformas avanzadas de gestión de riesgos o comercio, en la transformación de operaciones empresariales para escalar con SAP S/4 HANA en IBM Cloud, o para brindar protección de datos avanzada y servicios de respaldo para industrias con un alto nivel de cumplimiento, como la atención médica, con soluciones como Cobalt Iron Compass Power. Siguiendo el modelo de responsabilidad conjunta por la seguridad aplicable a las ofertas de Infraestructura como Servicio (IaaS), los clientes pueden confiar en IBM para garantizar la seguridad y confiabilidad de la infraestructura de la plataforma Power Virtual Server (PowerVS). Sin embargo, la escala y la complejidad de las operaciones basadas en la nube requieren una solución adicional que pueda abordar el riesgo de una configuración incorrecta de la carga de trabajo que genere riesgos de seguridad o cumplimiento normativo. Con la última actualización de IBM Cloud Security and Compliance Center (SCC) Workload Protection, los servidores Power en IBM Cloud y en las instalaciones locales ahora son compatibles con la gestión de la postura de cumplimiento, lo que aporta una nueva capa de seguridad a las cargas de trabajo críticas que se ejecutan en PowerVS. Esta nueva capacidad garantiza que las aplicaciones y cargas de trabajo empresariales críticas, como SAP, Oracle y DB2, se puedan proteger y monitorear de manera más eficiente con una solución integral de seguridad y cumplimiento. ¿Qué es la protección de carga de trabajo de SCC? IBM Cloud Security and Compliance Center (SCC) Workload Protection es una plataforma de protección de aplicaciones nativa de la nube (CNAPP) que permite a los clientes supervisar y proteger las cargas de trabajo en entornos híbridos de múltiples nubes. Con SCC Workload Protection, puede aprovechar las funciones avanzadas para la gestión de vulnerabilidades (VM), la gestión de la postura de seguridad en la nube (CSPM) para IBM Cloud (y otras nubes), junto con la detección de amenazas, lo que lo ayuda a proteger sus aplicaciones comerciales más críticas. Kuppinger-Cole ha reconocido a SCC Workload Protection como una solución líder en la industria en su informe Leadership Compass 2024 para CNAPP . La plataforma brinda protección unificada en todos sus entornos híbridos de múltiples nubes, con monitoreo en tiempo real y visibilidad de los riesgos de seguridad y cumplimiento que podrían afectar sus cargas de trabajo. ¿Qué hace SCC Workload Protection por PowerVS? SCC Workload Protection ahora ofrece capacidades de gestión de la postura de cumplimiento para cargas de trabajo críticas en PowerVS, incluidos AIX y Enterprise Linux en Power. Con la gestión de la postura de cumplimiento, estas capacidades están diseñadas para proporcionar una supervisión unificada de la postura de sus cargas de trabajo para ayudar a acceder y gestionar el cumplimiento de los estándares regulatorios y de la industria, como CIS Benchmarks, además de capacidades avanzadas de protección de cargas de trabajo con escaneo de vulnerabilidades y detección de amenazas en tiempo real para Linux en Power. Las empresas que ejecutan cargas de trabajo de misión crítica en PowerVS pueden seguir acelerando la innovación en la era actual de transformación de la nube, al mismo tiempo que cumplen continuamente con el cumplimiento regulatorio y mantienen una seguridad estricta para cargas de trabajo reguladas a escala con estas características y beneficios clave: 1. Gestión unificada de cargas de trabajo en nube híbrida con una vista de inventario de activos. 2. Monitoreo integral de las configuraciones de carga de trabajo a través de un panel de control de cumplimiento 3. Capacidad para identificar riesgos de seguridad antes de la producción con gestión de vulnerabilidades 4. Casos de uso adicionales con SCC Workload Protection Al integrar la gestión de la postura de cumplimiento de PowerVS AIX o Linux en la plataforma, SCC Workload Protection es un factor decisivo para las organizaciones que buscan adoptar IBM Cloud y gestionar aún más su infraestructura de nube híbrida. Con la integración nativa en la plataforma de IBM Cloud, ofrece una configuración simplificada y una gestión de acceso centralizada, lo que reduce el tiempo de obtención de valor y los costos operativos para proteger estas cargas de trabajo críticas. En resumen, SCC Workload Protection mejora las cargas de trabajo de PowerVS con una visión unificada de la seguridad y el cumplimiento, lo que mejora la gestión de riesgos y aumenta la confianza operativa. Introducción a la protección de carga de trabajo de SCC para PowerVS Como solución CNAPP híbrida y multicloud, SCC Workload Protection está disponible para todos los clientes que requieren seguridad de vanguardia y gestión de cumplimiento en todo su entorno, incluidos Power, PowerVS, Linux on Power, AIX on Power e IBM Cloud. SCC Workload Protection disponible en el catálogo de IBM Cloud Guía para comenzar a utilizar la protección de carga de trabajo de SCC IBM News. M. Ch., V. K. y D. P. Traducido al español

Leer más »

La arquitectura híbrida Hymba mejora el rendimiento de los modelos de lenguaje pequeños

Los investigadores de NVIDIA propusieron recientemente Hymba , una familia de modelos de lenguaje pequeños (SLM) que presenta una arquitectura paralela de cabezales híbridos que integra mecanismos de atención de transformadores con SSM para lograr una mayor eficiencia y un mejor rendimiento. Los transformadores, con su arquitectura basada en la atención, se han convertido en la opción dominante para los modelos de lenguaje (LM) debido a su alto rendimiento, capacidades de paralelización y recuperación a largo plazo a través de cachés de clave-valor (KV). Sin embargo, su costo computacional cuadrático y sus altas demandas de memoria plantean desafíos de eficiencia. Por el contrario, los modelos de espacio de estado (SSM) como Mamba y Mamba-2 ofrecen una complejidad constante y una optimización eficiente del hardware, pero tienen dificultades con las tareas de recuperación de memoria, lo que afecta su rendimiento en los puntos de referencia generales. Los investigadores de NVIDIA propusieron recientemente Hymba , una familia de modelos de lenguaje pequeños (SLM) que presenta una arquitectura paralela de cabezales híbridos que integra mecanismos de atención de transformadores con SSM para lograr una mayor eficiencia y un mejor rendimiento. En Hymba, los cabezales de atención brindan una recuperación de alta resolución, mientras que los cabezales SSM permiten un resumen de contexto eficiente. La novedosa arquitectura de Hymba revela varias ideas: Esta publicación muestra que Hymba 1.5B tiene un rendimiento favorable frente a los modelos de código abierto de última generación de tamaño similar, incluidos Llama 3.2 1B, OpenELM 1B, Phi 1.5, SmolLM2 1.7B, Danube2 1.8B y Qwen2.5 1.5B. En comparación con los modelos Transformer de tamaño similar, Hymba también logra un mayor rendimiento y requiere 10 veces menos memoria para almacenar la caché. Hymba 1.5B se lanza a la colección Hugging Face y GitHub . Rendimiento del Hymba 1.5B La Figura 1 compara Hymba 1.5B con modelos sub-2B (Llama 3.2 1B, OpenELM 1B, Phi 1.5, SmolLM2 1.7B, Danube2 1.8B, Qwen2.5 1.5B) en términos de precisión promedio de la tarea, tamaño de caché (MB) en relación con la longitud de la secuencia y rendimiento (tok/seg). En este conjunto de experimentos, las tareas incluyen MMLU, ARC-C, ARC-E, PIQA, Hellaswag, Winogrande y SQuAD-C. El rendimiento se mide en una GPU NVIDIA A100 con una longitud de secuencia de 8K y un tamaño de lote de 128 utilizando PyTorch. Para los modelos que encontraron problemas de falta de memoria (OOM) durante la medición del rendimiento, el tamaño del lote se redujo a la mitad hasta que se resolvió el OOM para medir el rendimiento máximo alcanzable sin OOM. Diseño del modelo Hymba  Los SSM como Mamba se introdujeron para abordar la complejidad cuadrática y los grandes problemas de caché KV en el tiempo de inferencia de los transformadores. Sin embargo, debido a su memoria de baja resolución, los SSM tienen dificultades con la recuperación de la memoria y el rendimiento. Para superar estas limitaciones, proponemos una hoja de ruta para desarrollar LM pequeños eficientes y de alto rendimiento en la Tabla 1. Configuración Razonamiento de sentido común (%) ↑ Recordatorio (%) ↑ Rendimiento (token/seg) ↑ Tamaño de caché (MB) ↓ Razón de diseño Ablaciones en modelos de tamaño 300M y tokens de entrenamiento de 100B Transformador (Llama) 44.08 39,98 721.1 414.7 Recuerdo preciso aunque ineficiente  Modelos de espacio de estados (Mamba) 42,98 19.23 4720.8 1.9 Recuperación eficiente aunque imprecisa A. + Atención cabezas (secuenciales) 44.07 45,16 776.3 156.3 Mejorar las capacidades de recuperación B. + Cabezales multicabezal (paralelos) 45,19 49,90 876.7 148.2 Mejor equilibrio de dos módulos C. + Atención local/global 44,56 48,79 2399.7 41.2 Aumente la eficiencia de procesamiento y almacenamiento en caché D. + Uso compartido de caché KV 45,16 48.04 2756.5 39.4 Eficiencia de la caché E. + Metatokens  45,59 51,79 2695.8 40.0 Inicialización de memoria aprendida Escalado a un tamaño de modelo de 1,5 mil millones y tokens de entrenamiento de 1,5 T F. + Tamaño/datos 60,56 64,15 664.1 78.6 Mejorar aún más el rendimiento de las tareas G. + Longitud de contexto extendida (2K→8K) 60,64 68,79 664.1 78.6 Mejorar las tareas de recuperación y disparo múltiple Tabla 1. Hoja de ruta de diseño del modelo Hymba Módulos híbridos fusionados  Según el estudio de ablación, la fusión de las cabezas de atención y SSM en paralelo dentro de un módulo de cabeza híbrida supera el apilamiento secuencial. Hymba fusiona las cabezas de atención y SSM en paralelo dentro de un módulo de cabeza híbrida, lo que permite que ambas cabezas procesen la misma información simultáneamente. Esta arquitectura mejora el razonamiento y la precisión de la memoria. Eficiencia y optimización de caché KV Si bien los cabezales de atención mejoran el rendimiento de las tareas, aumentan los requisitos de caché KV y reducen el rendimiento. Para mitigar esto, Hymba optimiza el módulo de cabezal híbrido combinando la atención local y global y empleando el uso compartido de caché KV entre capas. Esto mejora el rendimiento en 3 veces y reduce el caché en casi 4 veces sin sacrificar el rendimiento.  Metatokens Un conjunto de 128 incrustaciones entrenadas previamente que se anteponen a las entradas y que funcionan como inicialización de caché aprendida para mejorar el enfoque en la información relevante. Estos tokens cumplen una doble función:  Análisis de modelos En esta sección se presenta una comparación de igual a igual entre diferentes arquitecturas bajo la misma configuración de entrenamiento. Luego, visualizamos los mapas de atención de SSM y Attention en diferentes modelos entrenados previamente. Por último, realizamos un análisis de importancia de la cabeza para Hymba mediante poda. Todos los análisis de esta sección ayudan a ilustrar cómo y por qué las opciones de diseño para Hymba son efectivas.  Comparación de manzanas con manzanas  Realizamos una comparación de igual a igual de las arquitecturas Hymba, Mamba2 pura, Mamba2 con FFN, estilo Llama3 y estilo Samba (Mamba-FFN-Attn-FFN). Todos los modelos tienen mil millones de parámetros y se entrenan desde cero para 100 mil millones de tokens de SmolLM-Corpus con exactamente la misma receta de entrenamiento. Todos los resultados se obtienen a través de lm-evaluation-harness utilizando una configuración de disparo cero en

Leer más »

Compresión de memoria dinámica

 Los investigadores de NVIDIA han desarrollado una nueva tecnología llamada compresión de memoria dinámica (DMC) que puede aumentar enormemente la eficiencia de la implementación de LLM y ampliar sus horizontes a secuencias más largas sin quedarse sin memoria.  A pesar del éxito de los modelos de lenguaje de gran tamaño (LLM) como herramientas de IA de propósito general, su alta demanda de recursos computacionales hace que su implementación sea un desafío en muchos escenarios del mundo real. Los tamaños del modelo y el estado de la conversación están limitados por la memoria de gran ancho de banda disponible, lo que limita la cantidad de usuarios que pueden ser atendidos y la duración máxima de la conversación. En la actualidad, las dos arquitecturas LLM más populares son los transformadores y los modelos de espacio de estados selectivos (SSM), que se encuentran en los extremos opuestos de un espectro:  Para ello, los investigadores de NVIDIA han desarrollado una nueva tecnología llamada compresión de memoria dinámica (DMC) que puede aumentar enormemente la eficiencia de la implementación de LLM y ampliar sus horizontes a secuencias más largas sin quedarse sin memoria.  DMC abre una tercera vía, en la que se puede entrenar un modelo Transformer para comprimir de forma adaptativa el estado de la conversación y lograr una tasa de compresión deseada. Esto permite una reducción significativa del tamaño del estado de la conversación sin reemplazar la arquitectura Transformer habitual. DMC no requiere entrenamiento desde cero, ya que los modelos existentes se pueden adaptar mediante una cantidad insignificante de entrenamiento adicional, lo que es más confiable que los métodos de entrenamiento sin errores propensos a errores. ¿Qué afecta el rendimiento de la inferencia LLM?  La inferencia LLM consta de dos fases:  Durante la generación, para realizar la autoatención, los transformadores agregan un par de representaciones (par clave-valor o KVP) para cada token a una memoria caché. Se almacena un KVP diferente para cada capa y cada cabezal de atención.  Como resultado, la caché KVP crece proporcionalmente a la longitud de la secuencia. Como la caché KVP debe caber en la memoria de la GPU junto con los pesos LLM, puede ocupar una parte significativa de ella o incluso agotarla. Además, cuanto mayor sea el tamaño de la caché de KVP, más tiempo llevará ejecutar un único paso de inferencia. Esto se debe a que el cálculo de las puntuaciones de atención es una operación limitada a la memoria. Cada consulta tiene su propia caché de KVP que se debe cargar.  La situación es diferente para las proyecciones lineales en capas de atención o FFN, donde cada matriz de peso debe cargarse en SRAM desde HBM una vez para todas las consultas, si la GPU está trabajando en muchas consultas al mismo tiempo en paralelo. En investigaciones anteriores se intentó reducir el tamaño de la caché de KVP cuantificando sus representaciones, compartiendo los puntos de atención o eliminando tokens de ella. Sin embargo, estos métodos degradan el rendimiento original porque eliminan información de la memoria sin alterar el comportamiento original de LLM. Compresión de memoria dinámica La compresión de memoria dinámica (DMC) es una forma sencilla de comprimir la caché KV durante la inferencia sin incurrir en una caída del rendimiento. El modelo decide por separado para cada token, capa y núcleo si el nuevo par de clave y valor se debe agregar a la caché KV, como es habitual en Transformer simple, o acumularse en el último, utilizando la siguiente ecuación: Esta ecuación, que se encuentra en el corazón de DMC, transforma una subsecuencia de claves en una suma de prefijo particular, que recuerda a SSM populares como xLSTM o RWKV.  Durante la inferencia, los valores de alfa son estrictamente binarios. Cuando , los tokens se suman en el lugar sin extender la caché KVP, para el comportamiento de compresión. La frecuencia de las decisiones de promediado determina la tasa de compresión de DMC. En un modelo simple, la caché se amplía con un KVP a la vez. Con DMC, una variable de decisión determina si se debe ampliar la caché o si el nuevo par se debe fusionar con el último en la caché de KVP. Un componente crucial del DMC es el proceso de modernización , que enseña a los LLM este comportamiento: La decisión de añadir o fusionar es discreta. Para entrenar LLM con descenso de gradiente, se realiza una relajación continua de esta decisión a través de la distribución Gumbel-Sigmoid, lo que da como resultado elementos de memoria parcialmente añadidos y parcialmente fusionados durante el entrenamiento.  Para simular el DMC en tiempo de inferencia (Figura 2), donde los tokens no pueden asistir a etapas intermedias de fusión, se aumenta la máscara causal de los Transformadores para evitar cada vez más el acceso a esos estados. En general, este procedimiento le permite evitar picos de perplejidad durante el preentrenamiento continuo. De hecho, descubrimos que enfoques como el de atención a consultas generales (GQA) , que modifican significativamente la arquitectura del modelo antes del preentrenamiento continuo, tienen dificultades para recuperar el rendimiento original. Resultados DMC logra un rendimiento comparable con los modelos vanilla para todas las aplicaciones posteriores que evaluamos, incluidas la factualidad ( MMLU ), la respuesta a preguntas con sentido común y la codificación ( HumanEval ).  Fundamentalmente, DMC se puede combinar con otros métodos para la reducción de caché KVP, como la cuantificación y GQA. Tasa de compresión DMC MMLU (factibilidad) Control de calidad basado en el sentido común HumanEval (codificación) Llama-2-7B 1x 44.6 70.5 14.0 Llama-2-7B 4x 44.2 70.2 16.5 Llama-2-7B 8x 41.8 70.1 16.5 Llama-2-13B 1x 54.5 73.5 17.5 Llama-2-13B 4x 54.2 73.2 22.0 Llama-2-13B 8x 52.1 73.3 21.3 Llama-2-70B + AGC 8x 68.8 78.0 29.6 Llama-2-70B+ AGC 16x 68.8 77,9 29.9 Tabla 1. Precisión de la tarea posterior durante la inferencia de modelos vainilla (tasa de compresión 1x) y modelos habilitados para DMC Llama-2-7B + DMC 4x Llama-2-7B + DMC 4x(cuantificación de 8 bits) Llama-2-7B + DMC 8x L lama-2-7B + DMC 8x(cuantificación de 8 bits) MMLU (factibilidad) 44.2 44.6 41.8 41.7 Tabla 2. Puntuaciones MMLU de modelos habilitados para DMC con cuantificación FP8 aplicada a pesos,

Leer más »

Agente que utiliza la computadora

Una interfaz universal para que la IA interactúe con el mundo digital. Hoy presentamos una vista previa de investigación de Operator ⁠(se abre en una nueva ventana), un agente que puede acceder a la web para realizar tareas por usted. Powering Operator es Computer-Using Agent (CUA), un modelo que combina las capacidades de visión de GPT-4o con razonamiento avanzado a través del aprendizaje de refuerzo. CUA está entrenado para interactuar con interfaces gráficas de usuario (GUI) (los botones, menús y campos de texto que las personas ven en una pantalla) tal como lo hacen los humanos. Esto le da la flexibilidad de realizar tareas digitales sin usar API específicas del sistema operativo o de la web.  CUA se basa en años de investigación fundamental en la intersección de la comprensión y el razonamiento multimodal. Al combinar la percepción avanzada de la interfaz gráfica de usuario con la resolución estructurada de problemas, puede dividir las tareas en planes de varios pasos y autocorregirse de manera adaptativa cuando surgen desafíos. Esta capacidad marca el siguiente paso en el desarrollo de la IA, ya que permite que los modelos utilicen las mismas herramientas de las que dependen los humanos a diario y abre la puerta a una amplia gama de nuevas aplicaciones. Aunque CUA aún se encuentra en una etapa temprana y tiene limitaciones, establece nuevos resultados de referencia de vanguardia, logrando una tasa de éxito del 38,1 % en OSWorld para tareas de uso completo de la computadora, y del 58,1 % en WebArena y del 87 % en WebVoyager para tareas basadas en la web. Estos resultados resaltan la capacidad de CUA para navegar y operar en diversos entornos utilizando un único espacio de acción general.  Desarrollamos CUA con la seguridad como máxima prioridad para abordar los desafíos que plantea el acceso de un agente al mundo digital, como se detalla en nuestra Tarjeta del sistema del operador . En línea con nuestra estrategia de implementación iterativa, estamos lanzando CUA a través de una vista previa de investigación de Operator en operator.chatgpt.com .(se abre en una nueva ventana)Para los usuarios de nivel Pro en los EE. UU., la plataforma está disponible para comenzar. Al recopilar comentarios del mundo real, podemos refinar las medidas de seguridad y mejorar continuamente mientras nos preparamos para un futuro con un uso cada vez mayor de agentes digitales. Cómo funciona CUA procesa datos de píxeles sin procesar para comprender lo que sucede en la pantalla y utiliza un mouse y un teclado virtuales para completar acciones. Puede realizar tareas de varios pasos, gestionar errores y adaptarse a cambios inesperados. Esto le permite actuar en una amplia gama de entornos digitales y realizar tareas como completar formularios y navegar por sitios web sin necesidad de API especializadas. Dada la instrucción de un usuario, CUA opera a través de un ciclo iterativo que integra percepción, razonamiento y acción: Evaluaciones CUA establece un nuevo estado del arte tanto en el uso de computadoras como en el uso del navegador al utilizar la misma interfaz universal de pantalla, mouse y teclado. Tipo de referencia Punto de referencia Uso de la computadora (interfaz universal) Agentes de navegación web Humano Unidad de análisis cuantitativo OpenAI SOTA anterior SOTA anterior Uso de la computadora Mundo OS 38,1% 22,0% – 72,4% Uso del navegador Arena Web 58,1% 36,2% 57,1% 78,2% WebVoyager 87,0% 56,0% 87,0% – Los detalles de la evaluación se describen  aquí Uso del navegador WebArena ⁠(se abre en una nueva ventana)y WebVoyager ⁠(se abre en una nueva ventana) están diseñados para evaluar el rendimiento de los agentes de navegación web al completar tareas del mundo real mediante navegadores. WebArena utiliza sitios web de código abierto alojados en servidores propios sin conexión para imitar escenarios del mundo real en comercio electrónico, gestión de contenido de tiendas en línea (CMS), plataformas de foros sociales y más. WebVoyager prueba el rendimiento del modelo en sitios web en línea en vivo como Amazon, GitHub y Google Maps. En estos benchmarks, CUA establece un nuevo estándar utilizando la misma interfaz universal que percibe la pantalla del navegador como píxeles y realiza acciones a través del mouse y el teclado. CUA logró una tasa de éxito del 58,1 % en WebArena y una tasa de éxito del 87 % en WebVoyager para tareas basadas en la web. Si bien CUA logra una alta tasa de éxito en WebVoyager, donde la mayoría de las tareas son relativamente simples, CUA aún necesita más mejoras para cerrar la brecha con el desempeño humano en benchmarks más complejos como WebArena.Prueba de gramáticaReembolso totalPoliominósActualizar licenciaEncontrar clientePrueba de gramáticaReembolso totalPoliominósActualizar licenciaEncontrar cliente001Aviso al usuario002Inicializando la computadora003Nueva captura de pantalla004Cómo acceder a la sección Cambridge Dictionary Plus005Hacer clic006Nueva captura de pantalla007Cerrar la ventana emergente de publicidad para acceder008Hacer clic009Nueva captura de pantalla010Esperar011Nueva captura de pantalla012Buscando cuestionarios de gramática disponibles013Voluta014Nueva captura de pantalla015Haga clic en el botón para acceder a los cuestionarios de gramática016Hacer clic017Nueva captura de pantalla018Desplácese hacia abajo para ver el cuestionario de gramática recomendado019Voluta020Nueva captura de pantalla021Voluta022Nueva captura de pantalla023Desplazándose hacia arriba para encontrar cuestionarios024Voluta025Nueva captura de pantalla026Voluta027Nueva captura de pantalla028Explorando el menú de cuestionarios recomendados029Hacer clic030Nueva captura de pantalla031Seleccionar la opción de gramática para el examen032Hacer clic033Nueva captura de pantalla034Desplazarse por las opciones de exámenes de gramática035Voluta036Nueva captura de pantalla037Cerrando ventana emergente sobre mercancía.038Hacer clic039Nueva captura de pantalla040Cerrar ventana emergente, buscar cuestionarios041Voluta042Nueva captura de pantalla043Navegando de regreso a la página de cuestionarios044Hacer clic045Nueva captura de pantalla046Cerrando el menú de navegación, buscando cuestionario047Hacer clic048Nueva captura de pantalla049Seleccionar el tema del cuestionario «Adjetivos»050Hacer clic051Nueva captura de pantalla052Seleccionar el primer cuestionario sobre adjetivos053Hacer clic054Nueva captura de pantalla055Completar las respuestas del cuestionario para adjetivos056Hacer clic057Nueva captura de pantalla058Hacer clic059Nueva captura de pantalla060Hacer clic061Nueva captura de pantalla062Mecanografía063Nueva captura de pantalla064Introducir «cansador» en la segunda pregunta065Hacer clic066Nueva captura de pantalla067Mecanografía068Nueva captura de pantalla069Escribir «aterrorizado» para completar070Hacer clic071Nueva captura de pantalla072Mecanografía073Nueva captura de pantalla074Introducir respuesta a la cuarta pregunta075Hacer clic076Nueva captura de pantalla077Mecanografía078Nueva captura de pantalla079Desplácese hacia abajo para ver más preguntas080Voluta081Nueva captura de pantalla082Escribiendo «increíble» para la pregunta cinco.083Hacer clic084Nueva captura de pantalla085Hacer clic086Nueva captura de pantalla087Hacer clic088Nueva captura de

Leer más »

e& colabora con IBM para lanzar una plataforma pionera de gobernanza de inteligencia artificial de extremo a extremo

Esta colaboración permitirá que el conjunto de herramientas de IBM, reconocido mundialmente, para la gobernanza de la IA se aplique a desafíos clave como el mantenimiento de una supervisión constante de los sistemas de IA de e&, la gestión de riesgos como el incumplimiento, las preocupaciones éticas y el seguimiento del rendimiento de la IA a escala. DUBÁI , Emiratos Árabes Unidos , 22 de enero de 2025 / PRNewswire / — e&, un grupo tecnológico global, ha colaborado con IBM (NYSE: IBM ) para implementar una solución pionera, integral y multimodelo de gobernanza de inteligencia artificial (IA) e IA generativa. Anunciada hoy en el Foro Económico Mundial 2025 en Davos , esta colaboración pretende mejorar el marco de gobernanza de IA de e& para promover el cumplimiento, la supervisión y las prácticas éticas en todo su creciente ecosistema de IA, reforzando el compromiso de e& de establecer una gobernanza sólida, gestión de riesgos y supervisión regulatoria en todo su uso de IA. La solución aprovechará la plataforma de gobernanza de datos e inteligencia artificial empresarial watsonx.governance de IBM, combinada con la experiencia de IBM Consulting en la implementación de IA, y se basará en el compromiso de e& de escalar la IA de manera responsable y realizar un seguimiento del ROI al tiempo que aborda los requisitos de cumplimiento, transparencia y supervisión ética de los modelos de IA. Esta colaboración permitirá que el conjunto de herramientas de IBM, reconocido mundialmente, para la gobernanza de la IA se aplique a desafíos clave como el mantenimiento de una supervisión constante de los sistemas de IA de e&, la gestión de riesgos como el incumplimiento, las preocupaciones éticas y el seguimiento del rendimiento de la IA a escala. A medida que continúa expandiendo su ambiciosa estrategia y capacidades de IA, e& está mejorando de forma proactiva su ecosistema de IA estableciendo un marco sólido para la rendición de cuentas, mitigando posibles sesgos y salvaguardando los datos. Aprovechando la tecnología y la experiencia en consultoría de IBM, e& está dando un importante paso adelante en la creación de operaciones de IA escalables y transparentes. La nueva solución de gobernanza de IA incorpora funciones avanzadas como la gestión automatizada de riesgos, la supervisión del cumplimiento normativo y el análisis del rendimiento en tiempo real. Esto permitirá a e& mitigar los riesgos, detectar sesgos y cumplir con los estándares regulatorios durante todo el ciclo de vida del modelo de IA, desde el desarrollo hasta el desmantelamiento. «A medida que la IA sigue transformando las industrias, la gobernanza responsable es primordial. En e&, estamos comprometidos a liderar con el ejemplo y establecer el punto de referencia mundial cuando se trata de establecer prácticas sólidas de gobernanza de la IA», afirmó Dena Almansoori , directora de IA y datos del grupo en e&. «Al adoptar IBM watsonx.governance, estamos dando un paso decisivo en nuestro camino hacia la IA. Esta colaboración garantiza la transparencia, la explicabilidad y la eficiencia en todas nuestras operaciones de IA, lo que eleva el nivel de gobernanza de la IA en la industria». La solución de gobernanza está diseñada para permitir a e& monitorear los casos de uso de IA actuales en tiempo real, administrar de manera proactiva cualquier riesgo potencial de IA en producción y brindar valor medible a las partes interesadas. Al establecer un inventario centralizado de modelos de IA, la solución permite una trazabilidad y una supervisión completas. IBM watsonx.governance facilita la supervisión dinámica y ofrece información en tiempo real sobre el rendimiento del modelo, la puntuación de riesgo y las métricas de cumplimiento. Esto ayuda a que e& detecte problemas como sesgos y desviaciones de forma temprana, lo que permite tomar medidas correctivas y aplicar prácticas de IA éticas. IBM Consulting trabajará en estrecha colaboración con e& para diseñar e implementar un marco integral de gobernanza de la IA adaptado a los requisitos exclusivos de e&. Esto incluye la definición de flujos de trabajo e indicadores clave de rendimiento, así como la incorporación de modelos de IA existentes en la plataforma para ofrecer información en tiempo real sobre el valor, el impacto y los riesgos potenciales de la IA. La implementación también utilizará IBM Consulting Advantage, una plataforma de distribución impulsada por IA, para acelerar el desarrollo del marco de gobernanza de IA a través del mapeo de personas y recorridos, investigación de mercado, patrones de arquitectura para la integración de IA y materiales de transferencia de conocimiento. «IBM Watsonx permite a organizaciones como e& navegar por las complejidades de la gobernanza de la IA. Al integrar la automatización, el monitoreo en tiempo real y la supervisión centralizada, estamos abordando desafíos clave de gobernanza y reduciendo los riesgos asociados con la IA», afirmó Shukri Eid , gerente general de IBM para el Golfo, el Levante y Pakistán . «Este hito, que fortalece nuestra asociación de larga data con e&, sirve como catalizador para la innovación responsable en IA». Esta colaboración se basa en la relación exitosa entre IBM y e&, incluido el reciente informe conjunto titulado La ventaja de la IA en Oriente Medio y el Norte de África: oportunidad de avanzar y liderar ( perspectiva de Oriente Medio y el Norte de África ),  que incluye perspectivas de las principales empresas  de Oriente Medio y datos del estudio de directores ejecutivos existente de IBM.  El informe identificó cinco temas críticos que revelan matices regionales que los directores ejecutivos deben tener en cuenta mientras exploran y preparan sus organizaciones para aprovechar la oportunidad de la IA, incluida la importancia de promover una IA confiable. Esta colaboración marca un paso significativo en el camino hacia la gobernanza de la IA de e&, estableciendo un nuevo estándar para operaciones de IA responsables y escalables para el grupo y la industria en general. IBM News. Traducido al español

Leer más »

Knox Suite ahora está disponible en paquetes escalables para brindar soporte a empresas e industrias de todos los tamaños

Las actualizaciones de Knox Suite permiten a las empresas que utilizan dispositivos Samsung Galaxy maximizar su protección y su potencial operativo. Los nuevos planes flexibles buscan satisfacer a clientes de diversas dimensiones, desde una pequeña startup hasta una gran corporación. Así, la marca ayuda a crear espacios de trabajo móviles seguros y eficientes del futuro Samsung Electronics Co., Ltd. anunció hoy actualizaciones de Knox Suite, un paquete completo de soluciones empresariales diseñado para administrar y proteger dispositivos de trabajo. Knox Suite, que anteriormente solo estaba disponible como un paquete todo en uno, ahora ofrece planes flexibles (Base, Essentials y Enterprise) que satisfacen las diversas necesidades de seguridad y administración de dispositivos de empresas de todos los tamaños, desde pequeñas startups hasta grandes empresas que administran miles de dispositivos.[1] Por ser una estructura integral de gestión y seguridad en la que confían más de 35.000 empresas en 134 países, Samsung Knox es esencial para las empresas que utilizan dispositivos Samsung Galaxy, ya que desbloquea todo su potencial operativo. Desarrollado sobre la plataforma de seguridad Samsung Knox, líder de la industria, Knox Suite ofrece una protección sólida, simplifica los flujos de trabajo de TI y proporciona información procesable que impulsa la eficiencia y la productividad. “Las empresas de diferentes tamaños e industrias tienen diversas necesidades de administración de dispositivos, pero en última instancia buscan el mismo objetivo final: habilitar espacios de trabajo móviles seguros y productivos”, dijo Jerry Park, vicepresidente ejecutivo y director del Equipo B2B, MX Business en Samsung Electronics. “Es por eso por lo que estamos introduciendo opciones flexibles dentro de Knox Suite, diseñadas para brindar a las empresas las herramientas personalizadas que necesitan. Con estas nuevas soluciones escalables, Knox Suite ahora está preparado para todo tipo de casos de uso operativo, lo que permite a las empresas gestionar de manera integral e inteligente los ecosistemas corporativos”. Las soluciones escalables mejoran la gestión de dispositivos Con los planes de Knox Suite, las empresas pueden optimizar y administrar de forma segura sus ecosistemas de dispositivos Samsung Galaxy, mejorando la eficiencia de la TI y capacitando a los empleados para que maximicen la productividad durante todo el ciclo de vida del dispositivo. Con su presencia en el mercado UEM, Samsung fue nombrado ‘Major Player’ en el IDC MarketScape: Worldwide Unified Endpoint Management Software 2024 Vendor Assessment (doc. n.º US51234224, abril de 2024). Clientes de todo el mundo confían en Knox Suite. Ahora más personalizable que nunca, Knox Suite está disponible en tres planes: Para las empresas interesadas en Galaxy Enterprise Edition —un paquete integral de dispositivos y servicios móviles listos para uso comercial—, esta edición incluye ahora una licencia del Plan Enterprise de Know Suite de un año sin costo adicional, lo que brinda un valor aún mayor. Innovación continua para la gestión inteligente de dispositivos Estas actualizaciones continúan la evolución de Knox Suite para una gestión de dispositivos más inteligente. Para las empresas que ya utilizan otras soluciones EMM, Knox Suite se puede integrar perfectamente en las operaciones existentes para brindar información más profunda y un control mejorado sobre los dispositivos Samsung Galaxy, lo que permite a los equipos de TI optimizar el rendimiento de los dispositivos sin interrumpir los flujos de trabajo existentes. La colaboración continua de Samsung con los principales proveedores de EMM también garantiza una mayor accesibilidad de Knox Suite a través de estas plataformas asociadas, asegurando que las empresas puedan aprovechar todo el potencial de las potentes funciones de Knox Suite, independientemente de su configuración de TI actual. De cara al futuro, Knox Suite seguirá evolucionando para ser aún más inteligente e intuitivo, dando a los administradores de TI herramientas avanzadas e información procesable, al tiempo que permitirá a las empresas desbloquear todo el potencial de sus dispositivos Samsung Galaxy para crear espacios de trabajo móviles seguros y eficientes del futuro. Samsung News

Leer más »
Scroll al inicio