El Portal de las Tecnologías para la Innovación

Categoría: Nube e Infraestructura como Servicio

Centros de datos all-flash: Impulse sus sistemas de producción con el almacenamiento all-flash convergente OceanStor Dorado de nueva generación

En todo el mundo, los ejecutivos de TI están comenzando a reconocer la necesidad del almacenamiento all-flash en su infraestructura crítica.  Dado que se espera que la inteligencia artificial (IA) y el aprendizaje automático (ML) dominen los sistemas de almacenamiento en los próximos años, las técnicas tradicionales de almacenamiento se han vuelto obsoletas, obligando a muchas empresas a buscar alternativas al almacenamiento híbrido.  En la era de la nube, el almacenamiento all-flash se ha convertido en una infraestructura clave para los centros de datos, ofreciendo la agilidad, la confiabilidad y la escalabilidad necesarias para las cargas de trabajo modernas. Por esta razón, Huawei invierte fuertemente en I+D (164.700 millones de yuanes chinos en 2023) como parte de su misión de crear soluciones que impulsen el crecimiento empresarial para empresas de todos los tamaños. En este blog, analizamos cómo los centros de producción se han migrado a sistemas all-flash para impulsar los servicios críticos para el negocio y cómo Huawei OceanStor Dorado se ha convertido en una opción líder en este espacio. Tendencias de los centros de producción all-flash : El primer paso para mejorar la productividad es actualizar la infraestructura de almacenamiento existente a almacenamiento all-flash de alto rendimiento. El siguiente paso en la transición a centros de datos all-flash es implementar tecnologías de última generación, como discos de estado sólido (SSD), que permiten aprovechar el potencial de las enormes reservas de datos. Las soluciones all-flash para centros de datos ofrecen un excelente rendimiento, eficiencia y durabilidad, lo que las hace ideales para gestionar cargas de trabajo de aprendizaje automático (ML), inteligencia artificial (IA) y computación de alto rendimiento (HPC). Los SSD ofrecen altas velocidades en toda la red, con excelente rendimiento, latencia y operaciones de entrada/salida por segundo (IOPS). Los SSD de gran capacidad escriben datos a un ancho de banda de aproximadamente 3500 MB/s, superando ampliamente a los HDD, que funcionan a 120 MB/s. Al combinarse con excelentes especificaciones de memoria, esta eficiencia mejora el acceso a los datos y la velocidad de recuperación de los sitios de producción y respaldo, lo que permite a las empresas obtener predicciones precisas de la capacidad de los dispositivos en todas las regiones e incluso recuperarse de una posible falla.  La optimización de las operaciones es posible gracias a la red simplificada que ofrecen los conmutadores de alto rendimiento. En lugar de complejas arquitecturas de almacenamiento por niveles, los dispositivos flash admiten configuraciones NAS, SAN y multinube, pero sin silos y con un número significativamente mayor de operaciones de E/S. Los dispositivos flash son cada vez más rentables con cada nueva generación, lo que facilita su escalabilidad horizontal y vertical para satisfacer las demandas de tráfico intenso. Además, incluyen un software de gestión inteligente que proporciona visibilidad global de los datos y de los dispositivos interregionales. Huawei DME utiliza un sistema de archivos global omni-dataverse integrado en Data Fabric, que unifica los sistemas con total visibilidad, capacidad de gestión y disponibilidad de los datos. Los SSD de alta fiabilidad y durabilidad ayudan a reducir los gastos operativos (OPEX). Las principales empresas tecnológicas están implementando clústeres de IA a gran escala que abarcan billones de parámetros, lo que convierte el consumo energético en un problema importante. Dado que los dispositivos flash utilizan menos piezas móviles, son menos propensos a sobrecalentarse, consumen menos energía y requieren menos mantenimiento, lo que reduce los gastos del sistema de refrigeración. Esto tiene un gran impacto en las emisiones de carbono generadas por la producción de electricidad, lo que se traduce en importantes mejoras en la sostenibilidad, ya que las empresas se benefician de un menor consumo de energía, un menor coste total de propiedad (TCO) y una menor huella de carbono.  Puntos clave El almacenamiento all-flash OceanStor Dorado es la serie insignia de Huawei y ofrece una gama de excelentes opciones adaptadas a empresas de diversos tamaños. La arquitectura de malla completa SmartMatrix 4.0 garantiza servicios siempre activos con alta disponibilidad y una fiabilidad del sistema de 7 nueves. El almacenamiento all-flash es fundamental para la recuperación ante desastres, ya que ofrece un excelente ancho de banda de subida y bajada para evitar la pérdida de datos o la inactividad del servicio. En la práctica, esto significa cero tiempo de inactividad y, lo que es más importante, cero pérdida de datos. ¿No nos cree? Lea esta historia de Yapi Kredi, quien utilizó OceanStor Dorado para reducir drásticamente el TCO en un 40 %.  Sea cual sea la opción o el presupuesto, el almacenamiento all-flash no compromete el rendimiento. FlashLink® es un conjunto de algoritmos inteligentes de controlador de disco que se combinan para mejorar la velocidad de procesamiento y la tasa de aciertos, a la vez que desacoplan los planos de datos y control. La plataforma de aceleración de hardware E2E hace precisamente eso: mejora la velocidad de los componentes de hardware mediante hardware, protocolos y un diseño simétrico activo-activo mejorados para alcanzar más de 100 millones de IOPS y una latencia de 0,03 ms. Los sistemas all-flash Huawei OceanStor Dorado están diseñados para integrar las cargas de trabajo críticas en la era de la IA. Al ofrecer una base excelente para los centros de producción, el sistema proporciona un protocolo unificado y una plataforma de operaciones y mantenimiento (O&M) que quintuplica las operaciones y el mantenimiento. Para adaptarse a los servicios emergentes, el sistema utiliza una arquitectura paralela para bloques, archivos y datos de objetos, eliminando la necesidad de múltiples sistemas o cargas de procesamiento adicionales. Centros de datos a prueba de futuro. El portafolio de almacenamiento de datos de Huawei se ve reforzado por la serie All-Flash Convergente OceanStor Dorado de nueva generación, un sistema diseñado para el mundo inteligente de hoy y los datos ilimitados del futuro. La serie All-Flash de Huawei está diseñada para la era digital, con un portafolio de productos de primera calidad que refuerzan los sistemas empresariales con una eficiencia y flexibilidad sin precedentes. Descubre cómo tu negocio puede dar el salto al siguiente nivel aquí . Huawei Blog. G. J. Traducido al español

Leer más »

Cómo las empresas del mundo real se están transformando con AI — con más de 140 nuevas historias

más de 140 nuevas historias de clientes, que aparecen en cursiva al comienzo de cada sección de listas de clientes. La publicación se actualizará regularmente con nuevas historias. Uno de los aspectos más destacados de mi carrera siempre ha sido conectarme con clientes y socios en todas las industrias para aprender cómo están utilizando la tecnología para impulsar sus negocios. En los últimos 30 años, weiz ha visto cuatro cambios importantes de plataforma, desde el servidor del cliente a Internet y la web a dispositivos móviles y en la nube hasta ahora — el próximo cambio importante de plataforma a IA.   A medida que el cambio de plataforma actual hacia la IA continúa ganando impulso, Microsoft está trabajando para comprender cómo las organizaciones pueden generar un valor comercial duradero. Recientemente encargamos un estudio con IDC, La Oportunidad de Negocio de la IA, para descubrir nuevas ideas sobre el valor comercial y ayudar a guiar a las organizaciones en su viaje de transformación de IA. El estudio encontró que por cada $1 organizaciones invierten en IA generativa, se están dando cuenta de un promedio de $3.70 a cambio — y descubrieron ideas sobre el potencial futuro de la IA para remodelar los procesos comerciales e impulsar el cambio en todas las industrias. Echa un vistazo a las 5 principales tendencias de IA para ver desde IDC y Microsoft Hoy, más del 85% de las Fortune 500 están utilizando soluciones de Microsoft AI para dar forma a su futuro. Al trabajar con organizaciones grandes y pequeñas, en todas las industrias y geografías, hemos visto que la mayoría de las iniciativas de transformación están diseñadas para lograr uno de los cuatro resultados comerciales:   En este blog, Weizve recopiló más de 400 de nuestros ejemplos favoritos de la vida real de cómo las organizaciones están adoptando las capacidades de IA probadas de Microsoft para impulsar el impacto y dar forma al cambio de plataforma actual hacia la IA. Hoy, Weizve agregó nuevas historias de clientes que utilizan nuestras capacidades de IA al comienzo de cada sección. Weizll actualiza regularmente esta historia con más. Esperamos que encuentre uno o dos ejemplos que puedan inspirar su propio viaje de transformación. Enriquecer las experiencias de los empleados La IA generativa está transformando realmente la productividad y el bienestar de los empleados. Nuestros clientes nos dicen que al automatizar tareas repetitivas y mundanas, los empleados son liberados para sumergirse en un trabajo más complejo y creativo. Este cambio no solo hace que el entorno laboral sea más estimulante, sino que también aumenta la satisfacción laboral. Impulsa la innovación, proporciona información procesable para una mejor toma de decisiones y apoya oportunidades personalizadas de capacitación y desarrollo, todo lo cual contribuye a un mejor equilibrio entre la vida laboral y personal. Los clientes de todo el mundo han reportado mejoras significativas en la productividad de los empleados con estas soluciones de IA: Nuevas Historias: Reinventar el compromiso del cliente Weimos ha visto excelentes ejemplos de cómo la IA generativa puede automatizar la creación de contenido, asegurando que haya materiales frescos y atractivos listos para funcionar. Personaliza las experiencias de los clientes al reducir los números, aumentando las tasas de conversión. Hace que las operaciones sean más fluidas, ayudando a los equipos a lanzar campañas más rápido. Además, impulsa la innovación, creando experiencias que deleitan a los clientes al tiempo que aligeran la carga para el personal. Abrazar la IA generativa es clave para las organizaciones que desean reinventar los compromisos de los clientes, mantenerse a la vanguardia del juego e impulsar la innovación y la eficiencia. Nuevas Historias: Reformando el proceso de negocio La transformación de las operaciones es otra forma en que la IA generativa está fomentando la innovación y mejorando la eficiencia en diversas funciones comerciales. En marketing, puede crear contenido personalizado para atraer realmente a diferentes audiencias. Para la gestión de la cadena de suministro, puede predecir las tendencias del mercado para que las empresas puedan optimizar sus niveles de inventario. Los departamentos de recursos humanos pueden acelerar el proceso de contratación, mientras que los servicios financieros pueden usarlo para la detección de fraudes y evaluaciones de riesgos. Con la IA generativa, las empresas no solo están refinando sus procesos actuales, sino que también están descubriendo nuevas y emocionantes oportunidades de crecimiento. Nuevas Historias: Doblando la curva sobre la innovación La IA generativa está revolucionando la innovación al acelerar los procesos creativos y el desarrollo de productos. Ayuda a las empresas a crear nuevas ideas, diseñar prototipos e iterar rápidamente, reduciendo el tiempo que lleva llegar al mercado. En la industria automotriz, está diseñando vehículos más eficientes, mientras que en productos farmacéuticos, está elaborando nuevas moléculas de medicamentos, reduciendo años de tiempos de I&D. En educación, transforma la forma en que los estudiantes aprenden y logran sus objetivos. Aquí hay más ejemplos de cómo las empresas están adoptando la IA generativa para dar forma al futuro de la innovación. Nuevas Historias:  CTA: IDC InfoBrief: patrocinado por Microsoft, 2024 Business Opportunity of AI, IDC# US52699124, noviembre de 2024 Microsoft Blog. A. T.

Leer más »

Acelere Apache Spark ML en GPU NVIDIA con Cambio de Código Cero

Acelera lo existente Apache Spark SQL y DataFrame aplicaciones basadas en GPU NVIDIA por más de 9 veces sin requerir un cambio en sus consultas o código fuente. El Acelerador NVIDIA RAPIDS para Apache Spark el plug-in de software fue pionero en una experiencia de usuario de cambio de código cero (UX) para el procesamiento de datos acelerado por GPU. Acelera lo existente Apache Spark SQL y DataFrameaplicaciones basadas en GPU NVIDIA por más de 9 veces sin requerir un cambio en sus consultas o código fuente.     Esto llevó a lo nuevo Spark RAPIDS ML Biblioteca de Python, que puede acelerar las aplicaciones en más de 100x, y también invocado MLlib, biblioteca de aprendizaje automático escalable de Apache Sparkwards. Hasta hace poco, la aceleración de Spark RAPIDS MLias MLlib aún necesitaba un pequeño cambio para que Python usara la implementación acelerada.Específicamente, necesitabas reemplazar pyspark.ml con spark_rapids_ml en las declaraciones de importación de Python para las clases de ML que deseabas acelerar.Por ejemplo, para usar KMeans acelerados en lugar de los KMeans de referencia, tenía que reemplazar la importación pyspark.ml.classication.KMeans con importación spark_rapids_ml.classication.KMeans a lo largo de su código.En el lado positivo, no se necesitaron más cambios de código para usar la versión acelerada de KMeans.   En esta publicación de blog, describimos la nueva funcionalidad en Spark RAPIDS ML desde el 25.02 liberación eso le permite omitir incluso los cambios en la instrucción de importación mencionados anteriormente, para una experiencia de aceleración de cambio de código verdaderamente cero de extremo a extremo tanto en Spark SQL como en DataFrame y en código MLlib. Considere el siguiente código de aplicación simple de PySpark: frompyspark.ml.clustering importKMeansfrompyspark.ml.functions importarray_to_vectordf =spark.read.parquet(«/data/embedding_vectors»)df =df.select(array_to_vector(df.features).alias(«features»))kmeans_estim =( KMeans()   .setK(100)   .setFeaturesCol(«features»)   .setMaxIter(30) )kmeans_model =kmeans_estim.fit(df)transformed =kmeans_model.transform(df)transformed.write.parquet(«/data/embedding_vectors_clusters») Este código lee un archivo de incrustaciones vectoriales, previamente calculado utilizando un modelo de lenguaje de aprendizaje profundo y almacenado en formato de parquet utilizando array tipo.Luego utiliza el algoritmo KMeans en Spark MLlib para agrupar los vectores.    Combinando la nueva funcionalidad de cambio de código cero de Spark RAPIDS ML con el complemento de software RAPIDS Accelerator for Apache Spark, puede acelerar este código PySpark totalmente compatible sin ningún cambio: Incluyendo descompresión y decodificación de parquet al leer en el archivo en read.parquet(), los KMeans agrupando cálculos numéricos en fit() y transform()y la codificación y compresión al guardar los vectores con clusters en otro archivo de parquet en write.parquet().  A continuación, describimos cómo puede activar la ejecución acelerada utilizando nuevas variantes de las formas familiares de iniciar aplicaciones Spark: Interfaces de línea de comandos (CLI), portátiles Jupyter localmente y portátiles Jupyter en servicios Spark alojados en proveedores en la nube. Interfaces de línea de comandos Supongamos que el código de aplicación de ejemplo anterior estaba en un archivo llamado app.py.Convencionalmente, youidd utiliza el conocido Spark CLI spark-submit para lanzar app.py en diferentes tipos de clústeres (local/test, autónomo, hilo, kubernetes, etc.): spark-submit <options> app.py Para acelerar las piezas de MLlib, después de instalar la biblioteca Spark RAPIDS ML a través de la instalación de pip spark-rapids-ml, simplemente puede reemplazar la spark-submit comando con una contraparte CLI acelerada recién incluida (mientras se incluyen las configuraciones y la configuración de ruta de clase, como antes, para la aceleración SQL y DataFrame): spark-rapids-submit <options> app.py Si prefiere ejecutar código similar a app.py interactivamente en un shell PySpark usando el CLI pyspark, también puede acelerar esto, con cero cambios de código, utilizando la CLI de contraparte recién incluida pyspark-rapids para lanzar un shell PySpark acelerado en su lugar. Cuadernos Jupyter: clústeres de Spark en las instalaciones Las aplicaciones de Spark también se ejecutan comúnmente de forma interactiva en portátiles Jupyter que ejecutan núcleos unidos a clústeres de Spark. Como se explica en el Spark RAPIDS ML documentación, para comenzar en una estación de trabajo con una GPU NVIDIA, puede iniciar Jupyter con Spark acelerado en modo local utilizando el pyspark-rapids comando: PYSPARK_DRIVER_PYTHON=jupyter \PYSPARK_DRIVER_PYTHON_OPTS=’notebook –ip=0.0.0.0’\pyspark-rapids –master local[*] <options> Y luego conéctese al servidor de portátiles Jupyter en la URL registrada.Luego podría ejecutar código similar a app.py interactivamente en una o más celdas de cuaderno. Puede agregar el frasco del complemento RAPIDS Accelerated Spark y spark.plugins configuración para aceleración de extremo a extremo. Con configuraciones adecuadas para –master, puede usar el mismo comando para habilitar la aceleración de notebook de cambio de código cero en otras implementaciones de clúster de Spark (como independiente, hilo).  Cuadernos Jupyter: Proveedor en la nube alojado Spark Para el cambio de código cero UX en los portátiles Spark Jupyter alojados en la nube, el Spark RAPIDS ML repos muestra cómo configurar scripts de inicialización y arranque de ejemplo al iniciar clústeres de GPU Spark, para habilitar la aceleración de SQL/Dataframe y la aceleración de MLlib.Se proporcionan ejemplos para Databricks, GCP Dataproc y AWS EMR. Los scripts init inyectan modificaciones simples en los respectivos entornos Spark alojados que dan como resultado que los portátiles Jupyter se inicien con la aceleración de cambio de código cero habilitada. Cómo funciona La aceleración de cambio de código cero de Spark MLlib habilitada por los CLI anteriores y las implementaciones de portátiles Jupyter se alimenta bajo el capó importando o ejecutando el nuevo spark_rapids_ml.install módulo en la biblioteca Spark RAPIDS ML Python.   Este nuevo módulo se basa en gran medida en una funcionalidad similar en el RÁPIDOS cudf.pandas El paquete Python se lanzó en el GTC del año pasado, que trajo un UX acelerado por GPU de cambio de código cero a los usuarios de la popular biblioteca Pandas Data Analysis. Importar o ejecutar el nuevo spark_rapids_ml.install el módulo anula los mecanismos de importación del módulo Pythonhats para redirigir transparentemente las importaciones de pyspark.ml estimadores en código de aplicación a acelerado spark_rapids_ml contrapartes, cuando estén disponibles.Un aspecto difícil es evitar hacer esto cuando las importaciones son de PySpark o Spark RAPIDS ML código en sí, como en estos casos es crucial para importar el real pyspark.ml estimadores. Próximos pasos Puede probar la nueva funcionalidad acelerada Spark MLlib de cambio de código cero, aumentando el acelerador RAPIDS original para Apache Spark, instalando el paquete spark-rapids-ml Python y documentación de referencia en el Spark RAPIDS ML Repo gitHub para cambio de código cero CLI y cuadernos y ejecutando un cambio de código cero script de prueba, también en el repositorio. Recursos relacionados NVIDIA Blog. E. O. Traducido al español

Leer más »

Desbloquear todo el potencial del 6G nativo de IA a través de estándares

La IA será fundamental para dar forma a 6G, que será la primera generación de redes celulares verdaderamente diseñadas con la IA en su núcleo.  La inteligencia artificial (IA) está preparada para generalizarse en todo el ecosistema de las telecomunicaciones. Incluso hoy en día, la IA está transformando flujos de trabajo, procesos y productos en todas las industrias. Como solo un ejemplo de muchos, según un Estudio McKinsey 2025, los operadores de telecomunicaciones esperan no menos del 20% de ahorro de costos en todas las funciones comerciales. Esta transformación se ve impulsada por los rápidos avances en el aprendizaje automático y las capacidades y arquitecturas de los modelos de IA, el acceso sin precedentes a hardware de alto rendimiento para capacitación e inferencia, así como el acceso a una gran cantidad de datos acompañados de métodos para la generación de datos sintéticos para capacitación y mejora aún más las capacidades del modelo de IA.  Las oportunidades de IA se documentan diariamente en la prensa empresarial, con enormes inversiones en centros de datos a medida que las empresas compiten por ser los líderes en este campo. Incluso se ha convertido en un interés estratégico a nivel de estado-nación y está en el corazón de las estrategias industriales nacionales. A medida que planeamos la 6a generación de redes celulares móviles (6G), debemos comprender la urgencia que enfrentamos. La IA será fundamental para dar forma a 6G, que será la primera generación de redes celulares verdaderamente diseñadas con la IA en su núcleo. A pesar de los muchos jugadores que compiten para definir nuestro futuro de IA, la industria de las telecomunicaciones tiene una oportunidad única para marcar el ritmo del 6G nativo de IA.  Figura 1. Las redes celulares 6G se construirán sobre IA Como la primera generación de redes celulares móviles con IA en su ADN, la IA y el aprendizaje automático (ML) se integrarán en todos los dominios y capas del sistema 6G, desde dispositivos hasta la RAN, la red central y el dominio de orquestación/gestión. Para lograr la máxima cohesión y eficiencia, esto debe hacerse de manera sistemática asegurando la interoperabilidad, previsibilidad y disponibilidad de los recursos de IA en todos los niveles del sistema, al tiempo que permite maximizar la agilidad para adoptar nuevas tecnologías impulsadas por IA. La disponibilidad de habilitadores clave de IA permitirá a todas las partes interesadas construir e implementar modelos y soluciones de IA innovadores y de alta calidad:  Los estándares tendrán un impacto decisivo en la fortaleza y las capacidades de innovación del ecosistema 6G. No solo garantizarán la confianza al cumplir con los aspectos regulatorios, de seguridad y privacidad críticos, sino también para permitir una integración fluida y eficiente de los recursos de diversas soluciones y tecnologías. El objetivo es crear un ecosistema para IA y 6G que sienta las bases para una década de nuevos casos de uso, al tiempo que garantiza la integridad de nuestros sistemas de comunicaciones. Los clientes serán los beneficiarios finales. AI ayudará a proporcionarles una gama más amplia de servicios y aplicaciones innovadoras, mejorando su experiencia general y conservando la confianza histórica que han tenido durante mucho tiempo para los servicios de telecomunicaciones. Este artículo explora los habilitadores clave de estandarización para un 6G nativo de IA. Adoptamos un enfoque holístico en todos los dominios de red y sistema, aprovechando las lecciones aprendidas de 5G-Advanced. Este enfoque holístico minimizará las superposiciones funcionales entre diferentes dominios del sistema, asegurando una arquitectura de red racionalizada y eficiente. Crear valor con la estandarización de los habilitadores de IA Para 6G, el objetivo es desarrollar un enfoque de IA que refleje las prioridades comerciales, no la exageración. La IA tiene un enorme potencial para agregar valor a 6G. La 6G nativa de la IA será una fuerza fundamental para impulsar los ingresos, el crecimiento, el rendimiento y la reducción de los costos operativos. Representa un cambio fundamental, ya sea para optimizar el rendimiento de la red, habilitar nuevos modelos de negocio o proporcionar valor tangible a los CSP y verticales de la industria. En el caso de la automatización cognitiva basada en la intención, el valor que proporciona la IA puede ser tan alto como un 90% más rápido en la detección y resolución de problemas de red en comparación con los métodos manuales. Del mismo modo, el ahorro de energía impulsado por IA proporciona 10–20% RAN ahorro de energía mientras promete más mejoras por venir.  La Figura 2 y la siguiente tabla ilustran aún más el potencial de creación de valor de las soluciones impulsadas por IA en 6G. Por ejemplo, los agentes de IA tienen el potencial de transformar fundamentalmente la forma en que los humanos y las máquinas realizan las tareas: Los agentes de IA son componentes autónomos impulsados por modelos generativos que analizan y actúan sobre la información contextual hacia el cumplimiento de una intención dada. Los agentes de IA pueden realizar tareas específicas aprovechando capacidades como la planificación y el razonamiento, la realización de reflexiones y el uso de herramientas externas. Para aprovechar todo su potencial, los sistemas de IA agentic necesitan acceso a datos contextuales relevantes para la tarea específica en cuestión, así como mecanismos de orquestación y colaboración en todo el sistema.  Más allá de la automatización y la eficiencia, la IA desempeñará un papel estratégico en la creación de redes capaces de optimizar de forma continua y autónoma los cambios en el tráfico, la radio y el comportamiento del usuario. Acelerará la prestación de servicios, mejorará las experiencias de los clientes, mejorará la toma de decisiones y desbloqueará nuevas fuentes de ingresos. También admitirá muchos casos de uso y aplicaciones nuevos, como IA generativa, IA agentica, robótica y realidad extendida inmersiva (XR), al proporcionar servicios basados en IA adaptados a las necesidades de los usuarios. Figura 2: Oportunidades de creación de valor utilizando habilitadores de IA Oportunidades de creación de valor Habilitadores de IA Datos como servicio Exposición de productos de datos y servicios de datosGestión de metadatos, incluidas descripciones de datos y

Leer más »

Cómo OPPO y Google están Redefiniendo la IA Móvil con Integración Sin Costuras y Seguridad Mejorada

En solo unos pocos años, la IA ha evolucionado de una palabra de moda novedosa a una herramienta esencial que cambia el juego y que da forma a la forma en que trabajamos, nos conectamos y vivimos todos los días. Como líder mundial en dispositivos inteligentes, OPPO ha adoptado plenamente este poder transformador de la IA, creyendo que los teléfonos inteligentes no son solo vehículos para la IA, sino los mismos motores que la impulsan. La clave de la capacidad de OPPO para mantenerse a la vanguardia de la innovación en IA móvil son las asociaciones estratégicas con innovadores tecnológicos como Google que han establecido nuevos puntos de referencia para lo que es posible en IA en teléfonos inteligentes a través de herramientas versátiles y potentes modelos de IA en todo el sistema. Ahora, OPPO y Google están llevando su asociación aún más lejos, trabajando juntos para llevar a Gemini Vertex al núcleo de tres áreas principales de las aplicaciones AI development—AI de Oppo, los modelos AI y AI security— para brindar a los usuarios una experiencia de IA móvil segura y completa que evoluciona constantemente en cada paso del camino. Avanzando en la IA a través de la Colaboración Abierta En el mundo acelerado de hoy, los usuarios no solo esperan la próxima gran cosa, sino que la esperan y la exigen, especialmente cuando se trata de IA móvil. El futuro de la IA se trata de proporcionar experiencias que sean verdaderamente intuitivas, profundamente personalizadas y siempre actualizadas. Pero con una gama tan amplia de experiencia necesaria para satisfacer estas diversas demandas, una forma más abierta de colaboración es esencial para lograr estos avances. En el corazón de OPPO y la colaboración de Google se encuentra la integración perfecta de las experiencias de IA en múltiples aplicaciones de una manera que simplifica las tareas cotidianas y permite a los usuarios alcanzar su máximo potencial de productividad. Tomar Círculo para buscar con Google por ejemplo. Esta característica destacada ahora está perfectamente entretejida en el sistema operativo ColorOS de OPPO, lo que permite buscar simplemente dando vueltas a texto o imágenes en la pantalla sin cambiar de aplicación. Pero no se detiene ahí. Google Géminis, su asistente personal de IA verdaderamente útil de Google, puede ayudarlo a mejorar sus ideas y productividad. Gemini ahora puede extraer información y ayudarlo a tomar medidas en aplicaciones OPPO como Notas y Calendario. Sin tener que cambiar de aplicación, ahora puede completar tareas en un solo lugar, directamente en Gemini. Hacer posible estas experiencias de IA es la colaboración entre OPPO y Google para integrar algoritmos de IA individuales, particularmente los modelos de lenguaje grande (LLM) que impulsan estas innovaciones, en dispositivos OPPO. Entre estos se encuentra el modelo más capaz y general de Gemini—Google, que es increíblemente flexible. A través de la integración de Gemini 1.5 Pro y Gemini 1.5 Flash, los teléfonos OPPO AI han alcanzado nuevos niveles de rendimiento, capacidad de respuesta e inteligencia, desbloqueando una experiencia de IA incomparable y preparando el escenario para posibilidades aún mayores por delante. Garantizar una Experiencia Más Segura con Private Computing Cloud Con el aumento de las herramientas de IA generativas como parte integral de nuestra vida cotidiana y la necesidad de soporte de computación en la nube para ofrecer estas características de IA más potentes, la privacidad del usuario y la seguridad de los datos nunca han sido más críticas. A través de su asociación con Google, OPPO se compromete no solo a ofrecer un conjunto completo de herramientas de IA, sino también a priorizar la seguridad y privacidad del usuario para crear una experiencia de IA más segura. OPPO es uno de los primeros fabricantes de teléfonos inteligentes en implementar Private Computing Cloud (PCC), que aprovecha Confidential Computing de Google Cloud para el procesamiento privado de datos de IA. Este enfoque garantiza que la información de los dispositivos de usuario y la nube se maneje en un entorno confidencial donde ni OPPO ni los proveedores de servicios en la nube de terceros pueden acceder a los datos del usuario, ofreciendo a los usuarios seguridad y tranquilidad de extremo a extremo en un mundo impulsado por IA. Comenzando con AI Recording Summary y AI Studio, OPPO utilizará PCC para mejorar aún más la productividad y la creatividad del usuario a través de un potente procesamiento de IA basado en la nube sin comprometer sus más altos estándares de seguridad y privacidad. Entregando la Próxima Generación de IA, Ahora La tecnología de IA avanza más rápido que nunca. Pero incluso con el ritmo vertiginoso de la innovación, los usuarios todavía tienen hambre de experiencias de IA más inteligentes, suaves, intuitivas y personalizadas. Para satisfacer este apetito aparentemente insaciable por las últimas características de IA, OPPO está respondiendo a la llamada prometiendo lanzar nuevas experiencias de IA cada mes en promedio durante todo el año. OPPO también se está preparando para introducir el Nano Gemini modele sus teléfonos inteligentes, habilitando características como Magic Compose en la serie Find X8, ayudando a los usuarios a generar mensajes en una variedad de estilos diferentes directamente dentro de Google Messages. Junto a esto, la introducción de Géminis 2.0, el modelo más capaz de Google construido para la era agentic, está listo para redefinir el futuro de las experiencias de IA móvil. Todas estas innovaciones en última instancia tienen como objetivo hacer que la IA se sienta como una parte integral del sistema, integrada discretamente en todos los aspectos del dispositivo. El próximo Búsqueda de IAla función, por ejemplo, transformará la forma en que los usuarios interactúan con su dispositivo al permitir búsquedas en lenguaje natural en Configuración, Documentos y Notas, para obtener resultados más rápidos sin rastrear a través de múltiples aplicaciones o páginas. Con más aplicaciones como Optical Character Recognition (OCR) y Calendar que también llegan a los dispositivos OPPO, OPPO AI se convertirá en un verdadero socio para refinar aún más la experiencia móvil. Al fomentar un ecosistema profundo y abierto con socios como Google, OPPO está allanando el camino para la próxima

Leer más »

Qualcomm Redefine la Banda Ancha Móvil con el Lanzamiento del Qualcomm Dragonwing Fixed Wireless Access Gen 4 Elite

Qualcomm Technologies, Inc. anunció hoy el Dragonwing™ FWA Gen 4 Elite, la primera plataforma FWA con capacidad avanzada 5G del mundo. Destacados: Qualcomm Technologies, Inc. anunció hoy el Dragonwing™ FWA Gen 4 Elite, la primera plataforma FWA con capacidad avanzada 5G del mundo. Desarrollado por el Qualcomm® X85 5G Modem-RF, la plataforma establece un nuevo punto de referencia para el rendimiento de banda ancha 5G con velocidades de enlace descendente de hasta 12,5 Gbps. La plataforma Dragonwing FWA Gen 4 Elite presenta mejoras integrales de IA e integra un potente coprocesador Edge AI de red con hasta 40 TOPS de potencia de procesamiento NPU. Esto optimiza la conectividad inalámbrica a través de banda ancha 5G y Wi-Fi, al tiempo que desbloquea el poder de la IA generativa para más dispositivos, lo que permite una experiencia de usuario más confiable y armonizada. “La plataforma Dragonwing FWA Gen 4 Elite es un avance tecnológico, que se basa en más de 500 diseños 5G FWA hasta la fecha, y amplía nuestra tradición de ofrecer plataformas que resuelvan los mayores desafíos de la industria de la banda ancha, dijo Gautam Sheoran, vicepresidente y gerente general de banda ancha inalámbrica y comunicaciones de Qualcomm Technologies, Inc. “Al integrar capacidades de IA y conectividad sin precedentes, con el Qualcomm X85 en su núcleo, esta plataforma ofrece velocidades ultrarrápidas, confiabilidad y flexibilidad a un costo total más bajo que la banda ancha por cable, en última instancia, permitiendo un futuro donde las redes inteligentes y sin interrupciones transforman la forma en que vivimos y trabajamos La plataforma Dragonwing FWA Gen 4 Elite abre nuevos caminos para la categoría FWA al ofrecer hasta 14 kilómetros de rendimiento 5G mmWave de largo alcance, capacidades de comunicación por satélite NTN y Dual SIM Dual Active (DSDA) para agregación de alto rendimiento, confiabilidad y administración remota.  La plataforma cuenta con un potente procesador de cuatro núcleos con aceleración de red dedicada para un rendimiento óptimo en 5G celular, Ethernet y Wi-Fi  La plataforma Dragonwing FWA Gen 4 Elite está disponible y se envía ahora. Para más detalles, por favor visite el página del producto. Los asistentes al MWC Barcelona también pueden visitar el Qualcomm Booth 3E10 para ver manifestaciones y hablar con los representantes de Qualcomm.  Sobre QualcommQualcomm innova sin descanso para ofrecer computación inteligente en todas partes, ayudando al mundo a enfrentar algunos de sus desafíos más importantes. Sobre la base de nuestros 40 años de liderazgo tecnológico en la creación de avances que definen la era, ofrecemos una amplia cartera de soluciones creadas con nuestra IA de vanguardia, computación de alto rendimiento y baja potencia y conectividad sin igual. Nuestro Snapdragon® las plataformas potencian experiencias extraordinarias para el consumidor, y nuestros productos Qualcomm Dragonwing™ permiten a las empresas e industrias escalar a nuevas alturas. Junto con nuestros socios del ecosistema, permitimos la transformación digital de próxima generación para enriquecer vidas, mejorar las empresas y avanzar en las sociedades. En Qualcomm, estamos diseñando el progreso humano.  Qualcomm Incorporated incluye nuestro negocio de licencias, QTL y la gran mayoría de nuestra cartera de patentes. Qualcomm Technologies, Inc., una subsidiaria de Qualcomm Incorporated, opera, junto con sus subsidiarias, sustancialmente todas nuestras funciones de ingeniería e investigación y desarrollo y sustancialmente todos nuestros negocios de productos y servicios, incluido nuestro negocio de semiconductores QCT. Los productos de la marca Snapdragon y Qualcomm son productos de Qualcomm Technologies, Inc. y/o sus subsidiarias. Las patentes de Qualcomm están autorizadas por Qualcomm Incorporated. Qualcomm News. Traducido al español

Leer más »

Superar la fragmentación: el desafío clave para optimizar la inteligencia artificial a nivel global según SAP

Migración a la nube, colaboración empresarial y lineamientos internacionales, los pasos claves para maximizar el impacto de la IA.  El mundo está atravesando épocas de cambio, con una fragmentación que cada día se hace más evidente entre naciones, bloques económicos y al interior de las mismas sociedades. En este entorno, la inteligencia artificial (IA) representa una esperanza compartida para impulsar el progreso global. Sin embargo, el impacto positivo de la IA está siendo limitado por las barreras creadas por divisiones internas en las sociedades y entre naciones. Esta es una de las conclusiones de Christian Klein, CEO y miembro del Consejo Ejecutivo de SAP SE, tras su participación en la última edición del Foro Económico Mundial de Davos (Suiza), en la que el ejecutivo destacó además que superar esta fragmentación es esencial para liberar el verdadero potencial de la IA. “La IA puede ser un catalizador para la productividad, la resiliencia económica y la sostenibilidad, pero su éxito depende de nuestra capacidad para trabajar juntos más allá de fronteras y limitaciones”, afirma Klein, quien explica que en un mundo fragmentado, la IA no puede prosperar como debería. Tres pasos clave para maximizar el impacto de la IA El desafío de maximizar el impacto de la IA requiere de un enfoque progresivo. El primer paso comienza a nivel empresarial con la adopción de la nube. Como destaca, la nube permite que los datos sean accesibles de manera más eficiente y que las innovaciones en IA se integren rápidamente en los procesos de negocio. “La migración a la nube crea un entorno estandarizado, donde los datos son coherentes y estructurados para aplicaciones de IA. Esto es esencial para maximizar el impacto de estas tecnologías en las empresas”, asegura. Además, subrayó que la nube facilita la actualización automática con las últimas innovaciones, manteniendo a las empresas en la vanguardia tecnológica. Las inversiones en tecnologías como la nube están marcando el camino para optimizar la IA. De acuerdo con la encuesta Cloud and AI Business Survey 2024 de PwC, el 63% de las empresas de alto rendimiento están aumentando sus presupuestos en la nube para aprovechar la inteligencia artificial generativa (GenAI). El segundo paso es fomentar ecosistemas industriales robustos que promuevan la colaboración entre empresas. En la era de la IA empresarial, es fundamental que las organizaciones puedan compartir información de manera segura con proveedores, clientes y socios de innovación. “Los ecosistemas industriales bien conectados generan un impacto exponencial. Cuanta más información se comparta entre las empresas, mayores serán los beneficios en términos de competitividad e innovación,” agrega Klein. Estos ecosistemas también mejoran la capacidad de las organizaciones para responder a crisis globales, como interrupciones en el comercio o desastres naturales. Finalmente, el tercer paso es construir marcos internacionales que permitan a la IA prosperar de manera responsable. En este punto se destaca la importancia de que los gobiernos y reguladores reduzcan las barreras innecesarias al intercambio de datos, tanto a nivel nacional como internacional. “La alineación de regulaciones tecnológicas entre potencias económicas como América del Norte, Europa y China puede acelerar significativamente la innovación en IA”, explica. Asimismo, los acuerdos globales deben centrarse en el uso ético y seguro de los datos, construyendo un marco de confianza entre los actores involucrados. El papel de la confianza y la inversión en la nube Uno de los mayores obstáculos para el avance de la IA es la falta de confianza, tanto entre países como entre las propias empresas. Ante esta falta de confianza Klein propone los “las confederaciones de confianza” (confederations of trust), en las que las organizaciones acuerden reglas comunes sobre privacidad y uso de datos, las cuales son esenciales para fomentar la colaboración. “La confianza es la base para superar la fragmentación global. Sin ella, los esfuerzos para maximizar el impacto de la IA están condenados a quedarse cortos”, afirma. Para lograr armar lo que Klein define como el rompecabezas de la IA, es necesario tener ecosistemas globales basados en la confianza que reduzcan la fragmentación y permita que las organizaciones puedan aprovechar al máximo los beneficios de esta tecnología.  “Nos corresponde a nosotros armar el rompecabezas de la IA y reducir la fragmentación, paso a paso. Así es como maximizamos el potencial de la IA, no solo para algunos, sino para muchos”, finaliza el CEO de SAP. SAP News. Traducido al español

Leer más »

IBM amplía su relación con AWS al lanzar un nuevo Laboratorio de Innovación en Bucarest, Rumania

Hoy, nos complace compartir la apertura de un nuevo Laboratorio de Innovación conjunto con Amazon Web Services (AWS) en el Centro de Innovación de Clientes de IBM en Bucarest, Rumania. El laboratorio impulsará nuestra colaboración con AW al beneficiar a clientes mutuos de 22 países y poner en práctica nuestras últimas tecnologías, incluidas las soluciones de IA agentic y IA generativa creadas con Amazon Bedrock, Amazon Q, Amazon SageMaker e IBM watsonx en AWS. Acceso práctico a ofertas conjuntas de IBM-AWS Los clientes de la región tendrán más acceso práctico a las ofertas conjuntas de IBM-AWS, como la modernización de la nube, la modernización de aplicaciones de mainframe, la innovación de la industria de soluciones conjuntas y IBM Consulting Advantage. Además, los profesionales de AWS de IBM ayudarán a visualizar los prototipos de arte de lo posible y co-diseño para ayudar a acelerar la transformación y la innovación en industrias como la automotriz, energía y servicios públicos, fabricación y atención médica, entre otras. Los clientes podrán aprovechar los casos de uso y las mejores prácticas de sus pares globales que se demostrarán en el laboratorio, lo que les permitirá construir, probar y escalar soluciones rápidamente para resolver sus desafíos más apremiantes. De Bangalore a Bucarest A principios de 2023, IBM y AWS lanzaron el Laboratorio de Innovación en Bangalore, India para permitir a los clientes experimentar con las últimas tecnologías habilitadas para la nube, como la IA generativa, en nuestro laboratorio. IBM Consulting es el socio ideal de AWS de elección, con la profunda experiencia de IBM en capacidades de IA líderes en el mercado y el compromiso compartido con AWS acelerar la adopción de la IA generativa. Como AWS Premier Tier Partner, IBM cuenta con 24.000 certificaciones AWS en todo el mundo, de las cuales 1.200+ profesionales se encuentran en los Centros EMEA, con la mayor concentración en Bucarest. El año pasado, IBM recibió varias competencias de AWS, incluyendo IA generativa y Soberanía Digital. Estos se suman a la lista de IBM de 21 programas de prestación de servicios validados y dominio en 29 competencias de AWS. En 2024, IBM fue reconocida como la EMEA Consulting Partner of the Year – Finalista, además de recibir los premios Global Design Partner of the Year y Collaboration Partner of the Year. Estos reconocimientos demuestran que IBM y AWS son socios de confianza para el viaje de Cloud en la región europea.   IBM continúa fortaleciendo las capacidades de AWS IBM continúa fortaleciendo las capacidades de AWS a través de adquisiciones y codesarrollo de soluciones con AWS. Por ejemplo, la adquisición de IBM de Modern Systems de Advanced en 2024 trae una combinación de talento, herramientas y conocimiento, que continuará mejorando los servicios de modernización de datos y aplicaciones de mainframe de IBM Consulting. Los expertos de IBM y Modern Systems permiten además que IBM admita los viajes de modernización de aplicaciones de mainframe de los clientes a AWS, diseñando una carga de trabajo adecuada para su propósito entre mainframes y la nube. Lea acerca de los servicios de IBM Consulting para AWS: Servicios de consultoría de AWS IBM Blog. P. S. Traducido al español

Leer más »

AWS presenta la previsualización de un nuevo servicio de integraciones gestionadas para AWS IoT Device Management

El IoT ha transformado la forma en que interactuamos con los dispositivos en nuestros entornos, como hogares y oficinas, llevando conectividad y automatización a todo, desde termostatos hasta cámaras de seguridad. 04/03/2025 | Barcelona AWS ha lanzado la previsualización de un servicio para las integraciones gestionadas para AWS IoT Device Management, ayudando así a los desarrolladores a agilizar el proceso de incorporación de dispositivos IoT (Internet de las Cosas) a la nube y unificar el control de dispositivos a través de múltiples marcas y protocolos. Aunque la tecnología IoT ya es utilizada de forma frecuente en aplicaciones comerciales y de consumo, especialmente en hogares inteligentes, la fragmentación sigue siendo un desafío importante y los usuarios continúan enfrentándose a problemas como dispositivos incompatibles, protocolos diversos o sistemas de control separados que crean barreras de interoperabilidad. Para abordar estos desafíos, AWS IoT Device Management ahora ofrece integraciones gestionadas que incluyen Kits de Desarrollo de Software (SDKs) para la conectividad de dispositivos y el soporte de protocolos para especificaciones como ZigBee, Z-Wave y Wi-Fi. Además, ofrece más de 80 plantillas de modelos de datos de dispositivos y un catálogo completo de conectores de nube a nube. Estas funcionalidades simplifican las integraciones y unifican el control de diferentes tipos de dispositivos, incluidos sensores, cámaras y electrodomésticos, permitiendo a los desarrolladores crear una sola aplicación para controlar productos de múltiples fabricantes, incluidos dispositivos propietarios, dispositivos de terceros y dispositivos conectados a la nube. Así, esta biblioteca integral de modelos de datos de dispositivos simplifica aún más la integración de datos, acelerando el desarrollo de servicios como gestión del consumo de energía, seguridad en el hogar y monitorización para el cuidado de personas mayores, además de permitir a los desarrolladores crear aplicaciones y servicios que permitan a los usuarios configurar fácilmente rutinas de automatización a través de todos sus dispositivos. Desglosando el desafío de integración del IoT El IoT ha transformado la forma en que interactuamos con los dispositivos en nuestros entornos, como hogares y oficinas, llevando conectividad y automatización a todo, desde termostatos hasta cámaras de seguridad. Sin embargo, el ecosistema sigue estando fragmentado, con fabricantes que operan frecuentemente en silos utilizando protocolos de comunicación propios y procesos de incorporación distintos. Para los desarrolladores, esto significa lidiar con múltiples protocolos, gestionar diferentes implementaciones de SDKs para la incorporación de dispositivos y crear capas de integración complejas para habilitar la comunicación entre dispositivos. Acelerando la innovación y mejorando las experiencias del cliente Como solución a este desafío, la función de integraciones gestionadas de AWS IoT Device Management combina múltiples elementos, como conectividad segura en la nube, una capa unificada de control de dispositivos, capacidad de actualización por aire (OTA), y SDKs para dispositivos y la nube, simplificando el desarrollo de soluciones IoT. Los SDKs permitirán a los desarrolladores construir hubs o gateways IoT para controlar localmente dispositivos ZigBee, Z-Wave y Wi-Fi de fabricantes propietarios y de terceros. Además, los desarrolladores podrán acceder a un catálogo de conectores de nube a nube para establecer comunicaciones seguras con dispositivos conectados a la nube de terceros. De forma adicional, incluye una biblioteca completa con más de 80 plantillas de modelos de datos predefinidos agiliza el proceso de representar dispositivos físicos como bombillas o interruptores de pared en la nube sin necesidad de configurar temas dedicados de MQTT, políticas IoT o reglas. Los desarrolladores pueden utilizar estas plantillas para describir atributos de dispositivos, como el estado de encendido/apagado de una bombilla, el nivel de brillo y la temperatura de color. Una vez definidos, la función de integraciones gestionadas valida todos los mensajes automáticamente según estos atributos, reduciendo la necesidad de manejo de errores personalizado y luego los envía al dispositivo correspondiente, ya sea de forma directa, a través de un hub o mediante un conector de nube a nube. Las integraciones gestionadas para AWS IoT Device Management también incluyen funcionalidades integradas para escaneo de códigos de barras y emparejamiento directo de dispositivos, ofreciendo mecanismos adicionales para simplificar la incorporación de dispositivos y las complejidades de la integración. Usando AWS IoT Device Management, los desarrolladores podrán facilitar el control en tiempo real y monitorizar dispositivos y actualizaciones de forma unificada en diferentes dispositivos conectados, todo sin tener que gestionar integraciones personalizadas. Fundamentándose en la base de seguridad de AWS IoT, la función de integraciones gestionadas admite el cifrado de datos utilizando claves gestionadas por AWS y por el cliente. También gestiona la identidad segura para dispositivos conectados y maneja la autentificación, control de acceso, monitorización y almacenamiento de credenciales a través de diferentes tipos de dispositivos. Además, AWS IoT Device Management se integra con más de 200 servicios de AWS, ayudando a los desarrolladores a escalar sus soluciones de manera eficiente y agregar funcionalidades innovadoras de Inteligencia Artificial (IA) y Aprendizaje Automático (ML) para mejorar las experiencias de los clientes. Por ejemplo, utilizando Amazon Bedrock junto con AWS IoT Device Management, los desarrolladores pueden elegir sus modelos de IA generativa preferidos para crear nuevas aplicaciones que mejoren el soporte al cliente, la configuración de dispositivos y los procesos de resolución de problemas. AWS News. Traducido al español

Leer más »
Scroll al inicio