El Portal de las Tecnologías para la Innovación

Categoría: Cambio Climático y Sostenibilidad

Los esquemas de firma de seguridad cuántica de IBM avanzan en el proceso de PQC de NISTers

A medida que el NIST reduce la lista de candidatos para las firmas digitales cuánticas seguras del futuro, los esfuerzos de colaboración de IBM siguen siendo destacados con cuatro candidatos aún en el último proceso de selección de la Competencia de Firma Digital Adicional Quantum-Safe. A medida que el mundo se prepara para el advenimiento de la computación cuántica, asegurar la comunicación digital contra futuras amenazas se ha convertido en una prioridad global. En respuesta a este desafío, el Instituto Nacional de Estándares y Tecnología de los Estados Unidos (NIST) ha estado liderando el proceso de estandarización de la Criptografía Post-Cuántica (PQC) de los organizadores. IBM, junto con socios académicos y de la industria, ha desempeñado un papel crucial en este esfuerzo. NISTA ya ha estandarizado varios algoritmos criptográficos desarrollados por IBM, incluidos ML-KEM, ML-DSA y SLH-DSA, subrayan aún más el liderazgo de la compañía en el avance de soluciones informáticas seguras. Además, FN-DSA ha sido seleccionado para la estandarización y se estandarizará formalmente pronto. Cuando en 2023 NIST pidió más propuestas para las firmas digitales, IBM respondió una vez más con tres nuevos candidatos. Un enfoque colaborativo para la seguridad post-cuántica Las contribuciones de IBM a la primera ronda del proceso de selección de Firmas Digitales Adicionales de NISTs no fueron esfuerzos en solitario. Cada uno de los tres esquemas de firma — SQIsign, UOV y MAYO — fue desarrollado por equipos formados por investigadores de IBM junto con expertos de universidades y otras instituciones de investigación de todo el mundo. Esto refleja la naturaleza altamente cooperativa de la investigación de criptografía cuántica segura, donde la experiencia de diferentes campos es esencial para diseñar esquemas seguros y eficientes. En un poco más de detalle, los esquemas fueron: En octubre de 2024, el NIST redujo la lista de candidatos de 40 a 14. Los tres esquemas presentados por IBM Research avanzaron con éxito a la segunda ronda, demostrando su potencial para servir como alternativas seguras en un mundo cuántico seguro. Los candidatos revisados y mejorados se presentaron al NIST en febrero y finalmente están disponibles en el sitio web de NISTs. Cuentan con un rendimiento mejorado en todo el espectro y bases de seguridad más sólidas. Ampliación de los esfuerzos de colaboración: IBM se une a FAEST El compromiso de IBM Research para la colaboración en criptografía segura cuántica se extiende más allá de sus tres presentaciones iniciales. En la segunda ronda de la competencia NIST, los investigadores de IBM se unieron al equipo FAEST. FAEST es un esquema de firma basado en simetría que aprovecha primitivas criptográficas bien entendidas para ofrecer fuertes garantías de seguridad. El desarrollo del esquema ha involucrado a expertos de la academia, la industria y las instituciones de investigación que trabajan juntos para crear un método de firma post-cuántico viable, eficiente y seguro. Lo que sigue Con estos cuatro esquemas ahora sometidos a una evaluación rigurosa en la segunda ronda, los esfuerzos de colaboración entre investigadores de IBM, universidades y otros laboratorios de investigación serán cruciales para refinar su seguridad y rendimiento. El proceso de estandarización del NIST PQC sigue siendo un esfuerzo global, enfatizando la importancia del trabajo en equipo para abordar los desafíos sin precedentes que plantea la computación cuántica. La participación de IBM Research en estas presentaciones es el resultado de nuestra profunda experiencia en criptografía, así como de nuestra dedicación a trabajar junto a la comunidad de investigación más amplia para garantizar un futuro digital seguro. A medida que estos esfuerzos continúen, una mayor colaboración será esencial para desarrollar estándares criptográficos que puedan resistir la era cuántica. Es importante destacar que, como el propio NIST ha declarado, el proceso de selección en curso para las firmas digitales no debe interpretarse como que los usuarios deben esperar para adoptar algoritmos de seguridad cuántica. Los estándares ML-KEM, ML-DSA y SLH-DSA ya son excelentes soluciones y la urgencia de adoptarlos debería guiar la toma de decisiones hacia una seguridad cuántica más temprano que tarde. IBM News. W. B. y De L. F. Traducido al español

Leer más »

Robots Empowered by AI Foundation Models y las oportunidades para 6G

Este artículo analiza FM en robótica, explora el potencial de la tecnología 6G para robótica, e introduce un prototipo de sistema robótico 6G. 1 Introducción La visión global para desarrollar tecnologías robóticas demuestra la importancia crucial de integrar la inteligencia artificial (IA) en los robots. En los Estados Unidos, la edición 2024 de «A Roadmap for US Robotics: Robotics for a Better Tomorrow» de la Iniciativa Nacional de Robótica (NRI) destaca a la IA como una fuerza fundamental. La hoja de ruta describe los avances en el aprendizaje automático (ML), la investigación de inteligencia general artificial (AGI), la automatización generalizada y la convergencia de la IA con la robótica. También enfatiza la IA personalizada, la ética de la IA y el descubrimiento científico impulsado por la IA, todo dirigido a dar forma a la economía, la fuerza laboral y la seguridad nacional. La «Agenda de Innovación y Despliegue de Investigación Estratégica (SRIDA)» conjunta de la Unión Europea para la asociación de IA, datos y robótica subraya un enfoque centrado en el ser humano y confiable para la IA y la robótica. Esta agenda se centra en fomentar la colaboración entre la industria, la academia y los formuladores de políticas para impulsar la investigación, el desarrollo y el despliegue. Su objetivo es establecer a Europa como un líder mundial en IA y robótica estimulando la inversión y abordando desafíos clave, mejorando así los resultados económicos, sociales y ambientales en alineación con los valores y derechos europeos. El «14o Plan Quinquenal para el Desarrollo de la Industria Robot» de China enfatiza la necesidad de mejorar las capacidades de inteligencia y redes de los robots a través de la integración de IA, 5G, big data y computación en la nube. Este plan garantiza la funcionalidad, la red y la seguridad de los datos de los sistemas robóticos, avanzando así las capacidades tecnológicas y las aplicaciones industriales de la nación. Para lograr sus capacidades de percepción, los sistemas robóticos de IA clásicos utilizan métodos de aprendizaje profundo (DL) implementados en un entorno controlado. Aunque este enfoque proporciona una forma efectiva de aprender múltiples habilidades, no solo requiere un tiempo de capacitación significativo y un amplio esfuerzo de ingeniería para configurar cada tarea, sino que también carece de cambios de distribución y generalización. Si bien esto puede parecer razonable para una sola tarea, los costos de aprendizaje y el esfuerzo podrían aumentar exponencialmente cuando se realiza la multitarea en un experimento del mundo real, introduciendo nuevos desafíos dentro del dominio robótico. La construcción de sistemas robóticos generalizables enfrenta varios desafíos. Al mismo tiempo, sin embargo, ha surgido un nuevo campo de estudio que podría ayudar a mejorar los sistemas robóticos. Un modelo de base (FM) es un modelo de IA a gran escala que sirve como un marco versátil y de propósito general para varias tareas posteriores al adaptarse a aplicaciones específicas. Los FM están pre-entrenados en datos a escala de Internet, presentando capacidades superiores de generalización y extendiendo los conceptos de aprendizaje por transferencia (TL) y escala de modelos. Permiten a los robots comprender y ejecutar tareas de forma autónoma a partir de instrucciones de lenguaje natural de alto nivel, descomponer dinámicamente tareas complejas y ajustar las acciones en función de la retroalimentación en tiempo real, minimizando la intervención humana. Además, la conciencia de la situación se mejora al permitir la comprensión semántica del entorno utilizando datos multimodales de sensores de uso común, como cámaras, LiDAR y micrófonos. Estos avances alejan a los robots de operaciones rígidas y predefinidas y modelos estrechamente enfocados, moviéndolos hacia la ejecución dinámica e inteligente de tareas y la comprensión ambiental, mejorando significativamente su autonomía, flexibilidad y eficiencia. En este documento, analizamos los esfuerzos actuales de académicos e industrias y las direcciones futuras que tomarán en la aplicación de FM a la robótica. Además, analizamos el impacto de la tecnología 6G en la robótica, destacando las aplicaciones futuras, la integración con AI-FM y los requisitos de red. Este documento está estructurado de la siguiente manera: La Sección 2 proporciona el análisis de vanguardia (SOTA) de las FM actuales para robótica. La sección 3 proporciona una breve descripción del esfuerzo de estandarización de las principales entidades. La Sección 4 ilustra ampliamente las oportunidades de mercado e investigación de 6G e IA aplicadas a la robótica. La Sección 5 presenta nuestro prototipo robótico 6G. Y finalmente, la Sección 6 presenta conclusiones, comentarios y futuras direcciones de investigación. 2 Modelos de Fundación SOTA para Robots Esta sección proporciona una visión general de los tipos, roles y capacidades de FM específicos para el dominio robótico. Utilizamos terminología que es consistente con la norma ISO 8373:2021 para robots y dispositivos robóticos. Este estándar internacional es clave para garantizar que la comunicación sea clara y consistente en diferentes industrias, campos académicos y regiones geográficas involucradas en la robótica. 2.1 Habilitadores FM para Robótica Los beneficios clave de las FM para los robots se resumen de la siguiente manera: 2.2 FM Macro Tipologías para Robótica Los FM tienen el potencial de desbloquear nuevas posibilidades en el dominio de la robótica. Entre los FM, se puede utilizar una subclase de modelos preentrenados para mejorar diversas tareas, como la percepción, la predicción, la planificación y el control: Estos avances destacan el potencial del uso de FM en el campo de la robótica para el desarrollo de modelos que son más específicos de este campo en lugar de simplemente combinar modelos de visión y lenguaje existentes. 2.3 FM robóticos: Reconocimiento de Intenciones y Razonamiento Visual Recientemente ha habido un creciente interés en la IA robótica basada en la transformación por sus fuertes capacidades de reconocimiento de intenciones y razonamiento visual. Esta arquitectura utiliza incrustaciones de lenguaje y observaciones como entradas y salidas de acciones predichas. Para lograr políticas robustas y generalizables de largo horizonte, se ha introducido un modelo de visión-lenguaje-acción (VLA) aplicado a la manipulación robótica condicionada por el lenguaje (LcRM) para entradas de control visomotor. Este enfoque reduce aún más la brecha entre la física de

Leer más »

Acelere Apache Spark ML en GPU NVIDIA con Cambio de Código Cero

Acelera lo existente Apache Spark SQL y DataFrame aplicaciones basadas en GPU NVIDIA por más de 9 veces sin requerir un cambio en sus consultas o código fuente. El Acelerador NVIDIA RAPIDS para Apache Spark el plug-in de software fue pionero en una experiencia de usuario de cambio de código cero (UX) para el procesamiento de datos acelerado por GPU. Acelera lo existente Apache Spark SQL y DataFrameaplicaciones basadas en GPU NVIDIA por más de 9 veces sin requerir un cambio en sus consultas o código fuente.     Esto llevó a lo nuevo Spark RAPIDS ML Biblioteca de Python, que puede acelerar las aplicaciones en más de 100x, y también invocado MLlib, biblioteca de aprendizaje automático escalable de Apache Sparkwards. Hasta hace poco, la aceleración de Spark RAPIDS MLias MLlib aún necesitaba un pequeño cambio para que Python usara la implementación acelerada.Específicamente, necesitabas reemplazar pyspark.ml con spark_rapids_ml en las declaraciones de importación de Python para las clases de ML que deseabas acelerar.Por ejemplo, para usar KMeans acelerados en lugar de los KMeans de referencia, tenía que reemplazar la importación pyspark.ml.classication.KMeans con importación spark_rapids_ml.classication.KMeans a lo largo de su código.En el lado positivo, no se necesitaron más cambios de código para usar la versión acelerada de KMeans.   En esta publicación de blog, describimos la nueva funcionalidad en Spark RAPIDS ML desde el 25.02 liberación eso le permite omitir incluso los cambios en la instrucción de importación mencionados anteriormente, para una experiencia de aceleración de cambio de código verdaderamente cero de extremo a extremo tanto en Spark SQL como en DataFrame y en código MLlib. Considere el siguiente código de aplicación simple de PySpark: frompyspark.ml.clustering importKMeansfrompyspark.ml.functions importarray_to_vectordf =spark.read.parquet(«/data/embedding_vectors»)df =df.select(array_to_vector(df.features).alias(«features»))kmeans_estim =( KMeans()   .setK(100)   .setFeaturesCol(«features»)   .setMaxIter(30) )kmeans_model =kmeans_estim.fit(df)transformed =kmeans_model.transform(df)transformed.write.parquet(«/data/embedding_vectors_clusters») Este código lee un archivo de incrustaciones vectoriales, previamente calculado utilizando un modelo de lenguaje de aprendizaje profundo y almacenado en formato de parquet utilizando array tipo.Luego utiliza el algoritmo KMeans en Spark MLlib para agrupar los vectores.    Combinando la nueva funcionalidad de cambio de código cero de Spark RAPIDS ML con el complemento de software RAPIDS Accelerator for Apache Spark, puede acelerar este código PySpark totalmente compatible sin ningún cambio: Incluyendo descompresión y decodificación de parquet al leer en el archivo en read.parquet(), los KMeans agrupando cálculos numéricos en fit() y transform()y la codificación y compresión al guardar los vectores con clusters en otro archivo de parquet en write.parquet().  A continuación, describimos cómo puede activar la ejecución acelerada utilizando nuevas variantes de las formas familiares de iniciar aplicaciones Spark: Interfaces de línea de comandos (CLI), portátiles Jupyter localmente y portátiles Jupyter en servicios Spark alojados en proveedores en la nube. Interfaces de línea de comandos Supongamos que el código de aplicación de ejemplo anterior estaba en un archivo llamado app.py.Convencionalmente, youidd utiliza el conocido Spark CLI spark-submit para lanzar app.py en diferentes tipos de clústeres (local/test, autónomo, hilo, kubernetes, etc.): spark-submit <options> app.py Para acelerar las piezas de MLlib, después de instalar la biblioteca Spark RAPIDS ML a través de la instalación de pip spark-rapids-ml, simplemente puede reemplazar la spark-submit comando con una contraparte CLI acelerada recién incluida (mientras se incluyen las configuraciones y la configuración de ruta de clase, como antes, para la aceleración SQL y DataFrame): spark-rapids-submit <options> app.py Si prefiere ejecutar código similar a app.py interactivamente en un shell PySpark usando el CLI pyspark, también puede acelerar esto, con cero cambios de código, utilizando la CLI de contraparte recién incluida pyspark-rapids para lanzar un shell PySpark acelerado en su lugar. Cuadernos Jupyter: clústeres de Spark en las instalaciones Las aplicaciones de Spark también se ejecutan comúnmente de forma interactiva en portátiles Jupyter que ejecutan núcleos unidos a clústeres de Spark. Como se explica en el Spark RAPIDS ML documentación, para comenzar en una estación de trabajo con una GPU NVIDIA, puede iniciar Jupyter con Spark acelerado en modo local utilizando el pyspark-rapids comando: PYSPARK_DRIVER_PYTHON=jupyter \PYSPARK_DRIVER_PYTHON_OPTS=’notebook –ip=0.0.0.0’\pyspark-rapids –master local[*] <options> Y luego conéctese al servidor de portátiles Jupyter en la URL registrada.Luego podría ejecutar código similar a app.py interactivamente en una o más celdas de cuaderno. Puede agregar el frasco del complemento RAPIDS Accelerated Spark y spark.plugins configuración para aceleración de extremo a extremo. Con configuraciones adecuadas para –master, puede usar el mismo comando para habilitar la aceleración de notebook de cambio de código cero en otras implementaciones de clúster de Spark (como independiente, hilo).  Cuadernos Jupyter: Proveedor en la nube alojado Spark Para el cambio de código cero UX en los portátiles Spark Jupyter alojados en la nube, el Spark RAPIDS ML repos muestra cómo configurar scripts de inicialización y arranque de ejemplo al iniciar clústeres de GPU Spark, para habilitar la aceleración de SQL/Dataframe y la aceleración de MLlib.Se proporcionan ejemplos para Databricks, GCP Dataproc y AWS EMR. Los scripts init inyectan modificaciones simples en los respectivos entornos Spark alojados que dan como resultado que los portátiles Jupyter se inicien con la aceleración de cambio de código cero habilitada. Cómo funciona La aceleración de cambio de código cero de Spark MLlib habilitada por los CLI anteriores y las implementaciones de portátiles Jupyter se alimenta bajo el capó importando o ejecutando el nuevo spark_rapids_ml.install módulo en la biblioteca Spark RAPIDS ML Python.   Este nuevo módulo se basa en gran medida en una funcionalidad similar en el RÁPIDOS cudf.pandas El paquete Python se lanzó en el GTC del año pasado, que trajo un UX acelerado por GPU de cambio de código cero a los usuarios de la popular biblioteca Pandas Data Analysis. Importar o ejecutar el nuevo spark_rapids_ml.install el módulo anula los mecanismos de importación del módulo Pythonhats para redirigir transparentemente las importaciones de pyspark.ml estimadores en código de aplicación a acelerado spark_rapids_ml contrapartes, cuando estén disponibles.Un aspecto difícil es evitar hacer esto cuando las importaciones son de PySpark o Spark RAPIDS ML código en sí, como en estos casos es crucial para importar el real pyspark.ml estimadores. Próximos pasos Puede probar la nueva funcionalidad acelerada Spark MLlib de cambio de código cero, aumentando el acelerador RAPIDS original para Apache Spark, instalando el paquete spark-rapids-ml Python y documentación de referencia en el Spark RAPIDS ML Repo gitHub para cambio de código cero CLI y cuadernos y ejecutando un cambio de código cero script de prueba, también en el repositorio. Recursos relacionados NVIDIA Blog. E. O. Traducido al español

Leer más »

Desbloquear todo el potencial del 6G nativo de IA a través de estándares

La IA será fundamental para dar forma a 6G, que será la primera generación de redes celulares verdaderamente diseñadas con la IA en su núcleo.  La inteligencia artificial (IA) está preparada para generalizarse en todo el ecosistema de las telecomunicaciones. Incluso hoy en día, la IA está transformando flujos de trabajo, procesos y productos en todas las industrias. Como solo un ejemplo de muchos, según un Estudio McKinsey 2025, los operadores de telecomunicaciones esperan no menos del 20% de ahorro de costos en todas las funciones comerciales. Esta transformación se ve impulsada por los rápidos avances en el aprendizaje automático y las capacidades y arquitecturas de los modelos de IA, el acceso sin precedentes a hardware de alto rendimiento para capacitación e inferencia, así como el acceso a una gran cantidad de datos acompañados de métodos para la generación de datos sintéticos para capacitación y mejora aún más las capacidades del modelo de IA.  Las oportunidades de IA se documentan diariamente en la prensa empresarial, con enormes inversiones en centros de datos a medida que las empresas compiten por ser los líderes en este campo. Incluso se ha convertido en un interés estratégico a nivel de estado-nación y está en el corazón de las estrategias industriales nacionales. A medida que planeamos la 6a generación de redes celulares móviles (6G), debemos comprender la urgencia que enfrentamos. La IA será fundamental para dar forma a 6G, que será la primera generación de redes celulares verdaderamente diseñadas con la IA en su núcleo. A pesar de los muchos jugadores que compiten para definir nuestro futuro de IA, la industria de las telecomunicaciones tiene una oportunidad única para marcar el ritmo del 6G nativo de IA.  Figura 1. Las redes celulares 6G se construirán sobre IA Como la primera generación de redes celulares móviles con IA en su ADN, la IA y el aprendizaje automático (ML) se integrarán en todos los dominios y capas del sistema 6G, desde dispositivos hasta la RAN, la red central y el dominio de orquestación/gestión. Para lograr la máxima cohesión y eficiencia, esto debe hacerse de manera sistemática asegurando la interoperabilidad, previsibilidad y disponibilidad de los recursos de IA en todos los niveles del sistema, al tiempo que permite maximizar la agilidad para adoptar nuevas tecnologías impulsadas por IA. La disponibilidad de habilitadores clave de IA permitirá a todas las partes interesadas construir e implementar modelos y soluciones de IA innovadores y de alta calidad:  Los estándares tendrán un impacto decisivo en la fortaleza y las capacidades de innovación del ecosistema 6G. No solo garantizarán la confianza al cumplir con los aspectos regulatorios, de seguridad y privacidad críticos, sino también para permitir una integración fluida y eficiente de los recursos de diversas soluciones y tecnologías. El objetivo es crear un ecosistema para IA y 6G que sienta las bases para una década de nuevos casos de uso, al tiempo que garantiza la integridad de nuestros sistemas de comunicaciones. Los clientes serán los beneficiarios finales. AI ayudará a proporcionarles una gama más amplia de servicios y aplicaciones innovadoras, mejorando su experiencia general y conservando la confianza histórica que han tenido durante mucho tiempo para los servicios de telecomunicaciones. Este artículo explora los habilitadores clave de estandarización para un 6G nativo de IA. Adoptamos un enfoque holístico en todos los dominios de red y sistema, aprovechando las lecciones aprendidas de 5G-Advanced. Este enfoque holístico minimizará las superposiciones funcionales entre diferentes dominios del sistema, asegurando una arquitectura de red racionalizada y eficiente. Crear valor con la estandarización de los habilitadores de IA Para 6G, el objetivo es desarrollar un enfoque de IA que refleje las prioridades comerciales, no la exageración. La IA tiene un enorme potencial para agregar valor a 6G. La 6G nativa de la IA será una fuerza fundamental para impulsar los ingresos, el crecimiento, el rendimiento y la reducción de los costos operativos. Representa un cambio fundamental, ya sea para optimizar el rendimiento de la red, habilitar nuevos modelos de negocio o proporcionar valor tangible a los CSP y verticales de la industria. En el caso de la automatización cognitiva basada en la intención, el valor que proporciona la IA puede ser tan alto como un 90% más rápido en la detección y resolución de problemas de red en comparación con los métodos manuales. Del mismo modo, el ahorro de energía impulsado por IA proporciona 10–20% RAN ahorro de energía mientras promete más mejoras por venir.  La Figura 2 y la siguiente tabla ilustran aún más el potencial de creación de valor de las soluciones impulsadas por IA en 6G. Por ejemplo, los agentes de IA tienen el potencial de transformar fundamentalmente la forma en que los humanos y las máquinas realizan las tareas: Los agentes de IA son componentes autónomos impulsados por modelos generativos que analizan y actúan sobre la información contextual hacia el cumplimiento de una intención dada. Los agentes de IA pueden realizar tareas específicas aprovechando capacidades como la planificación y el razonamiento, la realización de reflexiones y el uso de herramientas externas. Para aprovechar todo su potencial, los sistemas de IA agentic necesitan acceso a datos contextuales relevantes para la tarea específica en cuestión, así como mecanismos de orquestación y colaboración en todo el sistema.  Más allá de la automatización y la eficiencia, la IA desempeñará un papel estratégico en la creación de redes capaces de optimizar de forma continua y autónoma los cambios en el tráfico, la radio y el comportamiento del usuario. Acelerará la prestación de servicios, mejorará las experiencias de los clientes, mejorará la toma de decisiones y desbloqueará nuevas fuentes de ingresos. También admitirá muchos casos de uso y aplicaciones nuevos, como IA generativa, IA agentica, robótica y realidad extendida inmersiva (XR), al proporcionar servicios basados en IA adaptados a las necesidades de los usuarios. Figura 2: Oportunidades de creación de valor utilizando habilitadores de IA Oportunidades de creación de valor Habilitadores de IA Datos como servicio Exposición de productos de datos y servicios de datosGestión de metadatos, incluidas descripciones de datos y

Leer más »

Cómo OPPO y Google están Redefiniendo la IA Móvil con Integración Sin Costuras y Seguridad Mejorada

En solo unos pocos años, la IA ha evolucionado de una palabra de moda novedosa a una herramienta esencial que cambia el juego y que da forma a la forma en que trabajamos, nos conectamos y vivimos todos los días. Como líder mundial en dispositivos inteligentes, OPPO ha adoptado plenamente este poder transformador de la IA, creyendo que los teléfonos inteligentes no son solo vehículos para la IA, sino los mismos motores que la impulsan. La clave de la capacidad de OPPO para mantenerse a la vanguardia de la innovación en IA móvil son las asociaciones estratégicas con innovadores tecnológicos como Google que han establecido nuevos puntos de referencia para lo que es posible en IA en teléfonos inteligentes a través de herramientas versátiles y potentes modelos de IA en todo el sistema. Ahora, OPPO y Google están llevando su asociación aún más lejos, trabajando juntos para llevar a Gemini Vertex al núcleo de tres áreas principales de las aplicaciones AI development—AI de Oppo, los modelos AI y AI security— para brindar a los usuarios una experiencia de IA móvil segura y completa que evoluciona constantemente en cada paso del camino. Avanzando en la IA a través de la Colaboración Abierta En el mundo acelerado de hoy, los usuarios no solo esperan la próxima gran cosa, sino que la esperan y la exigen, especialmente cuando se trata de IA móvil. El futuro de la IA se trata de proporcionar experiencias que sean verdaderamente intuitivas, profundamente personalizadas y siempre actualizadas. Pero con una gama tan amplia de experiencia necesaria para satisfacer estas diversas demandas, una forma más abierta de colaboración es esencial para lograr estos avances. En el corazón de OPPO y la colaboración de Google se encuentra la integración perfecta de las experiencias de IA en múltiples aplicaciones de una manera que simplifica las tareas cotidianas y permite a los usuarios alcanzar su máximo potencial de productividad. Tomar Círculo para buscar con Google por ejemplo. Esta característica destacada ahora está perfectamente entretejida en el sistema operativo ColorOS de OPPO, lo que permite buscar simplemente dando vueltas a texto o imágenes en la pantalla sin cambiar de aplicación. Pero no se detiene ahí. Google Géminis, su asistente personal de IA verdaderamente útil de Google, puede ayudarlo a mejorar sus ideas y productividad. Gemini ahora puede extraer información y ayudarlo a tomar medidas en aplicaciones OPPO como Notas y Calendario. Sin tener que cambiar de aplicación, ahora puede completar tareas en un solo lugar, directamente en Gemini. Hacer posible estas experiencias de IA es la colaboración entre OPPO y Google para integrar algoritmos de IA individuales, particularmente los modelos de lenguaje grande (LLM) que impulsan estas innovaciones, en dispositivos OPPO. Entre estos se encuentra el modelo más capaz y general de Gemini—Google, que es increíblemente flexible. A través de la integración de Gemini 1.5 Pro y Gemini 1.5 Flash, los teléfonos OPPO AI han alcanzado nuevos niveles de rendimiento, capacidad de respuesta e inteligencia, desbloqueando una experiencia de IA incomparable y preparando el escenario para posibilidades aún mayores por delante. Garantizar una Experiencia Más Segura con Private Computing Cloud Con el aumento de las herramientas de IA generativas como parte integral de nuestra vida cotidiana y la necesidad de soporte de computación en la nube para ofrecer estas características de IA más potentes, la privacidad del usuario y la seguridad de los datos nunca han sido más críticas. A través de su asociación con Google, OPPO se compromete no solo a ofrecer un conjunto completo de herramientas de IA, sino también a priorizar la seguridad y privacidad del usuario para crear una experiencia de IA más segura. OPPO es uno de los primeros fabricantes de teléfonos inteligentes en implementar Private Computing Cloud (PCC), que aprovecha Confidential Computing de Google Cloud para el procesamiento privado de datos de IA. Este enfoque garantiza que la información de los dispositivos de usuario y la nube se maneje en un entorno confidencial donde ni OPPO ni los proveedores de servicios en la nube de terceros pueden acceder a los datos del usuario, ofreciendo a los usuarios seguridad y tranquilidad de extremo a extremo en un mundo impulsado por IA. Comenzando con AI Recording Summary y AI Studio, OPPO utilizará PCC para mejorar aún más la productividad y la creatividad del usuario a través de un potente procesamiento de IA basado en la nube sin comprometer sus más altos estándares de seguridad y privacidad. Entregando la Próxima Generación de IA, Ahora La tecnología de IA avanza más rápido que nunca. Pero incluso con el ritmo vertiginoso de la innovación, los usuarios todavía tienen hambre de experiencias de IA más inteligentes, suaves, intuitivas y personalizadas. Para satisfacer este apetito aparentemente insaciable por las últimas características de IA, OPPO está respondiendo a la llamada prometiendo lanzar nuevas experiencias de IA cada mes en promedio durante todo el año. OPPO también se está preparando para introducir el Nano Gemini modele sus teléfonos inteligentes, habilitando características como Magic Compose en la serie Find X8, ayudando a los usuarios a generar mensajes en una variedad de estilos diferentes directamente dentro de Google Messages. Junto a esto, la introducción de Géminis 2.0, el modelo más capaz de Google construido para la era agentic, está listo para redefinir el futuro de las experiencias de IA móvil. Todas estas innovaciones en última instancia tienen como objetivo hacer que la IA se sienta como una parte integral del sistema, integrada discretamente en todos los aspectos del dispositivo. El próximo Búsqueda de IAla función, por ejemplo, transformará la forma en que los usuarios interactúan con su dispositivo al permitir búsquedas en lenguaje natural en Configuración, Documentos y Notas, para obtener resultados más rápidos sin rastrear a través de múltiples aplicaciones o páginas. Con más aplicaciones como Optical Character Recognition (OCR) y Calendar que también llegan a los dispositivos OPPO, OPPO AI se convertirá en un verdadero socio para refinar aún más la experiencia móvil. Al fomentar un ecosistema profundo y abierto con socios como Google, OPPO está allanando el camino para la próxima

Leer más »

Epson Comenzará la Reserva de Muestra del S1A00210B un Nuevo IC de Administración de Energía para Ayudas Auditivas y Otros Dispositivos Electrónicos Pequeños

Con carga inalámbrica, el chip acelera los tiempos de carga y extiende la duración de la batería  Seiko Epson Corporation (TSE: 6724, «Epson») ha desarrollado un nuevo IC de administración de energía, el S1A00210B, para audífonos y otros dispositivos electrónicos pequeños. Las muestras se pueden reservar a partir de abril de 2025, con envíos programados para agosto. Los circuitos integrados de administración de energía (PMIC) son los principales responsables de administrar la energía en dispositivos electrónicos. En los últimos años, también se han utilizado para controlar la carga de baterías secundarias (recargables). Epson comenzó a desarrollar PMIC para audífonos en 2016. En ese momento, la mayoría de los audífonos usaban baterías primarias (no recargables). Los inconvenientes de las baterías primarias son que el voltaje cae con el tiempo, son problemáticos de reemplazar y requieren un compartimiento de batería impermeable. Para resolver estos problemas, Epson aplicó su tecnología de carga inalámbrica para su uso en audífonos. La tecnología de Epson ha sido adoptada por múltiples fabricantes de audífonos, contribuyendo a la aplicación práctica de audífonos recargables y mejorando su conveniencia. La línea de PMIC de Epson para audífonos actualmente consta de tres modelos: un modelo de carga inalámbrica y dos modelos de carga de contacto. El nuevo PMIC, el S1A00210B, utiliza una bobina más pequeña que su predecesor de carga inalámbrica, el S1A00112B, gracias a una mayor frecuencia de transferencia1. La bobina más pequeña significa que se puede reducir el tamaño del audífono en sí. El S1A00210B también puede almacenar dos tipos de perfiles de carga de baterías y gestionar el número de ciclos de carga, lo que le permite optimizar el método de carga para baterías con diferentes características o aquellas que han sufrido una carga repetida. Esto ayuda a acortar el tiempo de carga y prolongar la duración de la batería. Estas características prometen mejorar significativamente la conveniencia para los usuarios de audífonos. El S1A00210B también reduce el conteo de componentes con una fuente de alimentación de uso general recientemente integrada LDO (regulador de baja caída)2 eso elimina la necesidad de un IC de potencia discreta para suministrar energía a un Bluetooth® Chip de baja energía3 o chip sensor, que se incorpora cada vez más a los audífonos. La integración de toda la gestión de energía necesaria para pequeños dispositivos electrónicos (recepción de energía, carga, fuente de alimentación, protección de la batería, Flash ROM) en un solo chip también simplifica el diseño del circuito. Epson se compromete a ayudar a los clientes a mejorar aún más el rendimiento de sus productos y contribuir al bienestar de las personas y la sociedad aprovechando sus tecnologías eficientes, compactas y precisas para ahorrar energía, ahorrar espacio y ofrecer una precisión y precisión excepcionales. Aplicaciones de Objetivo Audífonos, amplificadores de sonido y anillos inteligentes, entre otros dispositivos pequeños Características del Producto Especificaciones Principales Que S1A00210B (Nuevo) S1A00112B (Predecesor) Función de carga inalámbrica Incrustado Incrustado Rango de potencia de carga 2,3 V – 5,25 V 4,75 V – 5,25 V Método de carga Carga CC-CV, perfiles de carga configurables Carga CC-CV Fuente de alimentación del sistema Bomba de carga: Conmutación automática de la relación de reducción según la carga, salida de voltaje constante de 1.2 VLDO: El voltaje de salida se puede establecer en el rango de 1.8 V a 3.0 V bomba de carga reductora X1/3 V 12C interfaz 1 canalConfiguración del perfil de carga/descargaCarga/descarga de estado de lecturaEnvío de comandos de control 2 canalesConfiguración del perfil de carga/descargaCarga/descarga de estado de lecturaEnvío de comandos de control Memoria flash Para configurar las funciones del IC y el perfil de carga/descarga Para configurar las funciones del IC Paquete de envío WCSP de 48 bolas2.5 × 3.4 × 0.5 mm WCSP de 42 bolas2.6 × 3.4 × 0.7 mm Epson News. Traducido al español

Leer más »

Foundever® Refuerza el Liderazgo en IA con AI Lab en Barcelona

El nuevo centro global de innovación de IA impulsará soluciones tecnológicas avanzadas para transformar la experiencia del cliente. El AI Lab de Foundever ha sido reconocido con el premio CRECE AEERC 2025 en la categoría de plataformas y centros de nuevas tecnologías en España. MADRID – 4 de marzo de 2025 – Foundever®, líder mundial en la industria de la experiencia del cliente (CX), presentó su laboratorio de IA en Barcelona, un centro de innovación tecnológica diseñado para el desarrollo y la aplicación de soluciones avanzadas de inteligencia artificial (IA). Este laboratorio refuerza el compromiso de los compañeros con la transformación digital del sector y se convierte en un punto de referencia global donde los expertos en IA de los +45 países en los que opera la compañía trabajarán juntos para crear experiencias de clientes más eficientes, personalizadas y sin interrupciones. Un centro de innovación global de Barcelona Con la apertura del AI Lab, Foundever consolida su presencia en España y elige Barcelona como sede por su dinamismo en la innovación, su ecosistema tecnológico y su conectividad global. “Barcelona se ha establecido como un centro clave para la innovación en Europa, y nuestro Laboratorio de IA refleja esta visión, dijo Rebecca Jonsson, VP de Producto de IA en Foundever. “Es un espacio diseñado para la colaboración entre expertos en IA de todo el mundo, donde impulsaremos el futuro de la experiencia del cliente con soluciones tecnológicas disruptivas. Además, su clima, playas, gastronomía y ambiente cosmopolita hacen una ciudad atractiva para vivir, lo que nos ayuda a atraer el talento tecnológico que buscamos. Ubicados en el distrito 22@, rodeados de empresas tecnológicas y startups, tenemos una gran oportunidad para fomentar colaboraciones estratégicas y seguir impulsando la innovación en el sector. La IA generativa abre oportunidades extraordinarias no solo para fortalecer la relación entre marcas y clientes, sino también para crear experiencias innovadoras.Nuestro objetivo es desarrollar soluciones que automaticen tareas, optimicen la eficiencia operativa y, al mismo tiempo, aporten valor agregado a las marcas que confían en nosotros Reconocimiento al liderazgo en IA aplicado a la experiencia del cliente Durante el evento de apertura, el Asociación Española de Expertos en Relación con el Cliente (AEERC) ha reconocido el Foundever AI Lab con el CRECE AEERC 2025 premio, en la categoría de nuevas plataformas y centros tecnológicos en España. “Este innovador laboratorio de IA es un ejemplo del compromiso de Foundeveral con la excelencia en el servicio al cliente, dijo” José Francisco Rodríguez, presidente de la AEERC. “Su capacidad para operar en más de 60 idiomas y desarrollar soluciones tecnológicas avanzadas posiciona a España a la vanguardia de la IA aplicada al sector.” “El AI Lab no es solo un espacio físico, sino un entorno colaborativo diseñado para acelerar la innovación en IA y su aplicación a la experiencia del cliente, agregó” Gema Marín, VP, Country Manager de Foundever en España. “Estamos orgullosos de que esta iniciativa reciba el apoyo de la AEERC, ya que refuerza nuestro compromiso con la mejora continua y la excelencia operativa Innovación, colaboración y futuro La iniciativa CRECE AEERC premia a las empresas que contribuyen al crecimiento del sector de atención al cliente a través de la innovación y la mejora continua. Con este nuevo AI Lab, Foundever refuerza su papel como referente en la aplicación de la IA en CX, impulsando el desarrollo de soluciones tecnológicas que redefinen la relación entre empresas y clientes. Obtenga más información sobre Foundever en foundever.com. Acerca de Foundever® Foundever® es un líder mundial en la industria de la experiencia del cliente (CX). Con 150,000 asociados en todo el mundo, estamos detrás del equipo detrás de las mejores experiencias para +800 de las marcas líderes y digitales más importantes del mundo. Nuestras innovadoras soluciones, tecnología y experiencia en CX están diseñadas para satisfacer las necesidades operativas de nuestros clientes y ofrecer una experiencia perfecta a los clientes en los momentos que importan. Apoyando +9 millones de conversaciones con clientes todos los días en +60 idiomas en 45 países, Foundever combina la fortaleza y la escala global con el enfoque ágil y emprendedor de nuestra cultura dirigida por nuestros fundadores, permitiendo a empresas de todos los tamaños e industrias transformar su CX. Sitel Group y SYKES ahora son Foundever. Foundever News. Traducido al español

Leer más »

Los expertos imperiales trabajan con Cubic para explorar el transporte público impulsado por IA

Los expertos imperiales están trabajando con Cubic Transportation Systems, un líder mundial en innovación de transporte público, para explorar nuevas aplicaciones de IA. Estos incluyen abordar la evasión de tarifas, que cuesta a las autoridades de transporte en ciudades como Nueva York y Londres cientos de millones de dólares cada año, y el mantenimiento predictivo, que permite a los proveedores anticipar problemas mecánicos y optimizar los horarios de mantenimiento. Profesor Danilo Mandic y miembros de su equipo en los imperiales Departamento de Ingeniería Eléctrica y Electrónica están trabajando independientemente con Cúbico a través Consultores Imperiales ayudar a la compañía a lanzar un centro de innovación en su sede de Surrey para avanzar en aplicaciones como estas. Dominios irregulares El laboratorio del profesor Mandicicss se especializa en el uso de técnicas de IA para analizar los llamados dominios irregulares, como la red subterránea de Londres. Los dominios irregulares son sistemas que consisten en múltiples entidades, llamadas nodos, que se encuentran en relaciones inconsistentes entre sí. En la red subterránea, por ejemplo, algunas estaciones están geográficamente más cerca de sus vecinos que otras, mientras que algunas están mejor conectadas – y durante la hora pico de la mañana, algunas estaciones son más populares como puntos de embarque y otras como destinos. Debido a que ninguna regla consistente puede describir la relación entre dos estaciones individuales, los modelos de equipo hacen un uso extensivo de la teoría de grafos, una técnica para representar relaciones individuales entre pares de nodos. Estos se pueden utilizar para descubrir anomalías, como la evasión de tarifas o fallas mecánicas en las puertas de las estaciones, que pueden no ser detectables solo a través de puntos de datos individuales o tendencias agregadas. Dada la naturaleza hambrienta de datos de los modelos de aprendizaje automático, los equipos que trabajan con Cubic también explorarán el uso de IA generativa para crear datos sintéticos para ayudar a entrenar los modelos. Estación de metro del futuro El nuevo centro, que se inaugurará en septiembre de 2025, tiene como objetivo apoyar el desarrollo de tecnologías de IA basadas en enfoques innovadores como estos convocando a expertos de los sectores público y privado, y contará con una estación de metro inmersiva ‘del future’ para demostrar tecnologías digitales. Sobre la base de la colaboración con el profesor Mandic y su laboratorio, Cubic también planea ofrecer oportunidades de pasantías a los estudiantes imperiales. “Esta colaboración es una oportunidad para que desarrollemos a los expertos en transporte del futuro,” dijo el profesor Mandic. “Nuestros estudiantes e investigadores trabajarán en estrecha colaboración con Cubic para aprovechar las últimas innovaciones en tecnología para resolver los desafíos más importantes del transporte. Esperamos trabajar juntos para desarrollar nuevas ideas, tecnologías y líderes de la industria “Al desarrollar un centro que une industrias, socios académicos y agencias gubernamentales, nuestro objetivo es descubrir mejores soluciones para nuestros clientes y el ecosistema de transporte público más amplio, lo que contribuirá a aumentar el número de pasajeros y las oportunidades de trabajo,” dijo Peter Montgomery-Torrellas, presidente de Cubic Transportation Systems. “Nuestra visión a largo plazo es replicar este modelo en mercados clave de todo el mundo, expandiendo nuestras asociaciones líderes en la industria y asegurando que la innovación sea el núcleo de todo lo que hacemos, Imperial College Londres News. D. S. Traducido al español

Leer más »

Superar la fragmentación: el desafío clave para optimizar la inteligencia artificial a nivel global según SAP

Migración a la nube, colaboración empresarial y lineamientos internacionales, los pasos claves para maximizar el impacto de la IA.  El mundo está atravesando épocas de cambio, con una fragmentación que cada día se hace más evidente entre naciones, bloques económicos y al interior de las mismas sociedades. En este entorno, la inteligencia artificial (IA) representa una esperanza compartida para impulsar el progreso global. Sin embargo, el impacto positivo de la IA está siendo limitado por las barreras creadas por divisiones internas en las sociedades y entre naciones. Esta es una de las conclusiones de Christian Klein, CEO y miembro del Consejo Ejecutivo de SAP SE, tras su participación en la última edición del Foro Económico Mundial de Davos (Suiza), en la que el ejecutivo destacó además que superar esta fragmentación es esencial para liberar el verdadero potencial de la IA. “La IA puede ser un catalizador para la productividad, la resiliencia económica y la sostenibilidad, pero su éxito depende de nuestra capacidad para trabajar juntos más allá de fronteras y limitaciones”, afirma Klein, quien explica que en un mundo fragmentado, la IA no puede prosperar como debería. Tres pasos clave para maximizar el impacto de la IA El desafío de maximizar el impacto de la IA requiere de un enfoque progresivo. El primer paso comienza a nivel empresarial con la adopción de la nube. Como destaca, la nube permite que los datos sean accesibles de manera más eficiente y que las innovaciones en IA se integren rápidamente en los procesos de negocio. “La migración a la nube crea un entorno estandarizado, donde los datos son coherentes y estructurados para aplicaciones de IA. Esto es esencial para maximizar el impacto de estas tecnologías en las empresas”, asegura. Además, subrayó que la nube facilita la actualización automática con las últimas innovaciones, manteniendo a las empresas en la vanguardia tecnológica. Las inversiones en tecnologías como la nube están marcando el camino para optimizar la IA. De acuerdo con la encuesta Cloud and AI Business Survey 2024 de PwC, el 63% de las empresas de alto rendimiento están aumentando sus presupuestos en la nube para aprovechar la inteligencia artificial generativa (GenAI). El segundo paso es fomentar ecosistemas industriales robustos que promuevan la colaboración entre empresas. En la era de la IA empresarial, es fundamental que las organizaciones puedan compartir información de manera segura con proveedores, clientes y socios de innovación. “Los ecosistemas industriales bien conectados generan un impacto exponencial. Cuanta más información se comparta entre las empresas, mayores serán los beneficios en términos de competitividad e innovación,” agrega Klein. Estos ecosistemas también mejoran la capacidad de las organizaciones para responder a crisis globales, como interrupciones en el comercio o desastres naturales. Finalmente, el tercer paso es construir marcos internacionales que permitan a la IA prosperar de manera responsable. En este punto se destaca la importancia de que los gobiernos y reguladores reduzcan las barreras innecesarias al intercambio de datos, tanto a nivel nacional como internacional. “La alineación de regulaciones tecnológicas entre potencias económicas como América del Norte, Europa y China puede acelerar significativamente la innovación en IA”, explica. Asimismo, los acuerdos globales deben centrarse en el uso ético y seguro de los datos, construyendo un marco de confianza entre los actores involucrados. El papel de la confianza y la inversión en la nube Uno de los mayores obstáculos para el avance de la IA es la falta de confianza, tanto entre países como entre las propias empresas. Ante esta falta de confianza Klein propone los “las confederaciones de confianza” (confederations of trust), en las que las organizaciones acuerden reglas comunes sobre privacidad y uso de datos, las cuales son esenciales para fomentar la colaboración. “La confianza es la base para superar la fragmentación global. Sin ella, los esfuerzos para maximizar el impacto de la IA están condenados a quedarse cortos”, afirma. Para lograr armar lo que Klein define como el rompecabezas de la IA, es necesario tener ecosistemas globales basados en la confianza que reduzcan la fragmentación y permita que las organizaciones puedan aprovechar al máximo los beneficios de esta tecnología.  “Nos corresponde a nosotros armar el rompecabezas de la IA y reducir la fragmentación, paso a paso. Así es como maximizamos el potencial de la IA, no solo para algunos, sino para muchos”, finaliza el CEO de SAP. SAP News. Traducido al español

Leer más »
Scroll al inicio