El Portal de las Tecnologías para la Innovación

Categoría: Inteligencia Artificial News

Por qué necesita una estrategia híbrida

El cambio es constante en el mundo de TI, y solo una arquitectura multicloud híbrida prepara a las empresas para la máxima agilidad en el futuro. Desde que las ofertas de nube comercial se popularizaron hace aproximadamente 20 años, las empresas han explorado diversas estrategias arquitectónicas para optimizar su uso. Desde sus inicios, la computación en la nube prometió reducir costos y aumentar la flexibilidad y escalabilidad de la infraestructura. Liberaría a las empresas de tener que gestionar sus propios centros de datos y les permitiría centrarse en su negocio principal y la innovación. Debido a estos beneficios esperados, muchas empresas comenzaron a adoptar estrategias centradas en la nube en la década de 2010, con la esperanza de acelerar su adopción. Se crearon cada vez más empresas nativas de la nube, proliferaron las aplicaciones SaaS y la migración a la nube se convirtió prácticamente en sinónimo de modernización de TI. La adopción de la nube se disparó aún más a principios de la década de 2020, cuando la pandemia obligó a la mayoría de la población a conectarse a internet, y las nubes han estado incorporando nuevos servicios de forma agresiva en los últimos años para mantenerse competitivas en un mundo cada vez más impulsado por la IA. La computación en la nube ha sido sin duda una tecnología transformadora a lo largo del siglo XXI , pero a medida que madura, las empresas han comenzado a desarrollar perspectivas más matizadas sobre cómo optimizar su uso. Si bien el control de costos motivó las estrategias orientadas a la nube, muchas empresas aprendieron a las malas que la computación en la nube no necesariamente les ahorra dinero. De hecho, los costos ocultos de la nube han provocado la repatriación de muchas cargas de trabajo en la nube: aproximadamente una quinta parte de los datos y cargas de trabajo en la nube se han trasladado de vuelta a las instalaciones locales, según una encuesta reciente. [1] La mayoría de las organizaciones reconocen ahora que encontrar el equilibrio adecuado entre costos, rendimiento, flexibilidad, privacidad y soberanía de datos, y cumplimiento normativo, requiere en última instancia el uso de múltiples nubes públicas, además de infraestructura privada. La multinube ya es una norma, y ​​del 86 % de las empresas que utilizan múltiples nubes, un 70 % adopta estrategias de nube híbrida [2] , una cifra que se espera que aumente. Gartner® predice que el 90 % de las organizaciones adoptarán un enfoque de nube híbrida hasta 2027 [3]. Dada la creciente importancia de la seguridad y la privacidad de los datos, el cumplimiento normativo y el equilibrio de costos de infraestructura, es hora de que las empresas abandonen las estrategias prioritarias de la nube y adopten estrategias prioritarias de nube híbrida. El cambio es la única constante en TI Considere la trayectoria de muchos planes prioritarios para la nube iniciados hace apenas unos años: los CIO que crearon un plan quinquenal en 2019 probablemente se centrarían en una estrategia de infraestructura prioritaria para la nube. Sin embargo, tres años después de la implementación de ese plan, el sector de TI ya había experimentado una disrupción masiva debido a los cierres globales por la pandemia y las interrupciones en la cadena de suministro, el lanzamiento de las primeras herramientas de IA generativa y las importantes fusiones y adquisiciones de empresas clave en infraestructura. Estos tres puntos de inflexión por sí solos harían que cualquier plan iniciado en 2019 fuera lamentablemente inadecuado para las necesidades actuales. Si bien el pasado reciente puede parecer extraordinario, en los últimos 20 años, cualquier período de cinco años ha tenido puntos de inflexión similares. Mientras tanto, junto con un panorama tecnológico en constante evolución, el entorno regulatorio también está experimentando cambios masivos, con nuevas regulaciones de datos que aumentan cada año. Las empresas globales deben cumplir con todas estas regulaciones, a la vez que protegen sus datos y se preparan para un futuro incierto. Decir que la flexibilidad es una necesidad en la TI empresarial es quedarse corto. Si el cambio no hace más que acelerarse, es imperativo que las empresas estén preparadas para futuros inesperados, y la infraestructura híbrida es la mejor manera de hacerlo. Con un enfoque híbrido, puede aprovechar las ventajas de ambos mundos, adaptando las opciones de infraestructura a los requisitos cambiantes de cada carga de trabajo. Utilice nubes públicas y proveedores de servicios especializados, como empresas de GPU como servicio (GPUaaS), para cargas de trabajo que requieren mayor elasticidad, para el desarrollo y la innovación, y para utilizar herramientas especializadas basadas en la nube. Utilice infraestructura privada para datos confidenciales, cargas de trabajo reguladas, como las sujetas a leyes de soberanía de datos, y copias autorizadas de datos sobre los que desee mantener un control total. Híbrido por diseño Aunque hablamos mucho de la necesidad de agilidad en TI, a menudo las decisiones tomadas para abordar el desafío del momento limitan nuestra capacidad de respuesta a cambios posteriores. Este puede haber sido el caso de muchos planes prioritarios para la nube de la última década. Con un enfoque híbrido, las empresas están mejor posicionadas para equilibrar los costos operativos y el rendimiento, operar de forma segura y fiable, e innovar para el futuro, lo que les proporciona una clara ventaja competitiva. Cuando su arquitectura es híbrida por diseño, puede maximizar la flexibilidad y optimizar el uso de sus datos, su recurso más valioso. Nuestro enfoque recomendado para una arquitectura híbrida es mantener una copia autorizada de sus datos en su infraestructura privada principal, donde se pueda acceder fácilmente a ellos o replicarlos en todos los lugares que necesite, incluyendo nubes públicas y proveedores de servicios especializados, tanto ahora como en el futuro. Con este enfoque de multinube híbrida, siempre tendrá un pie dentro y un pie fuera de la nube, lo que le permite usar las nubes estratégicamente, sin el riesgo de depender de un proveedor. Los patrones de movimiento de datos, conocidos y probados , le permiten mover los datos donde se necesiten para aprovechar la nube y otros servicios bajo demanda, a la vez que mitiga los

Leer más »

Biometría en IoT: CyberLink integra FaceMe con Qualcomm Hexagon NPU para reconocimiento facial en dispositivos periféricos

El hardware y el software para la aceleración de la IA Si desarrolla software de reconocimiento facial, dedica la mayor parte de su tiempo y esfuerzo a maximizar el rendimiento, la exactitud y la precisión. Sus clientes esperan un alto rendimiento, incluso al ejecutarse en dispositivos periféricos de bajo consumo, como terminales de punto de venta (TPV), quioscos y señalización digital. Pero también esperan alta precisión y exactitud, con tasas de coincidencias falsas inferiores a 1 en 10 000 o superiores, y funciones antisuplantación de identidad contra ataques de presentación mediante fotos impresas, vídeos y máscaras de silicona. Dados estos estrictos requisitos, los modelos de IA que CyberLink ha integrado en su producto FaceMe requieren un mayor consumo de recursos computacionales que muchos otros algoritmos de IA de vanguardia. Para ejecutar sus modelos en dispositivos de vanguardia con el alto rendimiento, precisión y exactitud que exigen sus clientes, CyberLink ha adaptado FaceMe para que funcione en procesadores de Qualcomm Technologies, Inc.  Estos procesadores ofrecen la potencia de procesamiento necesaria para ejecutar aplicaciones de reconocimiento facial con bajo consumo de energía, lo que permite una amplia gama de formatos de dispositivos. Mediante el SDK de Procesamiento Neural de Qualcomm para IA , CyberLink optimizó el rendimiento de FaceMe en la unidad de procesamiento neuronal (NPU) Qualcomm Hexagon. El hardware y el software para la aceleración de la IA CyberLink FaceMe está clasificado entre los principales proveedores a nivel mundial en la Evaluación de tecnología de reconocimiento facial (FRTE) del Instituto Nacional de Estándares y Tecnología (NIST). Esto incluye el primer puesto (excluyendo proveedores de China y Rusia) en la categoría NIST FRTE 1:N VISA-Border, con una precisión del 99,73 %. En la categoría NIST FRTE 1:1 VISA, FaceMe ocupa el cuarto puesto, con una tasa de aceptación real del 99,83 % y una tasa de coincidencias falsas de 1 entre un millón (1 -6 ). El software es compatible con los principales sistemas operativos, motores de inferencia de IA y plataformas de computación de borde, y está optimizado para aprovechar la aceleración de hardware disponible en los procesadores. Cuando CyberLink buscó maneras de maximizar el rendimiento, la precisión y la exactitud, optó por la aceleración de hardware en la NPU Hexagon y la GPU Qualcomm Adreno, disponibles en los sistemas en chip (SoC) de Qualcomm Technologies. Esto los llevó a utilizar el SDK de Procesamiento Neural de Qualcomm para IA , compatible con la mayoría de los SoC de Qualcomm Technologies, como herramienta de software principal para la adaptación de los modelos de IA de reconocimiento facial FaceMe. El SDK permite a los desarrolladores optimizar e implementar sus modelos de IA en los productos de IA de Qualcomm. Portación de CyberLink FaceMe a SoCs de Qualcomm Technologies Los ingenieros de CyberLink siguieron el flujo de trabajo modelo descrito en la documentación: Figura 1: Flujo de trabajo del SDK de procesamiento neuronal de Qualcomm CyberLink pasó por el proceso de conversión de modelos, cuantificación e integración del motor. La cuantificación resultó ser la tarea más compleja, requiriendo ajustes y validación para lograr la alta precisión requerida para su aplicación. CyberLink encontró el proceso de conversión de modelos fluido y sencillo. Poder probar los modelos convertidos en Ubuntu hizo que la validación inicial fuera eficiente y práctica. Recuperar la precisión mediante la cuantificación y el ajuste del modelo requirió más trabajo. El SDK ofrece múltiples métodos de cuantificación, cada uno con diferentes ventajas y desventajas en cuanto a precisión. Con un alto nivel de precisión, encontrar el método óptimo requirió pruebas exhaustivas para identificar el proceso que producía la menor pérdida de precisión. El SDK y las herramientas permitieron a los ingenieros lograr la optimización deseada por sí solos, con la orientación de los expertos de Qualcomm Technologies. Pruebas y control de calidad CyberLink ha probado su aplicación FaceMe adaptada en varios SoC de Qualcomm Technologies, incluyendo Qualcomm Dragonwing QCS6490|QCS5430 y Qualcomm SM6225|QCS6125|QCS610, además de otras plataformas de Qualcomm Technologies. Las pruebas han demostrado el éxito del proyecto, alcanzando la precisión y el rendimiento deseados. CyberLink ofrece un SDK para que los clientes puedan integrar el reconocimiento facial en sus productos de software y hardware. Este SDK incluye código de muestra y sistemas de demostración. El equipo de control de calidad de la empresa ha probado con éxito el código de muestra y las demostraciones con la aplicación adaptada en algunos dispositivos de clientes de CyberLink y en kits de desarrollo con procesadores de Qualcomm Technologies. Las pruebas se han desarrollado sin problemas, y el equipo de control de calidad ha encontrado fácil aprender, usar y validar la aplicación adaptada. Resultados Según las mediciones de CyberLink, la precisión de la aplicación FaceMe se mantiene constante en diferentes procesadores. La diferencia radica en el rendimiento. La siguiente tabla resume los resultados de rendimiento del reconocimiento facial puro: Plataforma Rendimiento (fotogramas por segundo) Proveedor A en CPU (4x Cortex-A53, 1,8 GHz) 4.2 Proveedor A en NPU 13.0 Proveedor B en APU 16.0 Qualcomm QCS6125 en la GPU Adreno 12.2 Qualcomm QCS6125 en NPU Hexagon 33.8 Snapdragon 870 en GPU Adreno 62.0 Snapdragon 870 en NPU Hexagon 87.0 Biometría en el IoT Para garantizar la privacidad y seguridad del usuario, CyberLink cumple con diversas leyes de privacidad y normativas biométricas específicas de cada región, como el RGPD (Europa) y la CCPA (California). También cumple con otras leyes nacionales para la protección de datos biométricos. La empresa cumple con los estándares establecidos por ISO, incluidos los siguientes: CyberLink informa a los clientes potenciales sobre los beneficios de FaceMe, a la vez que aborda las preocupaciones sobre privacidad y seguridad de tres maneras. En primer lugar, sus modelos de IA y software son propietarios, desarrollados íntegramente por su equipo de I+D en Taiwán. A diferencia de las soluciones que dependen de conjuntos de datos de terceros o modelos de IA externalizados (lo que podría generar problemas de privacidad), la empresa garantiza un control total sobre el manejo de datos y el cumplimiento normativo. A continuación, los principales casos de uso de FaceMe, como la autenticación (servicios y aplicaciones), el conocimiento electrónico del

Leer más »

Nuevas herramientas y funciones en la API de respuestas

Presentamos soporte para servidor MCP remoto, generación de imágenes, intérprete de código y más en la API de respuestas para desarrolladores y empresas. Hoy añadimos nuevas herramientas integradas a la API de Respuestas, nuestra API principal para crear aplicaciones con agentes. Esto incluye compatibilidad con todos los servidores remotos del Protocolo de Contexto de Modelo (MCP) .(se abre en una nueva ventana), así como herramientas como la generación de imágenes .(se abre en una nueva ventana)Intérprete de código(se abre en una nueva ventana), y mejoras en la búsqueda de archivos(se abre en una nueva ventana)Estas herramientas están disponibles en nuestros modelos de razonamiento de las series GPT‑4o y GPT‑4.1, así como en la serie o de OpenAI. o3 y o4-mini ahora pueden invocar herramientas y funciones directamente dentro de su cadena de pensamiento en la API de Respuestas, lo que genera respuestas más contextualmente ricas y relevantes. El uso de o3 y o4-mini con la API de Respuestas preserva los tokens de razonamiento en las solicitudes y llamadas a herramientas, lo que mejora la inteligencia del modelo y reduce el coste y la latencia para los desarrolladores. También incorporamos nuevas funciones en la API de Respuestas que mejoran la fiabilidad, la visibilidad y la privacidad para empresas y desarrolladores. Estas incluyen el modo en segundo plano .(se abre en una nueva ventana)Para gestionar tareas de larga duración de forma asincrónica y más confiable, se admite el uso de resúmenes de razonamiento .(se abre en una nueva ventana), y soporte para elementos de razonamiento encriptados(se abre en una nueva ventana).  Desde el lanzamiento de la API de Respuestas en marzo de 2025, con herramientas como la búsqueda web, la búsqueda de archivos y el uso de computadoras, cientos de miles de desarrolladores la han utilizado para procesar billones de tokens en nuestros modelos. Nuestros clientes la han utilizado para crear diversas aplicaciones de agentes, incluyendo Zencoder .(se abre en una nueva ventana)El agente de codificación de , Revi(se abre en una nueva ventana)Agente de inteligencia de mercado para capital privado y banca de inversión, y MagicSchool AI(se abre en una nueva ventana)El asistente educativo de [nombre del usuario], que utiliza la búsqueda web para extraer información relevante y actualizada a su aplicación. Ahora, los desarrolladores pueden crear agentes aún más útiles y fiables con acceso a las nuevas herramientas y funciones lanzadas hoy. Nuevo soporte para servidor MCP remoto Estamos agregando soporte para servidores MCP remotos(se abre en una nueva ventana)en la API de respuestas, basándose en el lanzamiento de la compatibilidad con MCP en el SDK de agentes .(se abre en una nueva ventana)MCP es un protocolo abierto que estandariza cómo las aplicaciones proporcionan contexto a los LLM. Al ser compatibles con servidores MCP en la API de Responses, los desarrolladores podrán conectar nuestros modelos a herramientas alojadas en cualquier servidor MCP con solo unas pocas líneas de código. A continuación, se muestran algunos ejemplos que muestran cómo los desarrolladores pueden usar servidores MCP remotos con la API de Responses hoy mismo:ShopifyTwilioRayaDeepWiki (Devin) Pitón 1response = client.responses.create(2 model=»gpt-4.1″,3 tools=[{4″type»: «mcp»,5″server_label»: «shopify»,6″server_url»: «https://pitchskin.com/api/mcp»,7 }],8input=»Add the Blemish Toner Pads to my cart»9) ¡Las almohadillas tónicas para imperfecciones se han añadido a tu carrito! Puedes proceder al pago aquí: Pitón 1response = client.responses.create(2 model=»gpt-4o»,3 tools=[4 { «type»: «web_search_preview» },5 {6″type»: «mcp»,7″server_label»: «twilio»,8″server_url»: «https://<function-domain>.twil.io/mcp»,9″headers»: { «x-twilio-signature»: «…» }10 }11 ],12input=»Get the latest soccer news and text a short summary to +1 555 555 5555″13) Encontré las últimas noticias de fútbol, ​​las resumí y envié un mensaje de texto con la actualización al +1 555 555 5555. Pitón 1response = client.responses.create(2 model=»o3″,3 tools=[4 {5″type»: «mcp»,6″server_label»: «stripe»,7″server_url»: «https://mcp.stripe.com»,8″headers»: { «Authorization»: «Bearer <api-key>» }9 }10 ],11input=»user_291471 used 700 minutes of storage at $0.30/minute. Generate a payment link for this.»12) Aquí está el enlace de pago para el uso de almacenamiento del usuario_29471 (700 minutos a $0.30/min, total $210). Puedes compartir este enlace con el usuario para el pago. Pitón 1response = client.responses.create(2 model=»gpt-4.1-mini»,3 tools=[{4″type»: «mcp»,5″server_label»: «deepwiki»,6″server_url»: «https://mcp.deepwiki.com/mcp»7 }],8input=»give me 5 interesting facts on modelcontextprotocol/python-sdk — keep it short!»9) Aquí hay 5 datos interesantes sobre modelcontextprotocol/python-sdk: 1. El SDK de MCP implementa una arquitectura cliente-servidor estandarizada para exponer el contexto a modelos de lenguaje grandes (LLM) utilizando protocolos y transportes bien definidos como SSE, WebSocket y STDIO. 2. Proporciona dos implementaciones de servidor principales: FastMCP (de alto nivel con API basada en decorador) y un servidor de bajo nivel para un control de protocolo completo. 3. MCP define tres primitivos principales: Recursos (exposición de datos), Herramientas (funciones) y Avisos (plantillas interactivas). 4. El SDK incluye extracción y validación automática de metadatos de funciones mediante modelos de Pydantic, lo que garantiza llamadas de funciones robustas y fuertemente tipadas. 5. Durante la inicialización, los servidores MCP declaran capacidades como suscripción de recursos y gestión de indicaciones, lo que permite a los clientes adaptarse dinámicamente para la seguridad y la negociación de funciones. Los servidores MCP remotos populares incluyen Cloudflare(se abre en una nueva ventana), HubSpot​(se abre en una nueva ventana), Intercomunicador​(se abre en una nueva ventana), PayPal ⁠(se abre en una nueva ventana), Cuadros​(se abre en una nueva ventana), Shopify​(se abre en una nueva ventana)Raya​​(se abre en una nueva ventana), Cuadrado ⁠(se abre en una nueva ventana), Twilio ⁠(se abre en una nueva ventana), Zapier​(se abre en una nueva ventana)Y más. Prevemos que el ecosistema de servidores MCP remotos crecerá rápidamente en los próximos meses, lo que facilitará a los desarrolladores la creación de agentes potentes que se conecten a las herramientas y fuentes de datos que sus usuarios ya utilizan. Para brindar el mejor soporte al ecosistema y contribuir a este estándar en desarrollo, OpenAI también se ha unido al comité directivo de MCP. Para aprender a crear su propio servidor MCP remoto, consulte esta guía de Cloudflare .(se abre en una nueva ventana)Para aprender a usar la herramienta MCP en la API de Respuestas, consulta esta guía .(se abre en una nueva ventana)en nuestro libro de recetas de API. Actualizaciones en la generación de imágenes, el intérprete de código y la búsqueda de archivos Con las herramientas integradas en la API de Respuestas, los desarrolladores pueden crear fácilmente agentes más eficaces con una sola llamada a la API. Al llamar a múltiples herramientas durante el razonamiento, los modelos ahora alcanzan

Leer más »

La postura de resiliencia coloca a las empresas en el asiento del conductor antes del auge de las aplicaciones de IA

En los próximos tres años, podríamos presenciar la creación de mil millones —sí, mil millones— de nuevas aplicaciones… y eso es gracias a la IA generativa . Estén preparados o no, se avecina un nuevo auge de las aplicaciones. En los próximos tres años, podríamos presenciar la creación de mil millones —sí, mil millones— de nuevas aplicaciones… y eso es gracias a la IA generativa . La IA generativa acelera el desarrollo de aplicaciones a través de la generación de código de IA y la automatización de otros pasos, incluida, en particular, la generación de casos de prueba utilizados para verificar la funcionalidad, un proceso que tradicionalmente consume mucho tiempo. Las herramientas y los entornos de desarrollo impulsados ​​por IA están ayudando a los desarrolladores de aplicaciones a trabajar mejor, quitándoles tareas rutinarias de encima y liberando ancho de banda para una mayor innovación. Pero en medio de la anticipación, una palabra de precaución para las empresas: a medida que incorporan más aplicaciones nuevas a los flujos de trabajo cotidianos, enfrentan un mayor riesgo si algo sale mal. Las últimas noticias e información sobre IA 
 Descubra información y noticias cuidadosamente seleccionadas sobre IA, la nube y más en el boletín semanal Think.  Suscríbete hoy Los seis pilares de la resiliencia de las aplicaciones En el desarrollo de software, una aplicación resiliente se recupera rápidamente de interrupciones o fallas inesperadas, con poco o ningún impacto en la productividad. Pero ¿cómo pueden las empresas evaluar si las aplicaciones son resilientes? La respuesta está en los requisitos no funcionales (NFR). A diferencia de los requisitos funcionales, que se refieren a lo que un sistema debe hacer, los requisitos no funcionales son criterios para el rendimiento y las capacidades de un sistema.  Al evaluar la resiliencia de una aplicación, hay seis tipos de NFR que son los más importantes: Mezcla de Expertos | 23 de mayo, episodio 56 Descifrando la IA: Resumen semanal de noticias Únase a nuestro panel de clase mundial de ingenieros, investigadores, líderes de productos y más mientras eliminan el ruido de la IA para brindarle lo último en noticias y conocimientos sobre IA. Mira los últimos episodios del podcast  Soluciones para la resiliencia de las aplicaciones Comprender los requisitos no funcionales clave es solo la mitad de la batalla; implementar medidas para rastrear los NFR es la otra. Hoy en día, muchas empresas operan a ciegas; no hay visibilidad, o solo una visibilidad parcial, de su postura de resiliencia. Por ejemplo, en un caso reciente, un usuario final intentaba acceder a una aplicación en la nube que mostraba una disponibilidad de «cinco nueves», lo que significaba que tenía una disponibilidad del 99,999 % durante un período determinado. Sin embargo, la aplicación no funcionaba como se esperaba. Resultó que el culpable fue una falla de red que interrumpió la usabilidad de la aplicación. Contar con información sobre la usabilidad, además de la disponibilidad, podría haber ayudado a la empresa a identificar y solucionar la falla rápidamente, salvando así la experiencia del usuario final. La IA podría haber evitado esto. Por ejemplo, la solución de resiliencia de IBM, IBM Concert® , utiliza análisis en tiempo real basados ​​en IA para evaluar aplicaciones y proporcionar puntuaciones de resiliencia basadas en criterios relacionados con los seis NFR. También ofrece recomendaciones para abordar problemas y puede automatizar la remediación de vulnerabilidades y exposiciones comunes ( CVE ) para una resolución más rápida y un menor tiempo de inactividad. Con la llegada del auge de las aplicaciones de IA generativa, las empresas están deseando asumir el riesgo de adoptar nuevas aplicaciones. Una estrategia de resiliencia eficaz permite olvidarse del tiempo de inactividad. IBM Blog. D. N. Traducido al español

Leer más »

Huawei ICT Competition 2024–2025: AI Empowers Education and Talent Growth

On May 24, the Closing & Awards Ceremony of the Huawei ICT Competition 2024–2025 Global Final took place in Shenzhen. In its 9th edition, the event has reached a record-breaking scale, attracting over 210,000 students and instructors from more than 2,000 colleges and universities in over 100 countries and regions. Following national and regional competitions, 179 teams from 48 countries and regions made it to the Global Final. Through intense competition across three major tracks (Practice, Innovation, and Programming), top honors were awarded to 18 outstanding teams from 9 countries: Algeria, Brazil, China, Morocco, Nigeria, Philippines, Serbia, Singapore, and Tanzania. To recognize outstanding contributions beyond technical excellence, the competition also presented special honors. The Women in Tech Award was granted to four all-female teams from Brazil, Saudi Arabia, Germany, and Kenya. The Green Development Award went to a team from Ghana. The Most Valuable Instructor Award recognized 18 distinguished instructors from 10 countries – Algeria, Bangladesh, Brazil, China, Egypt, Hungary, Indonesia, Iraq, Nigeria, and Türkiye – for their contributions to ICT education. Huawei ICT Competition 2024–2025 Global Final Closing & Awards Ceremony In his opening speech, Ritchie Peng, Director of the ICT Strategy & Business Development Dept at Huawei, said: «To achieve the goal of learning through competition and inspiring innovation through competition, we have continuously evolved the design of competition topics. The Practice Competition aligns with our vision for an Intelligent World 2030 and encourages students to master cloud computing, big data, and AI to drive social progress. The Innovation Competition focuses on green development and digital inclusion, motivating participants to solve real-world challenges in sectors like agriculture, healthcare, and education through ICT.» Ritchie Peng Delivering the Opening Speech at the Closing & Awards Ceremony As digital transformation accelerates globally, demand for skilled professionals in fields such as AI, big data, and cybersecurity continues to grow. However, the shortage of talent in these critical areas is becoming increasingly evident. To help tackle this challenge, the Huawei ICT Competition features multiple tracks — notably Practice, Innovation, and Programming — alongside initiatives such as industry-academia collaboration and tailored curriculum development. These efforts aim to equip students with in-demand skills and foster the next-generation tech talent who will stand out in an increasingly intelligent and digital world. During this year’s competition, Huawei also hosted the AI Accelerating Education Transformation Summit, where experts explored the pivotal role of AI in smart education. In addition, Huawei officially announced the AI Capability of the Huawei ICT Academy Intelligent Platform, making it easier and more efficient for educators and students to use. This marks another step forward in advancing educational digitalization. For more details about the Huawei ICT Competition, visit us at https://www.huawei.com/minisite/ict-competition-2024-2025-global/en/index.html. Huawei News

Leer más »

Concurso de TIC de Huawei 2024-2025: La IA impulsa la educación y el crecimiento del talento

El 24 de mayo se celebró en Shenzhen la Ceremonia de Clausura y Entrega de Premios de la Final Global de la Competencia de TIC de Huawei 2024-2025.  En su novena edición, el evento ha alcanzado una escala récord, atrayendo a más de 210.000 estudiantes e instructores de más de 2.000 universidades de más de 100 países y regiones. Tras las competiciones nacionales y regionales, 179 equipos de 48 países y regiones llegaron a la Final Global. A través de una intensa competencia en tres áreas principales (Práctica, Innovación y Programación), se otorgaron los máximos honores a 18 equipos destacados de 9 países: Argelia, Brasil, China, Marruecos, Nigeria, Filipinas, Serbia, Singapur y Tanzania. Para reconocer las contribuciones destacadas más allá de la excelencia técnica, la competencia también otorgó honores especiales. El Premio Mujeres en Tecnología se otorgó a cuatro equipos íntegramente femeninos de Brasil, Arabia Saudita, Alemania y Kenia. El Premio al Desarrollo Verde se otorgó a un equipo de Ghana. El Premio al Instructor Más Valioso reconoció a 18 instructores distinguidos de 10 países (Argelia, Bangladés, Brasil, China, Egipto, Hungría, Indonesia, Irak, Nigeria y Turquía) por sus contribuciones a la educación en TIC. Ceremonia de clausura y entrega de premios de la final mundial del Concurso de TIC de Huawei 2024-2025 En su discurso inaugural, Ritchie Peng, director del Departamento de Estrategia de TIC y Desarrollo de Negocio de Huawei, afirmó: «Para lograr el objetivo de aprender a través de la competencia e inspirar la innovación mediante la competencia, hemos evolucionado continuamente el diseño de los temas de la competencia. La Competencia Práctica se alinea con nuestra visión de un Mundo Inteligente 2030 y anima a los estudiantes a dominar la computación en la nube, el big data y la IA para impulsar el progreso social. La Competencia de Innovación se centra en el desarrollo verde y la inclusión digital, motivando a los participantes a resolver desafíos reales en sectores como la agricultura, la salud y la educación a través de las TIC». Ritchie Peng pronunciando el discurso inaugural en la ceremonia de clausura y entrega de premios. A medida que la transformación digital se acelera globalmente, la demanda de profesionales cualificados en campos como la IA, el big data y la ciberseguridad sigue creciendo. Sin embargo, la escasez de talento en estas áreas cruciales es cada vez más evidente. Para ayudar a afrontar este desafío, la Competencia de TIC de Huawei ofrece múltiples áreas, en particular Práctica, Innovación y Programación, junto con iniciativas como la colaboración entre la industria y el mundo académico y el desarrollo curricular a medida. Estas iniciativas buscan dotar a los estudiantes de las habilidades más demandadas y fomentar el talento tecnológico de la próxima generación que destacará en un mundo cada vez más inteligente y digital. Durante la competencia de este año, Huawei también organizó la Cumbre de Transformación Educativa Acelerada por la IA, donde expertos exploraron el papel fundamental de la IA en la educación inteligente. Además, Huawei anunció oficialmente la capacidad de IA de la Plataforma Inteligente de la Academia de TIC de Huawei, lo que facilita y hace más eficiente su uso para educadores y estudiantes. Esto marca un nuevo paso adelante en el avance de la digitalización educativa. Para obtener más detalles sobre la Competencia de TIC de Huawei, visítenos en https://www.huawei.com/minisite/ict-competition-2024-2025-global/en/index.html . Huawei News. Traducido al español

Leer más »

Multi-agent orchestration, maker controls, and more: Microsoft Copilot Studio announcements at Microsoft Build 2025

Microsoft Build 2025 is here—our annual showcase of the most exciting innovations shaping the future of development and AI. For engineers, makers, and subject matter experts, it’s the moment to see what’s next across the Microsoft ecosystem.  This year, Microsoft Copilot Studio has a number of powerful new agent-related features to show you. From multi-agent orchestration to more maker controls, computer use in agents to code interpreter, read on for a first look at Copilot Studio’s exciting announcements. Recap of major Microsoft Build 2025 announcements Jared Spataro, Corporate Vice President, Microsoft, announced some of the biggest news from the Copilot Studio and Microsoft 365 Copilot agents teams. In case you missed it, here’s an overview of a few features we’re particularly excited about. Multi-agent orchestration Rather than relying on a single agent to do everything—or managing disconnected agents in silos—organizations can now build multi-agent systems in Copilot Studio (preview), where agents delegate tasks to one another. This includes those built with the Microsoft 365 agent builder, Microsoft Azure AI Agents Service, and Microsoft Fabric. These agents can now all work together to achieve a shared goal: completing complex, business-critical tasks that span systems, teams, and workflows. This evolution reflects a broader shift in how organizations are scaling their use of agents across Microsoft. Imagine a Copilot Studio agent pulling sales data from a customer relationship management (CRM) system, handing it off to a Microsoft 365 agent to draft a proposal in Word, and then triggering another to schedule follow-ups in Outlook. Or, envision agents coordinating across IT, communications, and vendor systems to manage an incident from detection to resolution. Whether it’s executive briefings, customer onboarding, or product launches, agents can now operate in sync—bringing greater connectedness, intelligence, and scale to every step. This feature is currently in private preview with a public preview coming soon. Try Copilot Studio for free See how different organizations are employing their agent ecosystems and get inspired for how you could connect yours in Microsoft Corporate Vice President Srini Raghavan’s blog post. Computer use in Copilot Studio agents Computer use moves us closer to a more connected, intelligent world where agents collaborate seamlessly with people and systems. Agents can now interact with desktop apps and websites like a person would—clicking buttons, navigating menus, typing in fields, and adapting automatically as the interface changes. This opens the door to automating complex, user interface (UI)-based tasks like data entry, invoice processing, and market research, with built-in reasoning and full visibility into every step. Computer use is currently available through the Microsoft 365 Copilot Frontier program for eligible customers with at least 500,000 Copilot Studio messages and an environment in the United States. Bring your own model and model fine-tuning Copilot Studio continues to integrate deeply with Azure AI Foundry, and now you can bring your own model for prompts and generative answers. Makers can access more than 11,000 models in Azure AI Foundry, including the latest models available in OpenAI GPT-4.1, Llama, DeepSeek, and custom models, and fine-tune them using enterprise data. This fine-tuning helps agents generate even more domain-specific, high-value responses. Model Context Protocol Now generally available, Model Context Protocol (MCP) makes it easier to connect Copilot Studio to your enterprise knowledge systems. With growing connector support, better tool rendering, evolving scalability, and faster troubleshooting, it’s never been simpler to bring external knowledge into agent conversations. Developer tools to build agents your way Microsoft empowers developers to build agents with the tools they prefer—Copilot Studio, GitHub, Visual Studio, and more. With Microsoft 365 Copilot APIs, developers can securely access Microsoft 365 data and capabilities to create custom agents or embed Microsoft 365 Copilot Chat into apps, all while respecting organization-wide permissions. The Microsoft 365 Agents Toolkit and Software Development Kit (SDK) make it easier to build, test, and evolve agents over time. Developers can swap models or orchestrators without starting from scratch, use SDK templates to jumpstart projects, and deploy to Azure with smart defaults—all now generally available. Copilot Studio enhancements New agent publishing channels: SharePoint and WhatsApp Copilot Studio has exciting updates to available channels, including that publishing agents to Copilot is now generally available. In addition to this highly anticipated update, we’re also adding two additional channels: SharePoint and WhatsApp. These key channels make it easier than ever to bring custom agents to the places where your users already work and communicate. This helps you extend the reach and value of your agents, from serving your teams inside Copilot and SharePoint to engaging customers around the world. The SharePoint channel, now generally available, lets makers deploy custom agents directly to a SharePoint site with a single click. With authentication and permissions handled automatically, anyone with access to the site can immediately start using the agent. This extends the full capabilities of custom agents into one of the most widely used collaboration hubs in the world. Starting in early July 2025, makers will also be able to publish Copilot Studio to WhatsApp. This will allow organizations to provide conversational support and engage global users directly within the familiar, mobile-first platform—no separate website or app required. Additional maker controls for knowledge Now in public preview, new controls in the Generative AI agent settings give makers more ways to shape how agents respond, reason, and interact with users. In addition to toggles for generative orchestration and deep reasoning, you’ll see multiple categories to further ground and tune your agents. First, in response to maker feedback, we’re pleased to announce that you can now upload multiple related files into a file collection and use the collection as a single knowledge source for an agent. You can also include natural language instructions to help your agent find the most relevant document in the collection to ground each response. In the Responses section of the Generative AI tab, you can now choose your agent’s primary response model, provide response instructions, adjust response length, and turn on advanced options like code interpreter (see below) and Tenant graph grounding with semantic search. Moderation settings control how flagged responses—that is, generated responses detected to possibly have harmful content—are handled. These controls allow you

Leer más »

Orquestación multiagente, controles de creación y más: anuncios de Microsoft Copilot Studio en Microsoft Build 2025

Microsoft Build 2025 ya está aquí: nuestra presentación anual de las innovaciones más emocionantes que definen el futuro del desarrollo y la IA. Para ingenieros, creadores y expertos en la materia, es el momento de descubrir las próximas novedades del ecosistema Microsoft. Este año, Microsoft Copilot Studio presenta una serie de nuevas y potentes funciones relacionadas con los agentes . Desde la orquestación multiagente hasta más controles para creadores, desde el uso de computadoras en agentes hasta el intérprete de código, siga leyendo para conocer los primeros anuncios de Copilot Studio. Resumen de los principales anuncios de Microsoft Build 2025 Jared Spataro, vicepresidente corporativo de Microsoft, anunció algunas de las novedades más importantes de los equipos de agentes de Copilot Studio y Microsoft 365 Copilot. Si te las perdiste, aquí tienes un resumen de algunas funciones que nos entusiasman especialmente. Orquestación multiagente En lugar de depender de un solo agente para todo, o de gestionar agentes desconectados de forma aislada, las organizaciones ahora pueden crear sistemas multiagente en Copilot Studio (versión preliminar), donde los agentes se delegan tareas entre sí. Esto incluye los creados con el generador de agentes de Microsoft 365, el Servicio de Agentes de IA de Microsoft Azure y Microsoft Fabric. Estos agentes ahora pueden colaborar para lograr un objetivo común: completar tareas complejas y cruciales para el negocio que abarcan sistemas, equipos y flujos de trabajo. Esta evolución refleja un cambio más amplio en la forma en que las organizaciones están escalando el uso de agentes en Microsoft. Imagine a un agente de Copilot Studio extrayendo datos de ventas de un sistema de gestión de relaciones con clientes (CRM), entregándoselos a un agente de Microsoft 365 para que redacte una propuesta en Word y luego solicitando a otro que programe seguimientos en Outlook. O bien, imagine a los agentes coordinándose con los sistemas de TI, comunicaciones y proveedores para gestionar un incidente desde su detección hasta su resolución. Ya sean reuniones informativas para ejecutivos, la incorporación de clientes o el lanzamiento de productos, los agentes ahora pueden trabajar sincronizados, lo que aporta mayor conectividad, inteligencia y escalabilidad a cada paso. Esta función se encuentra actualmente en versión preliminar privada y próximamente estará disponible en versión preliminar pública. Prueba Copilot Studio gratis Vea cómo diferentes organizaciones emplean sus ecosistemas de agentes e inspírese sobre cómo podría conectar el suyo en la publicación del blog de Srini Raghavan, vicepresidente corporativo de Microsoft . Uso de computadoras en los agentes de Copilot Studio El uso de computadoras nos acerca a un mundo más conectado e inteligente donde los agentes colaboran fluidamente con personas y sistemas. Los agentes ahora pueden interactuar con aplicaciones de escritorio y sitios web como lo haría una persona: haciendo clic en botones, navegando por menús, escribiendo en campos y adaptándose automáticamente a los cambios de la interfaz. Esto abre la puerta a la automatización de tareas complejas basadas en la interfaz de usuario (IU), como la entrada de datos, el procesamiento de facturas y la investigación de mercado, con razonamiento integrado y visibilidad completa de cada paso. El uso de computadoras está disponible actualmente a través del programa Microsoft 365 Copilot Frontier para clientes elegibles con al menos 500,000 mensajes de Copilot Studio y un entorno en Estados Unidos. Trae tu propio modelo y puesta a punto del modelo. Copilot Studio continúa integrándose a fondo con Azure AI Foundry , y ahora puedes usar tu propio modelo para indicaciones y respuestas generativas. Los creadores pueden acceder a más de 11 000 modelos en Azure AI Foundry, incluyendo los modelos más recientes disponibles en OpenAI GPT-4.1, Llama, DeepSeek y modelos personalizados, y optimizarlos con datos empresariales. Este ajuste ayuda a los agentes a generar respuestas aún más específicas para cada dominio y de alto valor. Protocolo de contexto modelo Ya disponible para el público general, el Protocolo de Contexto de Modelo (MCP) facilita la conexión de Copilot Studio con los sistemas de conocimiento de su empresa. Gracias a la creciente compatibilidad con conectores, una mejor representación de herramientas, una escalabilidad en constante evolución y una resolución de problemas más rápida, incorporar conocimiento externo a las conversaciones con los agentes nunca ha sido tan sencillo. Herramientas para desarrolladores para crear agentes a su manera Microsoft permite a los desarrolladores crear agentes con las herramientas que prefieren: Copilot Studio, GitHub, Visual Studio y más. Con las API de Microsoft 365 Copilot , los desarrolladores pueden acceder de forma segura a los datos y las funcionalidades de Microsoft 365 para crear agentes personalizados o integrar Microsoft 365 Copilot Chat en las aplicaciones, respetando los permisos de toda la organización. El Kit de herramientas de agentes de Microsoft 365 y el Kit de desarrollo de software (SDK) facilitan la creación, prueba y desarrollo de agentes con el tiempo. Los desarrolladores pueden intercambiar modelos u orquestadores sin tener que empezar desde cero, usar plantillas del SDK para impulsar proyectos e implementar en Azure con valores predeterminados inteligentes; todo esto ya está disponible para el público general. Mejoras de Copilot Studio Nuevos canales de publicación de agentes: SharePoint y WhatsApp Copilot Studio incluye actualizaciones interesantes en los canales disponibles, incluyendo la disponibilidad general de la publicación de agentes en Copilot. Además de esta esperadísima actualización, también añadimos dos canales adicionales: SharePoint y WhatsApp. Estos canales clave facilitan más que nunca la incorporación de agentes personalizados a los lugares donde sus usuarios ya trabajan y se comunican. Esto le ayuda a ampliar el alcance y el valor de sus agentes, desde la atención a sus equipos dentro de Copilot y SharePoint hasta la interacción con clientes de todo el mundo. El canal de SharePoint, ahora disponible para el público general, permite a los creadores implementar agentes personalizados directamente en un sitio de SharePoint con un solo clic. Gracias a la autenticación y los permisos gestionados automáticamente, cualquier persona con acceso al sitio puede empezar a usar el agente inmediatamente. Esto amplía todas las capacidades de los agentes personalizados en uno de los centros de colaboración más utilizados del mundo. A partir de principios de julio de 2025, los creadores

Leer más »

Super 99 y la IA genérica de SAP llevan el negocios a otro nivel

El líder en retail, Super 99 en Panamá, ha decidido utilizar la Inteligencia Artificial (IA) Generativa como una herramienta que proporcione información que ayude a su junta directiva a tomar decisiones mejor informadas, no que la IA tome las decisiones por ellos Centroamérica y Caribe 26 de mayo de 2025. — Super 99, empresa líder en el mercado nacional y con casi 40 años de servicio ininterrumpido, con más de 50 sucursales en todo el país y alrededor de 6,000 colaboradores, generando indirectamente más de 15,000 plazas laborales. Para lograr mantenerse competitivo, su misión ha sido siempre estar a la vanguardia de la tecnología, eficiencia, servicio y rentabilidad.  Por tal motivo y en conjunto con empresas altamente reconocidas, se ha iniciado un proceso de transformación digital. Antonio Castillo es el director de tecnología de Super 99, con más de 10 años de experiencia en el mercado de retail nos señala que: “La cadena tiene dos proyectos prioritarios: un programa de lealtad de clientes y lanzar el punto de venta.  Estos proyectos son el siguiente paso en nuestra transformación digital y vamos de la mano con Rise with SAP porque son líderes comprobados en el área de retail y están enfocados hacia dónde queremos llegar”. Las soluciones de Rise with SAP proveen a Super 99 información muy valiosa para conocer los patrones de compra que permiten que los clientes tengan todos los productos disponibles.  De igual manera, permite mantener inventarios en tiempo real, estos disminuyen el riesgo de tener tiendas desabastecidas y con ello perder oportunidades de compra de consumidores fieles. Además, la integración de datos en una plataforma unificada garantiza que todas las áreas del supermercado operen de manera más coordinada, facilitando el acceso a la información en tiempo real. Esto no solo mejora la toma de decisiones estratégicas, sino que también aumenta la productividad de los equipos al reducir los tiempos de respuesta y potenciales errores operativos. Para Super 99 la Inteligencia Artificial (IA) Generativa es una herramienta de mucha utilidad y esperan involucrarla en todos sus procesos tecnológicos.  El manejo de información a todo nivel que se genera en un establecimiento de retail es muy complejo y una herramienta como la IA Generativa puede ayudar a manejarla de manera eficiente en tiempo real.  “Yo quiero que mi junta directiva pueda tener reportes con recomendaciones imparciales de soluciones con Inteligencia Artificial Generativa.  No que la IA tome la decisión, sino que con base a sus recomendaciones la Junta Directiva pueda tomar una decisión más certera.  Creo que la IA puede proveer un mejor análisis de información, optimizando tiempos y reduciendo riesgos” señala Castillo. Con RISE with SAP, Super 99 tendrá la capacidad de seguir impulsando la eficiencia de sus procesos mediante el uso de IA Generativa, apalancándose en la automatización y la integración avanzada de datos, aumentando la productividad de los equipos al reducir los tiempos de respuesta y mejorando sus flujos de coordinación y colaboración. Castillo hace ver que “muchas veces no nos damos cuenta de que hay procesos que necesitan actualizarse y durante el tiempo de esa evolución generalmente se consumen recursos no programados por parte de la empresa.  Implementando un sistema con IA Generativa como Rise with SAP, esperaríamos que antes de que ocurra un error se nos alerte de manera anticipada para corregirlo y con ello evitar pérdidas económicas”. Esta iniciativa refuerza el compromiso de Super 99 de ser una empresa ejemplar en el recursos humano y en los ambientes de sus establecimientos, en donde el cliente cubra la mayor cantidad de sus necesidades bajo un mismo techo. SAP News.

Leer más »
Scroll al inicio