El Portal de las Tecnologías para la Innovación

Categoría: IoT

Multi-agent orchestration, maker controls, and more: Microsoft Copilot Studio announcements at Microsoft Build 2025

Microsoft Build 2025 is here—our annual showcase of the most exciting innovations shaping the future of development and AI. For engineers, makers, and subject matter experts, it’s the moment to see what’s next across the Microsoft ecosystem.  This year, Microsoft Copilot Studio has a number of powerful new agent-related features to show you. From multi-agent orchestration to more maker controls, computer use in agents to code interpreter, read on for a first look at Copilot Studio’s exciting announcements. Recap of major Microsoft Build 2025 announcements Jared Spataro, Corporate Vice President, Microsoft, announced some of the biggest news from the Copilot Studio and Microsoft 365 Copilot agents teams. In case you missed it, here’s an overview of a few features we’re particularly excited about. Multi-agent orchestration Rather than relying on a single agent to do everything—or managing disconnected agents in silos—organizations can now build multi-agent systems in Copilot Studio (preview), where agents delegate tasks to one another. This includes those built with the Microsoft 365 agent builder, Microsoft Azure AI Agents Service, and Microsoft Fabric. These agents can now all work together to achieve a shared goal: completing complex, business-critical tasks that span systems, teams, and workflows. This evolution reflects a broader shift in how organizations are scaling their use of agents across Microsoft. Imagine a Copilot Studio agent pulling sales data from a customer relationship management (CRM) system, handing it off to a Microsoft 365 agent to draft a proposal in Word, and then triggering another to schedule follow-ups in Outlook. Or, envision agents coordinating across IT, communications, and vendor systems to manage an incident from detection to resolution. Whether it’s executive briefings, customer onboarding, or product launches, agents can now operate in sync—bringing greater connectedness, intelligence, and scale to every step. This feature is currently in private preview with a public preview coming soon. Try Copilot Studio for free See how different organizations are employing their agent ecosystems and get inspired for how you could connect yours in Microsoft Corporate Vice President Srini Raghavan’s blog post. Computer use in Copilot Studio agents Computer use moves us closer to a more connected, intelligent world where agents collaborate seamlessly with people and systems. Agents can now interact with desktop apps and websites like a person would—clicking buttons, navigating menus, typing in fields, and adapting automatically as the interface changes. This opens the door to automating complex, user interface (UI)-based tasks like data entry, invoice processing, and market research, with built-in reasoning and full visibility into every step. Computer use is currently available through the Microsoft 365 Copilot Frontier program for eligible customers with at least 500,000 Copilot Studio messages and an environment in the United States. Bring your own model and model fine-tuning Copilot Studio continues to integrate deeply with Azure AI Foundry, and now you can bring your own model for prompts and generative answers. Makers can access more than 11,000 models in Azure AI Foundry, including the latest models available in OpenAI GPT-4.1, Llama, DeepSeek, and custom models, and fine-tune them using enterprise data. This fine-tuning helps agents generate even more domain-specific, high-value responses. Model Context Protocol Now generally available, Model Context Protocol (MCP) makes it easier to connect Copilot Studio to your enterprise knowledge systems. With growing connector support, better tool rendering, evolving scalability, and faster troubleshooting, it’s never been simpler to bring external knowledge into agent conversations. Developer tools to build agents your way Microsoft empowers developers to build agents with the tools they prefer—Copilot Studio, GitHub, Visual Studio, and more. With Microsoft 365 Copilot APIs, developers can securely access Microsoft 365 data and capabilities to create custom agents or embed Microsoft 365 Copilot Chat into apps, all while respecting organization-wide permissions. The Microsoft 365 Agents Toolkit and Software Development Kit (SDK) make it easier to build, test, and evolve agents over time. Developers can swap models or orchestrators without starting from scratch, use SDK templates to jumpstart projects, and deploy to Azure with smart defaults—all now generally available. Copilot Studio enhancements New agent publishing channels: SharePoint and WhatsApp Copilot Studio has exciting updates to available channels, including that publishing agents to Copilot is now generally available. In addition to this highly anticipated update, we’re also adding two additional channels: SharePoint and WhatsApp. These key channels make it easier than ever to bring custom agents to the places where your users already work and communicate. This helps you extend the reach and value of your agents, from serving your teams inside Copilot and SharePoint to engaging customers around the world. The SharePoint channel, now generally available, lets makers deploy custom agents directly to a SharePoint site with a single click. With authentication and permissions handled automatically, anyone with access to the site can immediately start using the agent. This extends the full capabilities of custom agents into one of the most widely used collaboration hubs in the world. Starting in early July 2025, makers will also be able to publish Copilot Studio to WhatsApp. This will allow organizations to provide conversational support and engage global users directly within the familiar, mobile-first platform—no separate website or app required. Additional maker controls for knowledge Now in public preview, new controls in the Generative AI agent settings give makers more ways to shape how agents respond, reason, and interact with users. In addition to toggles for generative orchestration and deep reasoning, you’ll see multiple categories to further ground and tune your agents. First, in response to maker feedback, we’re pleased to announce that you can now upload multiple related files into a file collection and use the collection as a single knowledge source for an agent. You can also include natural language instructions to help your agent find the most relevant document in the collection to ground each response. In the Responses section of the Generative AI tab, you can now choose your agent’s primary response model, provide response instructions, adjust response length, and turn on advanced options like code interpreter (see below) and Tenant graph grounding with semantic search. Moderation settings control how flagged responses—that is, generated responses detected to possibly have harmful content—are handled. These controls allow you

Leer más »

Orquestación multiagente, controles de creación y más: anuncios de Microsoft Copilot Studio en Microsoft Build 2025

Microsoft Build 2025 ya está aquí: nuestra presentación anual de las innovaciones más emocionantes que definen el futuro del desarrollo y la IA. Para ingenieros, creadores y expertos en la materia, es el momento de descubrir las próximas novedades del ecosistema Microsoft. Este año, Microsoft Copilot Studio presenta una serie de nuevas y potentes funciones relacionadas con los agentes . Desde la orquestación multiagente hasta más controles para creadores, desde el uso de computadoras en agentes hasta el intérprete de código, siga leyendo para conocer los primeros anuncios de Copilot Studio. Resumen de los principales anuncios de Microsoft Build 2025 Jared Spataro, vicepresidente corporativo de Microsoft, anunció algunas de las novedades más importantes de los equipos de agentes de Copilot Studio y Microsoft 365 Copilot. Si te las perdiste, aquí tienes un resumen de algunas funciones que nos entusiasman especialmente. Orquestación multiagente En lugar de depender de un solo agente para todo, o de gestionar agentes desconectados de forma aislada, las organizaciones ahora pueden crear sistemas multiagente en Copilot Studio (versión preliminar), donde los agentes se delegan tareas entre sí. Esto incluye los creados con el generador de agentes de Microsoft 365, el Servicio de Agentes de IA de Microsoft Azure y Microsoft Fabric. Estos agentes ahora pueden colaborar para lograr un objetivo común: completar tareas complejas y cruciales para el negocio que abarcan sistemas, equipos y flujos de trabajo. Esta evolución refleja un cambio más amplio en la forma en que las organizaciones están escalando el uso de agentes en Microsoft. Imagine a un agente de Copilot Studio extrayendo datos de ventas de un sistema de gestión de relaciones con clientes (CRM), entregándoselos a un agente de Microsoft 365 para que redacte una propuesta en Word y luego solicitando a otro que programe seguimientos en Outlook. O bien, imagine a los agentes coordinándose con los sistemas de TI, comunicaciones y proveedores para gestionar un incidente desde su detección hasta su resolución. Ya sean reuniones informativas para ejecutivos, la incorporación de clientes o el lanzamiento de productos, los agentes ahora pueden trabajar sincronizados, lo que aporta mayor conectividad, inteligencia y escalabilidad a cada paso. Esta función se encuentra actualmente en versión preliminar privada y próximamente estará disponible en versión preliminar pública. Prueba Copilot Studio gratis Vea cómo diferentes organizaciones emplean sus ecosistemas de agentes e inspírese sobre cómo podría conectar el suyo en la publicación del blog de Srini Raghavan, vicepresidente corporativo de Microsoft . Uso de computadoras en los agentes de Copilot Studio El uso de computadoras nos acerca a un mundo más conectado e inteligente donde los agentes colaboran fluidamente con personas y sistemas. Los agentes ahora pueden interactuar con aplicaciones de escritorio y sitios web como lo haría una persona: haciendo clic en botones, navegando por menús, escribiendo en campos y adaptándose automáticamente a los cambios de la interfaz. Esto abre la puerta a la automatización de tareas complejas basadas en la interfaz de usuario (IU), como la entrada de datos, el procesamiento de facturas y la investigación de mercado, con razonamiento integrado y visibilidad completa de cada paso. El uso de computadoras está disponible actualmente a través del programa Microsoft 365 Copilot Frontier para clientes elegibles con al menos 500,000 mensajes de Copilot Studio y un entorno en Estados Unidos. Trae tu propio modelo y puesta a punto del modelo. Copilot Studio continúa integrándose a fondo con Azure AI Foundry , y ahora puedes usar tu propio modelo para indicaciones y respuestas generativas. Los creadores pueden acceder a más de 11 000 modelos en Azure AI Foundry, incluyendo los modelos más recientes disponibles en OpenAI GPT-4.1, Llama, DeepSeek y modelos personalizados, y optimizarlos con datos empresariales. Este ajuste ayuda a los agentes a generar respuestas aún más específicas para cada dominio y de alto valor. Protocolo de contexto modelo Ya disponible para el público general, el Protocolo de Contexto de Modelo (MCP) facilita la conexión de Copilot Studio con los sistemas de conocimiento de su empresa. Gracias a la creciente compatibilidad con conectores, una mejor representación de herramientas, una escalabilidad en constante evolución y una resolución de problemas más rápida, incorporar conocimiento externo a las conversaciones con los agentes nunca ha sido tan sencillo. Herramientas para desarrolladores para crear agentes a su manera Microsoft permite a los desarrolladores crear agentes con las herramientas que prefieren: Copilot Studio, GitHub, Visual Studio y más. Con las API de Microsoft 365 Copilot , los desarrolladores pueden acceder de forma segura a los datos y las funcionalidades de Microsoft 365 para crear agentes personalizados o integrar Microsoft 365 Copilot Chat en las aplicaciones, respetando los permisos de toda la organización. El Kit de herramientas de agentes de Microsoft 365 y el Kit de desarrollo de software (SDK) facilitan la creación, prueba y desarrollo de agentes con el tiempo. Los desarrolladores pueden intercambiar modelos u orquestadores sin tener que empezar desde cero, usar plantillas del SDK para impulsar proyectos e implementar en Azure con valores predeterminados inteligentes; todo esto ya está disponible para el público general. Mejoras de Copilot Studio Nuevos canales de publicación de agentes: SharePoint y WhatsApp Copilot Studio incluye actualizaciones interesantes en los canales disponibles, incluyendo la disponibilidad general de la publicación de agentes en Copilot. Además de esta esperadísima actualización, también añadimos dos canales adicionales: SharePoint y WhatsApp. Estos canales clave facilitan más que nunca la incorporación de agentes personalizados a los lugares donde sus usuarios ya trabajan y se comunican. Esto le ayuda a ampliar el alcance y el valor de sus agentes, desde la atención a sus equipos dentro de Copilot y SharePoint hasta la interacción con clientes de todo el mundo. El canal de SharePoint, ahora disponible para el público general, permite a los creadores implementar agentes personalizados directamente en un sitio de SharePoint con un solo clic. Gracias a la autenticación y los permisos gestionados automáticamente, cualquier persona con acceso al sitio puede empezar a usar el agente inmediatamente. Esto amplía todas las capacidades de los agentes personalizados en uno de los centros de colaboración más utilizados del mundo. A partir de principios de julio de 2025, los creadores

Leer más »

Samsung Vision AI está aquí. Nueva línea de televisores 2025

Samsung Electronics presentó recientemente su nueva gama de televisores con inteligencia artificial Samsung Vision AI que revolucionan la manera de ver TV y que incluye los modelos Neo QLED, QLED, OLED y The Frame. “Nuevamente, Samsung está llevando la Inteligencia Artificial un paso más allá y creando un ‘hogar con AI’ más seguro y conveniente. Nos hemos adaptado a los nuevos hábitos de consumo de nuestros usuarios y por eso hoy les invitamos a interactuar y conocer de cerca nuestro poderoso ecosistema. Este momento marca un hito significativo en nuestro camino como una empresa líder en el sector tecnológico, y estamos encantados de celebrarlo con todos ustedes. Bienvenidos a la grandeza de la televisión, Samsung Vision AI está aquí”, dijo Jason Kim, presidente de Samsung Electronics Latinoamérica en su discurso de bienvenida a los invitados al evento de lanzamiento regional realizado en La Antigua, Guatemala. ▲ Jason Kim, Presidente de Samsung Centroamérica y el Caribe, durante las palabras de inauguración del evento de lanzamiento en Antigua, Guatemala ▲ Ejecutivos de Samsung presentes durante el evento. De izquierda a derecha: Agustín Napoli (Director B2C de la División de Visual Display), Won Cha (Director General de Samsung Electronics NCA), Jason Kim (Presidente de Samsung Centroamérica y el Caribe), Larissa Espinal (Gerente de RR.PP), Felipe Rabat (Vicepresidente de Samsung Centroamérica y el Caribe) y José Joaquín Urbina (Director Senior de Experiencias Móviles). Beneficios únicos y experiencias personalizadas Los nuevos televisores presentados marcan un antes y un después en la era de la tecnología de pantallas y entretenimiento.  En esencia, la experiencia de visualización se enriquece con el conjunto de funciones y ventajas de Samsung Vision AI. Comencemos por la personalización que tanto aprecian los consumidores: Los televisores Samsung Vision AI se adaptan fácilmente a las rutinas, hábitos e interacciones diarias del usuario. Al conocer sus necesidades, actúan de forma autónoma para satisfacerlas. A través de su plataforma Daily+ pueden recomendarte actividades, rutinas deportivas, recetas saludables y hasta un itinerario para tu viaje. Incluso te permiten generar tu propio fondo de pantalla por medio del uso de AI considerando tus gustos y preferencias. ▲ Personalización, Conectividad y Seguridad son los principales beneficios de la nueva línea de televisores Samsung Vision AI 2025, explicó Felipe Rabat La conectividad es otra razón poderosa para entrar al mundo del Samsung Vision AI. Mientras el usuario disfruta sus programas, series, videos y otros contenidos audiovisuales, a través de la plataforma SmartThings, va a poder gestionar de forma centralizada tareas que normalmente le obligaban a hacer una pausa, ir a otro lugar de la casa e interrumpir su momento de entretenimiento y relajación. Ajustar o apagar luces, definir la temperatura del sistema de aire acondicionado, monitorear el hogar mediante cámaras de seguridad o encender el horno para que inicie el horneado de una pizza. Esto y mucho más, para una vida conectada y confortable. Varios de los modelos de TV presentados poseen Glare Free, tecnología que reduce los reflejos en las pantallas, y así mejora la visibilidad y la experiencia visual en diferentes entornos de iluminación, incluso bajo luz directa. La belleza y el arte no quedan por fuera, The Frame reproduce obras de arte de renombre mundial de la Feria Art Basel, con la que Samsung estableció una asociación y la oferta de Art Store se amplía cada vez más, ya que esta plataforma ahora está también disponible en los televisores QLED y Neo QLED 2025. ▲ La artista plástico Luz Andrade junto a Felipe Rabat al lado de un The Frame de Samsung, que despliega una de las obras de la artista guatemalteca. ▲ La tecnología Quantum Dot de los televisores Neo QLED de Samsung lo convierten en una pieza única en cuanto a calidad de imagen y durabilidad Entre otras de la funciones de Samsung Vision AI se destacan: Samsung Daily+, permite gestionar fácilmente actividades diarias y estilo de vida desde la comodidad del televisor; Pet Care, para mejorar el cuidado de las mascotas en casa; y Stingray Karaoke desde un Smartphone Galaxy, para cantar tus canciones favoritas sin necesidad de un micrófono.  La mejor Inteligencia Artificial: el más alto rendimiento El portafolio comprende las siguientes líneas de televisores: ▲ Grupo de periodistas e influencers invitados al evento Pre-venta imperdible A partir del 19 de mayo, Samsung Electronics inició la preventa de 11 modelos de su portafolio de televisores 2025, que incluye un cupón de 10% de descuento para adquirir cualquier smartphone o producto de audio de la marca con la compra de alguno de los televisores 2025. Samsung News

Leer más »

Postal de Computex: La estación de trabajo cobra nueva vida

Los procesadores Intel Core Ultra Serie 2 impulsan máquinas accesibles para innovadores y usuarios avanzados. Para:  Cualquier persona que desee un rendimiento y una flexibilidad sin concesiones. De: Computex 2025, Taipéi, Taiwán | 20 de mayo de 2025 Los visitantes del stand de Intel aquí en Computex 2025 están viendo la suite completa de productos Intel® Core™ Ultra Series 2 para estaciones de trabajo móviles y de escritorio en acción, en una forma que quizás no esperaban. En Computex, Intel exhibe las últimas soluciones de estaciones de trabajo de alto rendimiento con los nuevos procesadores Intel Core Ultra. El segmento está en rápida evolución y expansión, con las estaciones de trabajo de escritorio y móviles de gama básica a la cabeza. Están diseñadas para innovadores profesionales y usuarios avanzados que buscan el rendimiento y las capacidades de una estación de trabajo en plataformas más accesibles. En Taipei, Intel está mostrando cómo estas nuevas estaciones de trabajo equipadas con Intel Core Ultra Serie 2 están redefiniendo lo que es posible en el segmento de estaciones de trabajo móviles y de escritorio de nivel básico. En una demostración, Mike Bartz, de Intel, mostró procesadores de PC con IA en una estación de trabajo móvil con tecnología Intel. Demostró cómo se pueden fotografiar objetos reales y transformarlos en materiales 3D realistas con Adobe Substance 3D Sampler. Esta función, impulsada por IA, aprovecha las plataformas Intel® Core™ serie H y serie HX de la estación de trabajo para ejecutar cargas de trabajo de inferencia local en segundos. El resultado: imágenes mejoradas con IA, como muestras de tela, se colocan en modelos 3D, como una silla, para ayudar a los usuarios a visualizar el aspecto y el comportamiento de una tela específica. PS  Computex 2025: Intel presenta nuevas GPU para IA y estaciones de trabajo  (Noticias) |  Intel en Computex 2025  (Dossier de prensa) |  Computex 2025: Estaciones de trabajo móviles y de escritorio de Intel (Blog de Intel) Nota del editor: Esta historia fue editada el 20 de mayo de 2025 para ajustar la descripción de la estación de trabajo utilizada en la demostración. Intel News. Traducido al español

Leer más »

El acelerómetro compacto y de bajo ruido de tres ejes M-A370AD10 entra en producción en masa

 Aceleración de la digitalización de la observación sísmica, la medición continua de microtremores y el monitoreo del envejecimiento del sistema Seiko Epson Corporation (TSE: 6724, «Epson») ha desarrollado el M-A370AD10, un acelerómetro de 3 ejes compacto y de bajo ruido, ideal para abordar problemas sociales derivados, entre otros, del aumento de desastres naturales y el envejecimiento de las infraestructuras. Este producto proporciona datos extremadamente precisos para la observación de terremotos, la medición continua de microtremores y la monitorización del envejecimiento de las infraestructuras, lo que permite la detección temprana de anomalías y una respuesta rápida. La incorporación de este producto a los sistemas también puede mejorar significativamente su fiabilidad. El inicio de la producción en masa de este acelerómetro está previsto para julio de 2025. El M-A370AD10 ofrece un rendimiento de ruido inferior al del Nuevo Modelo de Alto Ruido del USGS¹ . Este bajo nivel de ruido se logra gracias a la tecnología de microfabricación patentada de Epson² y la tecnología IP digital³ . Este dispositivo también ofrece una alta estabilidad de polarización y un amplio rango dinámico, lo que lo hace excelente para la detección de señales microsísmicas imperceptibles para los humanos, la exploración de estructuras terrestres mediante mediciones de vibración ambiental y el monitoreo de la inclinación de edificios a largo plazo. El bajo consumo de energía y la salida digital de este producto también permiten construir sistemas de medición más sencillos que los sistemas convencionales que utilizan sensores de salida analógica. Epson está acelerando la transformación digital ampliando su gama de acelerómetros integrables, mejorando la fiabilidad del sistema y contribuyendo al desarrollo de infraestructuras sociales seguras y resilientes, mitigando los riesgos asociados a desastres naturales e instalaciones obsoletas. Características del producto Aplicaciones de destino Detección de terremotos, exploración de recursos, exploración de vibraciones ambientales (microtremores), exploración de estructuras subterráneas, medición de inclinación, monitoreo de la salud de edificios, análisis, control y estabilización de vibraciones, etc. Enlace relacionado Para obtener información más detallada sobre el producto, consulte la siguiente página web. Consultas de clientes Grupo de Marketing de Productos MD, Departamento de Ventas y Marketing MD, Seiko Epson Corporation Información detallada Puede descargar materiales que resumen las características y ofrecen comparativas de los acelerómetros y métodos de comparación de Epson. No dude en contactarnos para obtener más información. Participación en la exposición Epson expondrá en la Reunión de la Unión de Geociencias de Japón 2025. Este evento se llevará a cabo en Makuhari Messe del 25 al 30 de mayo de 2025. Planeamos exhibir nuestros nuevos productos en el stand de Epson. Enlace de la exposición Reunión de la Unión de Geociencias de Japón 2025 Comparación de especificaciones entre el producto nuevo y el existente Qué Nuevo producto Producto existente Nombre del producto M-A370AD10 M-A352AD10 Solicitud Incorporado Dimensiones / Material 48 x 24 x 16 mm / Fundición a presión de aluminio Conector de host Conector de receptáculo (1,00 mm) Formato de salida SPI/UART (digital) Velocidad de transferencia 115,2 kbps – 460,8 kbps (predeterminado 460,8 kbps) Eje de detección Tres ejes Cantidad física de salida Aceleración / ángulo de inclinación Rango dinámico Aceleración ±10 GÁngulo de inclinación ±1,047 rad(±60 grados) Aceleración ±15 GÁngulo de inclinación ±1,047 rad(±60 grados) Densidad de ruido 0,02 µG/√Hz (1 Hz – 10 Hz) 0,2 µG/√Hz (0,5 Hz – 6 Hz) Error de temperatura de sesgo ±0,5 mG (-30 °C – 85 °C) ±2 mG (-30 °C – 85 °C) Repetibilidad del sesgo ±0,1 mG típico(1 año después del envío, 25 °C,Vcc = 3,3 V) 3 mG típico(1 año después del envío, 25 °C,Vcc = 3,3 V) Frecuencia, rango de medición CC – 210 Hz CC – 460 Hz Voltaje de la fuente de alimentación 3,15 V – 3,45 V Consumo actual 36,3 mA típico (3,3 V) 13,2 mA típico (3,3 V) Rango de temperatura de funcionamiento -30℃ – 85℃ Epson News. Traducido al español

Leer más »

La IA aprende cómo se conectan la visión y el sonido, sin intervención humana

Este nuevo modelo de aprendizaje automático puede coincidir con los datos visuales y de audio correspondientes, lo que algún día podría ayudar a los robots a interactuar en el mundo real. Los humanos aprendemos de forma natural conectando la vista y el sonido. Por ejemplo, podemos observar a alguien tocando el violonchelo y reconocer que sus movimientos generan la música que escuchamos. Un nuevo enfoque desarrollado por investigadores del MIT y de otras instituciones mejora la capacidad de un modelo de IA para aprender de esta misma manera. Esto podría ser útil en aplicaciones como el periodismo y la producción cinematográfica, donde el modelo podría ayudar a seleccionar contenido multimodal mediante la recuperación automática de vídeo y audio. A largo plazo, este trabajo podría utilizarse para mejorar la capacidad de un robot para comprender entornos del mundo real, donde la información auditiva y visual a menudo están estrechamente conectadas. Mejorando el trabajo previo de su grupo, los investigadores crearon un método que ayuda a los modelos de aprendizaje automático a alinear los datos de audio y visuales correspondientes de los videoclips sin necesidad de etiquetas humanas. Ajustaron el entrenamiento de su modelo original para que aprenda una correspondencia más precisa entre un fotograma de vídeo específico y el audio que se produce en ese momento. Los investigadores también realizaron ajustes arquitectónicos que ayudan al sistema a equilibrar dos objetivos de aprendizaje distintos, lo que mejora el rendimiento. En conjunto, estas mejoras relativamente sencillas aumentan la precisión de su enfoque en las tareas de recuperación de vídeo y en la clasificación de la acción en escenas audiovisuales. Por ejemplo, el nuevo método podría hacer coincidir de forma automática y precisa el sonido de un portazo con la imagen de la puerta al cerrarse en un vídeo. “Estamos construyendo sistemas de IA que pueden procesar el mundo como lo hacen los humanos, en términos de recibir información auditiva y visual simultáneamente y procesar ambas modalidades sin problemas. De cara al futuro, si logramos integrar esta tecnología audiovisual en algunas de las herramientas que usamos a diario, como los grandes modelos lingüísticos, podría abrir un gran abanico de nuevas aplicaciones”, afirma Andrew Rouditchenko, estudiante de posgrado del MIT y coautor de un artículo sobre esta investigación . Lo acompañan en el artículo el autor principal Edson Araujo, un estudiante de posgrado en la Universidad Goethe en Alemania; Yuan Gong, un ex posdoctorado del MIT; Saurabhchand Bhati, un actual posdoctorado del MIT; Samuel Thomas, Brian Kingsbury y Leonid Karlinsky de IBM Research; Rogerio Feris, científico principal y gerente del Laboratorio de IA Watson del MIT-IBM; James Glass, científico investigador sénior y jefe del Grupo de Sistemas de Lenguaje Hablado en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT (CSAIL); y la autora sénior Hilde Kuehne, profesora de ciencias de la computación en la Universidad Goethe y profesora afiliada al Laboratorio de IA Watson del MIT-IBM. El trabajo se presentará en la Conferencia sobre Visión por Computador y Reconocimiento de Patrones. Sincronización Este trabajo se basa en un método de aprendizaje automático que los investigadores desarrollaron hace unos años, que proporcionó una forma eficiente de entrenar un modelo multimodal para procesar simultáneamente datos de audio y visuales sin la necesidad de etiquetas humanas. Los investigadores alimentan este modelo, llamado CAV-MAE, con videoclips sin etiquetar, y este codifica los datos visuales y de audio por separado en representaciones llamadas tokens. Utilizando el audio natural de la grabación, el modelo aprende automáticamente a mapear pares correspondientes de tokens visuales y de audio próximos entre sí dentro de su espacio de representación interno. Descubrieron que el uso de dos objetivos de aprendizaje equilibra el proceso de aprendizaje del modelo, lo que permite a CAV-MAE comprender los datos de audio y visuales correspondientes al tiempo que mejora su capacidad para recuperar videoclips que coinciden con las consultas del usuario. Pero CAV-MAE trata las muestras de audio y visuales como una unidad, por lo que un videoclip de 10 segundos y el sonido de un portazo se mapean juntos, incluso si ese evento de audio ocurre en solo un segundo del video. En su modelo mejorado, llamado CAV-MAE Sync, los investigadores dividen el audio en ventanas más pequeñas antes de que el modelo calcule sus representaciones de los datos, de modo que genera representaciones separadas que corresponden a cada ventana de audio más pequeña. Durante el entrenamiento, el modelo aprende a asociar un fotograma de vídeo con el audio que se produce durante ese fotograma. “Al hacer eso, el modelo aprende una correspondencia más detallada, lo que mejora el rendimiento más adelante cuando agregamos esta información”, dice Araujo. También incorporaron mejoras arquitectónicas que ayudan al modelo a equilibrar sus dos objetivos de aprendizaje. Añadiendo “margen de maniobra” El modelo incorpora un objetivo contrastivo, donde aprende a asociar datos de audio y visuales similares, y un objetivo de reconstrucción que busca recuperar datos de audio y visuales específicos en función de las consultas del usuario. En CAV-MAE Sync, los investigadores introdujeron dos nuevos tipos de representaciones de datos, o tokens, para mejorar la capacidad de aprendizaje del modelo. Incluyen “tokens globales” dedicados que ayudan con el objetivo de aprendizaje contrastivo y “tokens de registro” dedicados que ayudan al modelo a centrarse en detalles importantes para el objetivo de reconstrucción. En esencia, añadimos un poco más de margen de maniobra al modelo para que pueda realizar cada una de estas dos tareas, la contrastiva y la reconstructiva, de forma más independiente. Esto mejoró el rendimiento general, añade Araujo. Si bien los investigadores tenían cierta intuición de que estas mejoras optimizarían el rendimiento de CAV-MAE Sync, fue necesaria una cuidadosa combinación de estrategias para cambiar el modelo en la dirección que querían. “Dado que tenemos múltiples modalidades, necesitamos un buen modelo para ambas modalidades por sí solas, pero también necesitamos lograr que se fusionen y colaboren”, dice Rouditchenko. Al final, sus mejoras optimizaron la capacidad del modelo para recuperar videos a partir de una consulta de audio y predecir la clase de

Leer más »

ModAI anuncia iniciativas clave para impulsar la adopción comunitaria

ModAI , un servicio líder de gestión de comunidades basado en IA y respaldado por el inversor clave HashKey Capital , anunció hoy una serie de iniciativas estratégicas para impulsar la adopción global de sus soluciones. Estas iniciativas buscan dotar a los proyectos blockchain y a las comunidades descentralizadas de herramientas escalables, eficientes e inteligentes para navegar por el cambiante panorama de la Web3. ModAI es una de las primeras plataformas de gestión de comunidades de IA nativas de Web3, diseñada para abordar los desafíos que enfrentan los proyectos, plataformas de intercambio y desarrolladores de blockchain. Disponible para el público, ModAI reduce los costos operativos hasta en un 80%  y duplica la actividad de los usuarios, lo que permite a los equipos centrarse en el crecimiento estratégico. Al integrar modelos híbridos de IA con proyectos de blockchain y comunidades descentralizadas, ModAI ofrece tres servicios principales: Actualmente, ModAI ofrece todas las funciones, incluyendo AI Chatter, Soporte y Moderador, de forma gratuita para el público durante el primer mes . Esta iniciativa invita a desarrolladores y líderes de la comunidad a explorar cómo la IA puede optimizar las operaciones, mejorar la interacción y escalar el crecimiento. Con una proyección de que más del 80% del contenido de internet será generado por IA para 2025, los agentes de IA están preparados para redefinir la productividad de la Web3. ModAI aprovecha la ejecución sin confianza de la blockchain y su infraestructura descentralizada para posicionarse como una herramienta crucial para la gestión de comunidades multilingües y multiplataforma. ModAI también está explorando un sistema de recompensas con tokens para incentivar la participación de la comunidad y las contribuciones a la plataforma. Tras haber prestado servicio a más de 100 proyectos, ModAI ha recibido una excelente acogida de los usuarios. Se anunciarán más detalles como parte de la hoja de ruta de ModAI para fomentar un ecosistema colaborativo para agentes de IA en la Web3. ModAI planea expandirse a coreano, vietnamita y otros idiomas en el tercer trimestre de 2025, a la vez que integra análisis de datos en cadena para alinear las operaciones de la comunidad con el comportamiento de los usuarios. Recientemente, ModAI también lanzó una herramienta de detección de IA antifraude para garantizar un entorno de chat grupal seguro. Descargo de responsabilidad ModAI no está afiliado a la emisión de tokens  ni participa en ninguna actividad de recaudación de fondos con criptomonedas. Verifique toda la información a través de los canales oficiales de ModAI para evitar riesgos de fraude. Grupo HashKey News. Traducido al español

Leer más »

HONOR lanza la serie HONOR 400 con la cámara líder con IA

Mejore la experiencia fotográfica integral en teléfonos inteligentes con la cámara con IA ultra clara de 200 MP y las funciones de IA [Londres, Reino Unido – 22 de mayo de 2025] La marca global de tecnología HONOR anunció hoy el lanzamiento de la nueva serie HONOR 400 en los mercados europeos, ofreciendo una experiencia de fotografía con IA inigualable y una durabilidad excepcional. Equipada con una extraordinaria cámara con IA ultranítida de 200 MP, versátil edición con IA, una robusta batería de silicio-carbono de 5300 mAh y una pantalla ultrabrillante de 5000 nits de vanguardia, la serie HONOR 400 empodera a la generación siempre conectada para que disfrute de su día a día. “La serie HONOR 400 se creó para que las capacidades de imagen con IA sean más accesibles para todos y despertar su curiosidad diaria”, afirmó James Li, director ejecutivo de HONOR. “Los usuarios no solo pueden acceder a funciones de IA de gama alta a un precio más asequible, sino que también disfrutan de nuevas experiencias de imagen con IA, desde fotografía ultranítida con IA hasta herramientas avanzadas de edición con IA, que ofrecen diversas y entretenidas posibilidades creativas”. Cámara con IA potente y versátil Para brindar a los usuarios una experiencia fotográfica excepcional, el HONOR 400 está equipado con un innovador sistema de cámara con IA de 200 MP y ultranítida. Con la cámara principal con IA de 200 MP , un sensor de 1/1.4 pulgadas, apertura f/1.9 y estabilización dual OIS + EIS, el dispositivo garantiza una claridad excepcional, incluso en condiciones de poca luz. Además, la cámara ultra gran angular y macro de 12 MP y 112° captura escenas amplias, mientras que la cámara para selfies de retrato de 50 MP y 3 MP con apertura f/2.0, impulsada por el algoritmo avanzado de retrato de HONOR, garantiza selfies de calidad profesional con detalles impresionantes y colores realistas. La experiencia fotográfica de la serie HONOR 400 está impulsada por el avanzado HONOR IMAGE ENGINE con IA, que incorpora innovaciones de IA de vanguardia que elevan la fotografía móvil. El HONOR 400 es el primer smartphone de la industria en alcanzar un teleobjetivo de 30x con la cámara principal, e incorpora el Super Zoom con IA, diseñado para encuadrar paisajes impresionantes, como paisajes naturales o urbanos, con un extraordinario rango focal de 15x a 30x. La función AI Portrait Snap, mejorada con el Modelo Grande de Mejora de Captura, garantiza que cada retrato se mantenga nítido y detallado, incluso al capturar movimiento en el modo retrato en escenas callejeras diurnas. Con el objetivo de lograr un atractivo visual diferenciado, la serie HONOR 400 presenta el Modo de Simulación de Película 4 impulsado por IA , que analiza inteligentemente la iluminación y los detalles del sujeto para crear impresionantes efectos cinematográficos adaptados a la atmósfera de la escena. Los Modos de Retrato Harcourt ofrecen a los usuarios opciones creativas para capturar retratos impactantes con una iluminación refinada. La serie HONOR 400 permite a los usuarios capturar los momentos más memorables de la vida con una brillantez inigualable. La serie HONOR 400 también presenta la inigualable Edición de IA para potenciar la creatividad en la vida diaria. Utilizando el modelo de generación de video de última generación de Google, Veo 2 sobre Vertex AI de Google Cloud, los usuarios pueden explorar diferentes posibilidades a través de la quinta generación de imagen a video, que debutará en la serie HONOR 400. La función HD Moving Photo conserva los tres segundos dorados de vibrantes momentos en vivo, permitiendo a los usuarios compartir o editar fácilmente fragmentos cinematográficos en plataformas sociales 6 . HONOR lleva esto más allá con Moving Photo Collage, una función pionera que permite a los usuarios combinar de 2 a 9 fotos en movimiento y permite a los usuarios unir a la perfección fotos en vivo en momentos narrativos dinámicos. Además, la compatibilidad con el intercambio de fotos en vivo entre ecosistemas garantiza una experiencia de usuario fluida e integrada 7 . Además, la serie HONOR 400 también ofrece una serie de funciones inteligentes para permitir a los usuarios mejorar la participación de la foto, incluyendo HONOR AI Eraser, AI Outpainting, AI Erase passers-by y AI Remove Reflection 8. La edición con IA permite a los usuarios reimaginar la foto en la vida diaria. Batería potente y rendimiento de hardware mejorado La serie HONOR 400 está equipada con una robusta batería de silicio-carbono de 5300 mAh 9 , que proporciona una experiencia de usuario más duradera, especialmente en movimiento. La batería está diseñada para entornos de bajas temperaturas, alrededor de -20 °C, con un nivel de batería bajo, manteniendo su durabilidad y rendimiento en tareas como hacer llamadas y grabar videos en cualquier circunstancia. Está diseñada para una larga duración, manteniendo más del 80 % de su vida útil incluso después de 4 años 10. En combinación con la carga inalámbrica HONOR Wired SuperCharge de 66 W 11 , el dispositivo puede cargarse hasta un 44 % en solo 15 minutos 12 . Esto lo convierte en el compañero ideal para aventuras al aire libre y entornos desafiantes. Equipado con Snapdragon 7 Gen 3 Mobile Platform 13 y CPU Turbo X Game Engine, el HONOR 400 ofrece a los usuarios una experiencia de juego de primer nivel y un mayor rendimiento gráfico. El HONOR 400 también incluye hasta 512 GB de almacenamiento ultragrande, lo que garantiza una durabilidad excepcional. El HONOR 400 también cuenta con resistencia al agua y al polvo IP65, lo que ofrece una protección completa contra la entrada de agua y polvo. Tecnología de pantalla avanzada para una experiencia de visualización óptima La serie HONOR 400 cuenta con una pantalla ultrabrillante de 5000 nits y 14 pulgadas de última generación que garantiza una excelente visibilidad en cualquier condición de iluminación. Gracias a la tecnología de mejora de la pantalla con luz solar de pantalla completa y a la pantalla con atenuación dinámica, los usuarios pueden disfrutar de colores vibrantes y contrastes nítidos incluso bajo la luz solar directa. La función Motion Sickness Relief 15 ofrece la solución más completa del sector, ofreciendo un alivio significativo de las náuseas y el malestar durante el

Leer más »

HONOR se compromete a ofrecer actualizaciones de Android durante 6 años para la próxima serie HONOR 400

Los nuevos dispositivos incorporarán más capacidades de inteligencia artificial de Google y actualizaciones de seguridad extendidas hasta 2030 [Shenzhen, China – 21 de mayo de 2025] Tras Google I/O 2025, la marca global de tecnología HONOR anunció hoy su compromiso de ofrecer 6 años de actualizaciones de Android™ para su próxima serie HONOR 400. Esta serie también contará con capacidades avanzadas de IA desarrolladas con tecnología de Google. A la vanguardia del desarrollo e implementación de Android Gracias a su larga colaboración con Google, HONOR es uno de los primeros en ofrecer la experiencia Android más reciente a sus usuarios. Esta colaboración permite a HONOR ofrecer a los desarrolladores acceso rápido a las últimas versiones de Android, lo que permite a los usuarios disfrutar de las funciones más recientes y seguras de Android 2 sin demora. El año pasado, HONOR lideró la industria al ser uno de los primeros en lanzar la versión beta de Android 15 para sus desarrolladores. Siguiendo esta tradición de innovación, la versión beta 3 de Android 16 ya está disponible para los desarrolladores en el HONOR Magic7 Pro desde el 7 de mayo. Fomentar la colaboración abierta en la era inteligente El compromiso de HONOR con la colaboración abierta es un pilar fundamental del PLAN HONOR ALPHA, cuyo objetivo es cocrear un ecosistema abierto de intercambio de valor con socios globales. La creciente colaboración a largo plazo entre HONOR y sus socios globales ejemplifica la esencia del PLAN HONOR ALPHA en acción. Con la serie HONOR 400, los usuarios pueden explorar diferentes posibilidades con la generación de imagen a video con IA de 3.ª generación en Vertex utilizando el modelo de generación de video de última generación de Google, Veo 2. La función transforma imágenes estáticas (desde fotos reales y obras de arte generadas por IA hasta preciosas fotografías antiguas) en cautivadores videos cortos de 5 a 7 segundos y fotos en vivo. Tanto los entusiastas de la tecnología como los consumidores pueden esperar el lanzamiento de la Serie HONOR 400, que promete ofrecer estas capacidades de inteligencia artificial avanzadas a través del poder de la colaboración abierta. HONOR News. Traducido al español

Leer más »
Scroll al inicio