El Portal de las Tecnologías para la Innovación

Categoría: IoT

La herramienta de IA genera imágenes de alta calidad más rápido que los enfoques de vanguardia

Los investigadores fusionan lo mejor de dos métodos populares para crear un generador de imágenes que utiliza menos energía y puede ejecutarse localmente en una computadora portátil o teléfono inteligente. La capacidad de generar imágenes de alta calidad rápidamente es crucial para producir entornos simulados realistas que se pueden usar para entrenar autos sin conductor para evitar peligros impredecibles, haciéndolos más seguros en calles reales. Pero las técnicas de inteligencia artificial generativa que se utilizan cada vez más para producir tales imágenes tienen inconvenientes. Un tipo popular de modelo, llamado modelo de difusión, puede crear imágenes increíblemente realistas, pero es demasiado lento y computacionalmente intensivo para muchas aplicaciones. Por otro lado, los modelos autorregresivos que alimentan LLM como ChatGPT son mucho más rápidos, pero producen imágenes de peor calidad que a menudo están plagadas de errores. Investigadores del MIT y NVIDIA desarrollaron un nuevo enfoque que reúne lo mejor de ambos métodos. Su herramienta híbrida de generación de imágenes utiliza un modelo autorregresivo para capturar rápidamente el panorama general y luego un pequeño modelo de difusión para refinar los detalles de la imagen. Su herramienta, conocida como HART (abreviatura de transformador autorregresivo híbrido), puede generar imágenes que coinciden o superan la calidad de los modelos de difusión de última generación, pero lo hacen aproximadamente nueve veces más rápido. El proceso de generación consume menos recursos computacionales que los modelos de difusión típicos, lo que permite que HART se ejecute localmente en una computadora portátil o teléfono inteligente comercial. Un usuario solo necesita ingresar un mensaje de lenguaje natural en la interfaz HART para generar una imagen. HART podría tener una amplia gama de aplicaciones, como ayudar a los investigadores a entrenar robots para completar tareas complejas del mundo real y ayudar a los diseñadores a producir escenas sorprendentes para videojuegos. “Si estás pintando un paisaje, y solo pintas todo el lienzo una vez, puede que no se vea muy bien. Pero si pinta el cuadro grande y luego refina la imagen con pinceladas más pequeñas, su pintura podría verse mucho mejor. Esa es la idea básica con HART,” dice Haotian Tang SM ’22, PhD ’25, co-autor principal de un nuevo documento sobre HART. A él se unen el co-autor principal Yecheng Wu, un estudiante de pregrado en la Universidad de Tsinghua; el autor principal Song Han, profesor asociado en el Departamento de Ingeniería Eléctrica y Ciencias de la Computación del MIT (EECS), miembro del MIT-IBM Watson AI Lab y un distinguido científico de NVIDIA; así como otros en el MIT, la Universidad de Tsinghua y NVIDIA. La investigación se presentará en la Conferencia Internacional sobre Representaciones de Aprendizaje. Lo mejor de ambos mundos Se sabe que los modelos de difusión populares, como Stable Diffusion y DALL-E, producen imágenes muy detalladas. Estos modelos generan imágenes a través de un proceso iterativo donde predicen cierta cantidad de ruido aleatorio en cada píxel, restan el ruido, luego repiten el proceso de predicción y “des-noising” varias veces hasta que generan una nueva imagen que está completamente libre de ruido. Debido a que el modelo de difusión elimina el ruido de todos los píxeles de una imagen en cada paso, y puede haber 30 o más pasos, el proceso es lento y computacionalmente costoso. Pero debido a que el modelo tiene múltiples posibilidades de corregir los detalles, se equivocó, las imágenes son de alta calidad. Los modelos autorregresivos, comúnmente utilizados para predecir texto, pueden generar imágenes al predecir parches de una imagen secuencialmente, unos pocos píxeles a la vez. Pueden volver atrás y corregir sus errores, pero el proceso de predicción secuencial es mucho más rápido que la difusión. Estos modelos utilizan representaciones conocidas como tokens para hacer predicciones. Un modelo autorregresivo utiliza un autocodificador para comprimir píxeles de imagen sin procesar en tokens discretos, así como reconstruir la imagen a partir de tokens predichos. Si bien esto aumenta la velocidad de modelización, la pérdida de información que ocurre durante la compresión causa errores cuando el modelo genera una nueva imagen. Con HART, los investigadores desarrollaron un enfoque híbrido que utiliza un modelo autorregresivo para predecir tokens de imágenes comprimidas y discretas, luego un pequeño modelo de difusión para predecir tokens residuales. Los tokens residuales compensan la pérdida de información de las modelizaciones al capturar detalles omitidos por tokens discretos. “Podemos lograr un gran impulso en términos de calidad de reconstrucción. Nuestros tokens residuales aprenden detalles de alta frecuencia, como los bordes de un objeto o el cabello, los ojos o la boca de una persona. Estos son lugares donde los tokens discretos pueden cometer errores,” dice Tang. Debido a que el modelo de difusión solo predice los detalles restantes después de que el modelo autorregresivo haya hecho su trabajo, puede realizar la tarea en ocho pasos, en lugar de los 30 o más habituales que requiere un modelo de difusión estándar para generar una imagen completa. Esta sobrecarga mínima del modelo de difusión adicional permite a HART conservar la ventaja de velocidad del modelo autorregresivo al tiempo que mejora significativamente su capacidad para generar detalles de imagen intrincados. “El modelo de difusión tiene un trabajo más fácil de hacer, lo que lleva a una mayor eficiencia,”, agrega. Superando a los modelos más grandes Durante el desarrollo de HART, los investigadores encontraron desafíos en la integración efectiva del modelo de difusión para mejorar el modelo autorregresivo. Encontraron que la incorporación del modelo de difusión en las primeras etapas del proceso autorregresivo resultó en una acumulación de errores. En cambio, su diseño final de aplicar el modelo de difusión para predecir solo tokens residuales como el paso final mejoró significativamente la calidad de generación. Su método, que utiliza una combinación de un modelo de transformador autorregresivo con 700 millones de parámetros y un modelo de difusión ligero con 37 millones de parámetros, puede generar imágenes de la misma calidad que las creadas por un modelo de difusión con 2 mil millones de parámetros, pero lo hace aproximadamente nueve veces más rápido. Utiliza aproximadamente un 31 por

Leer más »

Adobe e IBM: Entregando experiencias de clientes impulsadas por IA

El año pasado, Adobe e IBM se propusieron ayudar a los clientes a beneficiarse del valor total de la IA generativa en marketing, creación de contenido y gobierno de marca.  Al incorporar las tecnologías IBM watsonx AI a Adobe Experience Platform (AEP), nuestros clientes conjuntos pueden ofrecer personalización a escala optimizando los puntos de contacto de marketing y al mismo tiempo ayudar a garantizar la confianza y la transparencia en el contenido que crean. Mientras tanto, Red Hat OpenShift está haciendo posible administrar y entregar contenido y activos de AEP a la infraestructura híbrida preferida de los clientes. Durante Adobe Summit esta semana, IBM está mostrando cómo estamos colaborando aún más para personalizar el contenido, las comunicaciones y las experiencias para hacer que el marketing sea más relevante para los consumidores. Aportando valor adicional a Adobe Experience Platform Hoy, anunciamos que watsonx ayudará a las aplicaciones basadas en AEP a administrar modelos predictivos de aprendizaje automático para proporcionar información para informar los procesos de toma de decisiones. IBM watsonx admite estas aplicaciones basadas en AEP que ayudan a los especialistas en marketing a comprender las intenciones de los clientes, optimizar los viajes de los clientes y comprender el gasto en marketing en todos los canales. Para ayudar a garantizar que las predicciones hechas a partir de datos que residen en AEP sean confiables y confiables, watsonx.governance rastreará el ciclo de vida del modelo, capturará datos cruciales y estandarizará cómo se evalúan el rendimiento, la equidad y el contenido. Además de la adopción de watsonx para soluciones predictivas de aprendizaje automático, Adobe está explorando el uso de capacidades watsonx.ai compatibles con LLM de código abierto en varios Asistentes de IA de Adobe. Finalmente, Adobe e IBM planean explorar la colaboración para proporcionar LLM personalizados capacitados en las pautas de marca para respaldar Adobe GenStudio for Performance Marketing para la generación de contenido. Explorando un nuevo mundo de IA Agéntica juntos Los agentes de IA están cambiando el juego al analizar los datos en tiempo real y proporcionar información procesable que puede predecir el comportamiento del cliente, optimizar los productos e incluso pronosticar las tendencias del mercado. La capacidad de orquestar e integrar vastas redes de asistentes y agentes dentro de pilas de tecnología híbrida es clave para entregar ROI. En apoyo del nuevo Adobe Experience Platform Agent Orchestrator, un marco para que las empresas administren y orquesten agentes de IA de Adobe y de terceros, Adobe e IBM están fortaleciendo nuestra asociación tecnológica en torno a la IA agentic. Las compañías también tienen la intención de explorar una base de agentes LLM basada en watsonx y planean colaborar en cómo watsonx Orchestrate puede complementar Adobe Experience Platform Agent Orchestrator. IBM Consulting ofrece una transformación impulsada por IA IBM Consulting ayuda a los clientes a impulsar la transformación impulsada por IA en Adobe Creative Cloud, Adobe Document Cloud y Adobe Experience Cloud, lo que garantiza una integración perfecta y el máximo valor de las inversiones de Adobe. Nuestros consultores aportan una profunda experiencia en la industria, la tecnología y el dominio, además de nuestra plataforma de entrega impulsada por IA IBM Consulting Advantage para modernizar los procesos, optimizar las cadenas de suministro de contenido y mejorar la personalización a escala. IBM y Adobe tienen una asociación de 20 años basada en principios compartidos en torno a la confianza y la IA ética, la seguridad y la nube híbrida. Durante ese tiempo, weizing ha visto cómo la creatividad se convierte en un diferenciador clave mientras convergen el contenido, el marketing y la IA. En un mundo donde se les pide a los especialistas en marketing que hagan más con menos y generen contenido a un ritmo sin precedentes, la capacidad de aprovechar los conocimientos de múltiples fuentes de datos y analizar y activar esos datos es clave para crear experiencias personalizadas. A través del poder de watsonx y con el apoyo de la profunda experiencia en consultoría de IBM, los clientes de Adobe pueden desbloquear todo el potencial de sus datos. Ahora cada punto de contacto se puede convertir en una interacción más personal. Visítenos en Adobe Summit en el stand #622 o aprende más aquí. IBM News. N. O. Traducido al español

Leer más »

Presentamos modelos de audio de próxima generación en la API

Un nuevo conjunto de modelos de audio para alimentar a los agentes de voz, ahora disponible para los desarrolladores de todo el mundo. En los últimos meses, weized ha invertido en el avance de la inteligencia, las capacidades y la utilidad de los agentes basados en texto, o sistemas que realizan tareas de forma independiente en nombre de los usuarios, con versiones como Operator, Deep Research, Computer-Using Agents y Responses API con herramientas integradas. Sin embargo, para que los agentes sean realmente útiles, las personas deben poder tener interacciones más profundas e intuitivas con agentes más allá de solo text—usando lenguaje hablado natural para comunicarse de manera efectiva. Hoy, weitare lanza nuevos modelos de audio de voz a texto y de texto a voz en API—, lo que permite construir agentes de voz más potentes, personalizables e inteligentes que ofrezcan un valor real. Nuestros últimos modelos de voz a texto establecen un nuevo punto de referencia de vanguardia, superando las soluciones existentes en precisión y confiabilidad, especialmente en escenarios desafiantes que involucran acentos, entornos ruidosos y velocidades de voz variables. Estas mejoras aumentan la confiabilidad de la transcripción, lo que hace que los modelos sean especialmente adecuados para casos de uso como centros de llamadas de clientes, transcripción de notas de reuniones y más. Por primera vez, los desarrolladores también pueden instruir al modelo de texto a voz para que hable de una manera específica—por ejemplo, “habla como un agente de servicio al cliente simpático”—desbloqueando un nuevo nivel de personalización para los agentes de voz. Esto permite una amplia gama de aplicaciones personalizadas, desde voces de servicio al cliente más empáticas y dinámicas hasta narración expresiva para experiencias creativas de narración. Lanzamos nuestro primer modelo de audio en 2022 y desde entonces, WeiVe se ha comprometido a mejorar la inteligencia, la precisión y la fiabilidad de estos modelos. Con estos nuevos modelos de audio, los desarrolladores pueden construir sistemas de voz a texto más precisos y robustos y voces de texto a voz expresivas y características, todo dentro de la API. Calma Surfer Profesional Caballero medieval Verdadero aficionado al crimen Historia de la hora de dormir Más sobre nuestros últimos modelos de audio Nuevos modelos de voz a texto Weirre presenta nuevo gpt-4o-transcribe y gpt-4o-mini-transcribe modelos con mejoras en la tasa de error de palabras y un mejor reconocimiento y precisión del idioma, en comparación con los modelos Whisper originales. gpt-4o-transcribedemuestra un rendimiento mejorado de la Tasa de Error de Word (WER) sobre los modelos Whisper existentes en múltiples puntos de referencia establecidos, lo que refleja un progreso significativo en nuestra tecnología de voz a texto. Estos avances se derivan directamente de innovaciones específicas en el aprendizaje por refuerzo y una amplia formación intermedia con diversos conjuntos de datos de audio de alta calidad. Como resultado, estos nuevos modelos de voz a texto pueden capturar mejor los matices del habla, reducir los reconocimientos erróneos y aumentar la confiabilidad de la transcripción, especialmente en escenarios desafiantes que involucran acentos, entornos ruidosos y velocidades de voz variables. Estos modelos están disponibles ahora en el API de voz a texto(se abre en una ventana nueva).enesptfrcmndejaidruittrarhikonlplviuksvdanbthromsbnmrtateguurmlknswLanguage00.10.20.30.40.50.60.70.80.911.11.2Word Error Rate (WER) — lower is bettergpt-4o-transcribegpt-4o-mini-transcribewhisper-large-v2whisper-large-v3Reduced Transcription Error in Latest Speech-to-Text Models on FLEURS Word Error Rate (WER) mide la precisión de los modelos de reconocimiento de voz al calcular el porcentaje de palabras transcritas incorrectamente en comparación con una transcripción de referencia, la WER es mejor y significa menos errores. Nuestros últimos modelos de voz a texto logran un WER más bajo en todos los puntos de referencia, incluido FLEURS (Few-shot Learning Evaluation of Universal Representations of Speech)—, un punto de referencia de voz multilingüe que abarca más de 100 idiomas utilizando muestras de audio transcritas manualmente. Estos resultados demuestran una precisión de transcripción más fuerte y una cobertura de lenguaje más robusta. Como se muestra aquí, nuestros modelos superan constantemente a Whisper v2 y Whisper v3 en todas las evaluaciones de idiomas.enesptfrcmndejakoitidrutrarhinlLanguage00.020.040.060.080.10.120.140.160.180.2Word Error Rate (WER) — lower is bettergpt-4o-transcribegpt-4o-mini-transcribegemini-2.0-flashscribe-v1nova-2 & nova-3Word Error Rate Comparison on FLEURS Across Leading Models En FLEURS, nuestros modelos ofrecen un menor WER y un sólido rendimiento multilingüe. Un WER más bajo es mejor y significa menos errores. Como se muestra aquí, nuestros modelos coinciden o superan a otros modelos líderes en la mayoría de los idiomas principales. Nuevo modelo de texto a voz Weiosre también lanza un nuevo gpt-4o-mini-tts modelo con mejor dirigibilidad. Por primera vez, los desarrolladores pueden “instruir” el modelo no solo sobre qué decir, sino también cómo para decirlo, puede habilitar experiencias más personalizadas para casos de uso que van desde el servicio al cliente hasta la narración creativa. El modelo está disponible en el API de texto a voz(se abre en una ventana nueva). Tenga en cuenta que estos modelos de texto a voz se limitan a voces preestablecidas artificiales, que supervisamos para garantizar que coincidan constantemente con los preajustes sintéticos. Innovaciones técnicas detrás de los modelos Preentrenamiento con conjuntos de datos de audio auténticos Nuestros nuevos modelos de audio se basan en las arquitecturas GPT‑4o y GPT‑4o-mini y están ampliamente preentrenados en conjuntos de datos especializados centrados en audio, que han sido críticos para optimizar el rendimiento del modelo. Este enfoque específico proporciona una visión más profunda de los matices del habla y permite un rendimiento excepcional en tareas relacionadas con el audio. Metodologías avanzadas de destilación Hemos mejorado nuestras técnicas de destilación, permitiendo la transferencia de conocimiento de nuestros modelos de audio más grandes a modelos más pequeños y eficientes. Aprovechando metodologías avanzadas de juego automático, nuestros conjuntos de datos de destilación capturan de manera efectiva dinámicas conversacionales realistas, replicando interacciones genuinas de asistente del usuario. Esto ayuda a nuestros modelos más pequeños a ofrecer una excelente calidad de conversación y capacidad de respuesta. Refuerzo del paradigma de aprendizaje Para nuestros modelos de voz a texto, hemos integrado un paradigma de aprendizaje por refuerzo (RL), que lleva la precisión de la transcripción a niveles de vanguardia. Esta metodología mejora drásticamente la precisión y reduce la alucinación, haciendo que nuestras soluciones de voz a texto sean

Leer más »

Samsung presenta varias soluciones HVAC en ISH 2025 bajo el lema “Connected Flow”

La feria demostrará cómo se integran los nuevos productos y soluciones de Samsung para crear un entorno sin fisuras en espacios residenciales y comerciales Samsung Electronics Co., Ltd. ha anunciado hoy su participación en ISH 2025[1], la feria líder mundial del sector sanitario y HVAC (calefacción, ventilación y aire acondicionado), que se celebrará del 17 al 21 de marzo en Frankfurt. Samsung mostrará soluciones innovadoras diseñadas para mejorar el confort, la comodidad y la conectividad en entornos residenciales y comerciales. “Este año marca nuestra segunda participación en ISH después de nuestro debut en 2023, y estamos muy contentos de presentar productos más avanzados junto con una variedad de soluciones inteligentes como SmartThings Pro y b.IoT Lite,[2] que se alinean con el tema “Connected Flow”, dijo Wim Vangeenberghe, vicepresidente de Samsung Electronics Air Conditioner Europe B.V. “Es una oportunidad significativa para mostrar nuestras innovaciones de próxima generación y subrayar nuestro compromiso de ofrecer experiencias de vida más inteligentes”. Exposición de productos: presentando soluciones avanzadas de HVAC En ISH 2025, Samsung expondrá una amplia gama de sistemas y soluciones, como Slim Fit EHS ClimateHub y Mono R290, controladores táctiles, módulos Wi-Fi y otras soluciones. Uno de los aspectos más destacados será la presentación de los nuevos modelos de aire acondicionado Bespoke AI WindFree, diseñados para mejorar el confort y la facilidad de uso. Los nuevos climatizadores Bespoke AI WindFree para 2025 incorporan el modo AI[3] Fast & Comfort Cooling, que emplea tecnología de IA para proporcionar una refrigeración rápida y satisfacer las preferencias de los usuarios. Al activar el modo, Fast Cooling primero reduce rápidamente la temperatura ambiente. A continuación, la tecnología de IA analiza continuamente el ambiente interior y exterior para detectar si se está alcanzando la temperatura preferida por el usuario, y entonces cambia su modo a WindFree Cooling. Además, la nueva tecnología Comfort Drying permite deshumidificar sin corrientes de aire frío. Mientras que los modos de secado convencionales reducen la temperatura establecida para la deshumidificación, Comfort Drying mantiene un nivel de humedad de confort por debajo de las temperaturas establecidas por el usuario, satisfaciendo a los clientes que no quieren sentir frío durante la deshumidificación. Los usuarios también pueden utilizar el modo AI Energy en la aplicación SmartThings para reducir el consumo de energía hasta en un 30%.[4] Esto es posible ya que la frecuencia de rotación del compresor está controlada por medio de análisis de IA, evitando paradas o aumentos repentinos. Reconocimiento a la excelencia en el diseño Del mismo modo, Samsung ha anunciado que sus unidades interiores Slim Fit EHS ClimateHub —el ClimateHub Mono y la Hydro Unit Mono[5]— han ganado el prestigioso premio Designplus en la categoría “Agua y Eficiencia +” en ISH 2025. Este premio reconoce los productos que combinan un diseño innovador con la tecnología, centrándose en nuevos conceptos que aportan valor añadido a través de avances tecnológicos. Estos modelos tienen un diseño slim fit[6] que permite instalar el producto en varios lugares y coordinarlo con cualquier parte de la casa. A pesar de su diseño estilizado, incluyen de serie componentes clave como filtros magnéticos, válvulas de tres vías y un vaso de expansión para calefacción, lo que garantiza una instalación rápida. Además, vienen con AI Home 7”[7], una pantalla expansiva que mejora significativamente la comodidad. Permite a los usuarios controlar intuitivamente la temperatura y los ajustes. Asimismo, los usuarios pueden supervisar el estado y el uso[8] de energía de los sistemas solares fotovoltaicos (PV) conectados mediante la vista general de zonas, así como controlar otros electrodomésticos[9] conectados a SmartThings. Integración perfecta: SmartThings Pro para um entorno empresarial avanzado En línea con el tema “Connected Flow”, Samsung también demostrará los beneficios de las soluciones inteligentes utilizando SmartThings Pro[10] a través de varios escenarios y espacios. Los visitantes verán cómo SmartThings Pro facilita la creación de un entorno empresarial personalizado con electrodomésticos Samsung y algunos dispositivos de terceros —como bombillas y células solares— y facilita la monitorización integral de la energía en todo el hogar. Además, Samsung mostrará SmartThings Pro y b.IoT Lite para entornos empresariales y soluciones para espacios comerciales como hoteles y tiendas minoristas. Estas soluciones mejoran la eficiencia operativa, permitiendo una gestión más inteligente de la calefacción, la refrigeración y el consumo de energía. Samsung mantiene su compromiso de expandir su negocio de HVAC a nivel global y continuar innovando y proporcionando soluciones climáticas innovadoras a clientes de todo el mundo. Los visitantes del stand de Samsung en ISH 2025 tendrán la oportunidad de explorar nuevos productos repletos de estas tecnologías, relacionarse con representantes y experimentar de primera mano el futuro de las soluciones HVAC. [1] La “Internationale Sanitär- und Heizungsmesse” (ISH) se traduce del alemán como “Feria Internacional de Saneamiento y Calefacción”. [2] b IoT Lite es una solución de control integrada diseñada para optimizar el funcionamiento de los sistemas VRF en edificios pequeños y medianos. Como plataforma basada en servidor, proporciona funcionalidades avanzadas como el mantenimiento predictivo y la gestión energética. [3] Para utilizar AI Auto Cooling, se requiere una conexión Wi-Fi y la cuenta Samsung SmartThings. [4] Las pruebas se realizaron en el laboratorio de entorno residencial de 132 m² de Samsung a una temperatura de 35 °C/24 °C (bulbo seco/bulbo húmedo, KS C 9306: aire acondicionado). Resultados proporcionados e interpretados por Intertek, comparando el consumo de energía entre el modo de energía AI encendido y apagado en modo confort AI del modelo AR07D9181HZN. El ahorro real puede variar según los patrones de uso y el entorno, y la temperatura establecida puede aumentar hasta 2 grados. Requiere el uso de la aplicación SmartThings y una cuenta Samsung. [5] El ClimateHub Mono tiene un depósito de agua integrado, mientras que el Hydro Unit Mono es una unidad de pared sin depósito de agua. [6] Dimensiones: ClimateHub Mono = 598(An)x1.850(Al)x600(Pr)mm, Hydro Unit Mono = 530(An)x840(Al)x350(Pr)mm. [7] AI Home se refiere a la pantalla LCD de 7” del producto. No significa que todos los servicios disponibles en el AI Home sean IA o generen información o resultados utilizando IA. Algunas funciones accesibles a través del AI Home utilizan algoritmos basados en IA, que pueden actualizarse periódicamente para mejorar la precisión. Los algoritmos basados en IA pueden generar información incompleta o incorrecta. Se requiere una conexión Wi-Fi y una cuenta Samsung. Es posible que tenga que utilizar un dispositivo independiente, por ejemplo, su computadora

Leer más »

La revolución generativa de la IA que remodela el futuro de los lugares de trabajo

Whitepaper explora cómo la IA generativa automatiza tareas complejas y también actúa como asistente estratégico, empoderando a los empleados y fomentando el crecimiento holístico. En una era donde los avances tecnológicos están remodelando el tejido mismo de nuestros lugares de trabajo, la IA generativa se destaca como una fuerza transformadora. Este documento técnico, “La Revolución Generativa de la IA: Reformando el Futuro del Lugar de Trabajo,” profundiza en el profundo impacto de la IA generativa en las empresas modernas. A medida que navegamos en este cambio de paradigma, es crucial comprender cómo la IA generativa no solo automatiza tareas complejas, sino que también actúa como asistente estratégico, empoderando a los empleados y fomentando el crecimiento holístico del lugar de trabajo. La capacidad de IA generativa para realizar actividades como conversaciones contextuales, orquestación de conocimiento y traducción de idiomas, que alguna vez fueron el dominio de los humanos, lo posiciona como una tecnología fundamental en el lugar de trabajo digital actual. A diferencia de las tecnologías tradicionales que sirven únicamente como impulsores de la productividad, la IA generativa mejora tanto la eficiencia como el bienestar de los empleados al optimizar los flujos de trabajo y la asignación de recursos. Este documento técnico explora el estado actual de la adopción generativa de IA en varios segmentos del lugar de trabajo, destacando su impacto significativo en el tratamiento de las necesidades de la empresa y los desafíos de los empleados. Prevé la transformación de estos segmentos con IA generativa en su núcleo, abordando problemas prevalentes como la fatiga del piloto y presentando factores clave de éxito para un despliegue efectivo. A medida que avanzamos, es esencial que los líderes del lugar de trabajo participen activamente en el proceso de toma de decisiones, defendiendo la causa del desempeño de los empleados y aprovechando todo el potencial de la IA generativa. Soluciones de Lugar de Trabajo Digital de LenovooVa está haciendo precisamente eso. Ofrecemos soluciones y servicios innovadores que aprovechan la IA generativa a través de nuestra plataforma tecnológica Care of One™. Este enfoque optimiza la tecnología del usuario final en el lugar de trabajo, mejorando su experiencia, aumentando la productividad y logrando la optimización de costos. Al aprovechar Gen AI en nuestra solución, podemos dirigir a las organizaciones hacia un futuro en el que los líderes no solo aumenten la productividad sino que también mejoren la experiencia general de los empleados, asegurando un crecimiento y éxito sostenibles. Este documento técnico del Grupo Everest es apoyado por Lenovo. Esperamos que este informe proporcione información y orientación valiosas para las empresas que buscan adoptar la revolución generativa de la IA y remodelar el futuro de sus lugares de trabajo. Descargue el documento técnico «The Generative AI Revolution: Reshaping the Future of Workplace» Lenovo News. V. G. Traducido al español

Leer más »

Microsoft Ability Summit 2025: Accesibilidad en la era de la IA

Hoy, organizamos la 15a Cumbre anual de Microsoft Ability, con más de 20,000 asistentes de 164 países que se unen virtualmente para discutir el futuro de la IA y la accesibilidad.  Microsoft tiene un compromiso de larga data de invertir en accesibilidad, basado en nuestro modelo de negocio y que se remonta a más de tres décadas desde las primeras características de accesibilidad en Windows 95 y continúa hoy con nuevas funcionalidades de hardware y software impulsadas por AI. Estamos innovando más rápido que nunca y las personas con discapacidad continúan liderar el camino. La accesibilidad es un derecho fundamental para las personas con discapacidad y facilita la tecnología para todos. Vemos esto reflejado en cómo los clientes están utilizando las tecnologías de Microsoft en todo el mundo. Copilot para Microsoft 365 está desbloqueando la productividad en el lugar de trabajo como nunca antes, más de 10 millones de personas usan Edge cada mes para tener la web Leer en voz alta1 Millones de personas usan Lector Inmersivo para que las páginas web sean más fáciles de leer y socios como Tobii Dynavox y Olimpiadas Especiales están llevando la IA a personas con discapacidades a nivel mundial. ¡Y estos son solo algunos de los aspectos más destacados de lo que compartimos hoy! Aquí hay un resumen rápido de los nuevos productos, características y programas de accesibilidad anunciados en el Ability Summit 2025. ¿Qué hay de nuevo en 2025? Anunciamos que el Joystick Adaptativo Xbox ahora está disponible para su compra exclusivamente en Tienda Microsoft. Con más de 429 millones de jugadores con discapacidades en todo el mundo, sabemos que cada jugador tiene necesidades y preferencias únicas sobre cómo elegir jugar. El Joystick Adaptable de Xbox es un controlador singular y con cable diseñado principalmente para satisfacer las necesidades de los jugadores con movilidad limitada. Su versatilidad ayuda a los jugadores a incorporarlo sin problemas en sus configuraciones de juego existentes. Construido con la comunidad Gaming and Disability que informa el desarrollo de productos Xbox desde el principio. El joystick se une a nuestra familia de accesorios adaptativos, incluidos el mouse, el bolígrafo, el kit adaptativo y el Xbox Adaptive Controller. Para más detalles visita Soporte de Xbox. Y todo nuestro hardware de Microsoft viene en envases diseñados para ser accesibles y sostenibles. ¡No más conchas de plástico! Para ayudar a otros con envases accesibles, hoy en la Cumbre, el Equipo de Embalaje y Contenido de Microsoft publicó su Guía de Diseño de Embalaje Accesible, que ofrece pautas prácticas, mejores prácticas y estrategias para crear envases accesibles y fomentar una experiencia de cliente confiable. En la Cumbre, los equipos y socios de Microsoft también compartieron formas en que están trabajando para avanzar aún más en la accesibilidad a través de la tecnología: Video YouTube Todo este progreso es posible debido a las personas que diseñan tecnología teniendo en cuenta la accesibilidad. De esta manera, la tecnología beneficia a todos, creando un lugar de trabajo más productivo y eficiente. Es hermoso ver eso reflejado en este perfil de Dave Dame‘, Director Senior de Accesibilidad y Factores Humanos en Microsoft, donde compartió cómo la tecnología accesible lo ayuda a prosperar como líder. Adelante Durante más de 30 años, Microsoft se ha centrado en la accesibilidad en nuestros productos. La accesibilidad facilita nuestras herramientas y tecnologías para todos y acelera la innovación para el mundo. Desde la introducción de Sticky Keys y el reconocimiento de voz en Windows 95 hasta Seeing AI en 2016 y más allá, las innovaciones de accesibilidad han beneficiado a las personas de maneras para las que diseñamos y formas que nunca podríamos haber esperado. Solo piense en cómo los subtítulos ahora son invaluables para todos los que ven videos y llamadas. La IA tiene el potencial de crear avances significativos en todos los sectores de nuestra economía y sociedad. Continuaremos siendo responsables y basados en nuestro enfoque a medida que trabajamos para llevar la última tecnología a las personas que más pueden beneficiarse de ella. Ya sea que se trate de su primera o decimoquinta Cumbre de Habilidad, gracias por unirse y esperamos que haya adquirido una nueva característica, habilidad o pepita que lo ayude a usted, a su comunidad o a su organización a aprovechar al máximo la tecnología. Todo el contenido será disponible para ver después del evento. Vamos a avanzar juntos. Microsoft Blog. J. F. L. Traducido al español

Leer más »

Samsung Electronics exhibe Innovaciones de TV con IA en el Seminario Tecnológico Europeo 2025

Los expertos de campo obtienen una vista previa exclusiva de los últimos productos de audio y pantalla de Samsung, con un enfoque en las tecnologías de IA, antes del lanzamiento al mercado Samsung Electronics, el fabricante líder mundial de TV durante 19 años consecutivos, está iniciando los Seminarios Tecnológicos 2025 en Frankfurt, Alemania, desde marzo de 18–19, dando a los profesionales de los medios y la industria un primer vistazo exclusivo a sus innovaciones de TV y audio más avanzadas impulsadas por IA antes de que lleguen al mercado. Ahora en su 14o año, el seminario ofrece a los expertos de campo experiencias prácticas de la última línea de TV de Samsung antes de su lanzamiento oficial. Este año, el seminario mostrará tecnologías relacionadas con la calidad de imagen impulsada por IA, el sonido inmersivo y las experiencias de visualización de próxima generación. Revolucionando la Experiencia de Pantalla con IA Samsung TVs 2025 contará con potentes funciones impulsadas por IA diseñadas para mejorar la experiencia del usuario. En el corazón de esta innovación está Visión AI, una plataforma avanzada que personaliza y simplifica la forma en que los usuarios interactúan con sus pantallas. Características como Haga clic para Buscar permite a los espectadores acceder instantáneamente a información relevante sobre el contenido en pantalla, mientras Traducir en Vivo proporciona traducciones de audio en tiempo real para una visualización global perfecta. Remoto Rápido transforma un teléfono inteligente en un centro de control, ofreciendo una experiencia más intuitiva y conectada. Samsung también ha introducido un sin costuras experiencia multidispositivo, permitiendo el intercambio y control de contenido sin esfuerzo en dispositivos Samsung. Características como Almacenamiento Compartir, lo que permite transferencias de archivos fáciles entre dispositivos Galaxy y TV, y Multi Control, que permite a los usuarios operar múltiples dispositivos Samsung con un solo teclado y mouse, crear un ecosistema más conectado y optimizado. Calidad de imagen OLED y Neo QLED de Próxima Generación Samsung 2025 TV OLED introducir Glare Gratis 2.0, minimizando los reflejos para una experiencia cristalina e inmersiva. Desarrollado por el Procesador NQ4 AI Gen3 y 128 redes neuronales, AI Upscaling agudiza los detalles con notable precisión, mientras HDR OLED la tecnología aumenta el brillo y el contraste. El 2025 Neo QLED 4K características de la alineación atenuación local avanzada para negros más profundos y precisión HDR mejorada. AI Motion Enhancer, anteriormente exclusivo de los modelos 8K, ahora está disponible en televisores 4K, ofreciendo imágenes ultra suaves ideales para deportes y contenido lleno de acción. Expandiendo la Cartera de TV de Estilo de Vida La línea de TV Lifestyle de Samsung sigue empujando los límites del diseño y la innovación, combinando tecnología de vanguardia con estética doméstica personalizada. El Frame Pro redefine tanto el entretenimiento como el hogar, ahora con Mini-LED Atenuación Local para un brillo mejorado y una calidad de imagen realista. Con acceso a más de 3.000 obras de arte digitales a través de Tienda de Arte Samsung, los usuarios pueden transformar instantáneamente su TV en una impresionante galería personal. La adición de Wi-Fi 7 asegura una instalación perfecta, reduciendo el desorden de cables para una configuración más limpia y sofisticada. Mientras tanto, El Premiere 5 ofrece una experiencia de proyección compacta pero potente con interacción táctil, lo que la hace ideal para juegos, educación y entretenimiento doméstico inmersivo. Diseñado para la versatilidad, ofrece imágenes inmersivas en una variedad de entornos, desde aulas hasta teatros en casa y mucho más. Presentamos la Próxima Era del Sonido Inmersivo Samsung está redefiniendo la innovación de audio con Audio Eclipsa, la primera tecnología de sonido IAMF 3D de la industria desarrollada en colaboración con Google. Este avanzado sistema optimiza el sonido espacial mediante el análisis de reflexiones ambientales, ofreciendo una experiencia de sonido envolvente profundamente inmersiva. En el Seminario Tecnológico 2025, los asistentes estarán entre los primeros en experimentar Eclipsa Audio de primera mano y verán su integración perfecta con las últimas barras de sonido de Samsung para una experiencia de cine en casa de próximo nivel. “En Samsung, nos comprometemos a hacer que todos los dispositivos que usas sean más inteligentes y estén más conectados,” dijo Benjamin Braun, Director de Marketing de Samsung Europeans. “Ya sea que esté utilizando Vision AI para optimizar automáticamente la configuración de su TV o los servicios impulsados por IA para simplificar las actividades como la búsqueda o la administración del hogar, estamos mostrando cómo la tecnología puede sentirse más personal y tangible que nunca Después del evento de Frankfurt, Samsung llevará la serie Tech Seminar a regiones clave como el sudeste de Asia y América Latina, brindando a más profesionales de la industria avances prácticos exclusivos de sus innovaciones de audio y pantalla impulsadas por IA antes de su lanzamiento al mercado. ▲ Kevin Cha del Laboratorio de Soluciones de Calidad de Imagen de Samsung explica cómo la tecnología Glare Free 2.0 y la tecnología OLED HDR mejoran la comodidad de visualización. ▲ Haylie Jung de Samsung Picture Quality Solution Lab destaca la atenuación local avanzada y las mejoras impulsadas por IA en el Neo QLED 4K 2025, con el procesador NQ4 AI Gen3. ▲ Steffen Greb de ECSO de Samsung demuestra Vision AI y una conectividad multidispositivo perfecta en todos los productos de Samsung. ▲ Deokhwan Kim de Samsungan Picture Quality Solution Lab demuestra las capacidades táctiles de The Premiere 5’s. ▲ Hyungwoo Kim de Samsungan Sound Device Lab muestra Eclipsa Audio, la tecnología de audio 3D de Samsung, que permite a los usuarios disfrutar de una experiencia de sonido tridimensional inmersiva. Samsung News. Traducido al español

Leer más »

Hacer que la IA sea más accesible en el fútbol

La tecnología está mejorando el fútbol –, desde ayudar a los árbitros a tomar decisiones más precisas hasta desarrollar mejores tácticas en el campo. ETH Zurich y la FIFA están explorando cómo la IA puede hacer que estos avances sean más accesibles para las competiciones de todo el mundo. En Breve La inteligencia artificial (IA) ya se está utilizando en el fútbol hoy en día, analizando movimientos individuales y ayudando a los árbitros a evaluar si alguien estaba fuera de juego o no. Semi-Automated Offside Technology (SAOT) es utilizado por Video Assistant Referees (VARs) para tomar decisiones más justas. El sistema funciona mediante el uso de seguimiento digital en tiempo real de los movimientos y posiciones de los jugadores. Hasta ahora, los sistemas asistidos por computadora solo han estado al alcance de las grandes competiciones de fútbol. Después de todo, estos sistemas son complejos y caros: se requieren de 10 a 12 cámaras estáticas que registran la acción desde varios ángulos para cada estadio. “Todas las cámaras deben estar perfectamente sincronizadas para producir una imagen digital precisa,” dice Tianjian Jiang, estudiante de doctorado en ciencias de la computación. Jiang está llevando a cabo investigaciones en el Laboratorio de Tecnologías Interactivas Avanzadas (AIT) de ETH Zurich. Junto con colegas del laboratorio, está ayudando a FIFA – el Fédération Internationale de Football Association – para explorar soluciones tecnológicas que aumentarían el acceso a la IA en el fútbol. La idea subyacente es simplificar el sistema hasta tal punto que, en lugar de múltiples cámaras, solo requiere una. Después de todo, cada competencia profesional tiene una cámara que se utiliza para grabar y transmitir los juegos. Esta cámara de transmisión se encuentra en la línea de contacto y es la fuente de casi tres cuartas partes de todas las imágenes de un juego televisado. Secuencias de juego totalmente digitalizadas Todavía pasarán unos años antes de que el análisis de video de un juego funcione de manera confiable con una sola cámara, pero el AIT Lab ahora ha dado un paso decisivo en esta dirección. Los investigadores han digitalizado completamente casi 50 minutos de grabaciones de video de varios juegos en la Copa Mundial de la FIFA 2022. El conjunto de datos ETH, conocido como página externaWorldPose, contiene más de 2,5 millones de poses de jugadores individuales en tres dimensiones. Por lo tanto, es posible rastrear a todos los jugadores en el campo, de ambos equipos, al mismo tiempo y analizar dónde están de pie y qué están haciendo con o sin la pelota. En el aprendizaje automático, esto se conoce como estimación de pose. A diferencia de un ser humano, una computadora no puede ver y, por lo tanto, se basa en datos para detectar dónde las personas u objetos están dentro de un espacio y cómo se mueven. A través de un entrenamiento constante, la computadora aprende a procesar e interpretar información a partir de datos de imágenes y videos. La visión por computadora requiere grandes volúmenes de datos, que la computadora analiza repetidamente hasta que identifica diferencias y finalmente detecta patrones. Los algoritmos permiten que la máquina aprenda por sí misma en lugar de tener que ser programada por humanos. 3D con una sola cámara Ya existen algoritmos que pueden generar objetos y cuerpos tridimensionales directamente a partir de una imagen bidimensional. En “monocular pose estimation” (MPE), una computadora usa imágenes de una sola cámara para detectar dónde están las personas u objetos en el espacio, cómo se mueven y hacia dónde. Por lo tanto, la computadora analiza la pose y la trayectoria de cada jugador sin el tipo de información de profundidad que proporcionaría una cámara 3D o varias cámaras. Los métodos de MPE existentes ahora son muy buenos para predecir las poses de jugadores individuales. Sin embargo, tienen problemas para rastrear a varias personas al mismo tiempo – particularmente a grandes distancias, como las cubiertas por futbolistas durante un juego de 90 minutos. “Queremos encontrar un algoritmo que sea lo suficientemente preciso incluso a grandes distancias,” dice Jiang. Más difícil de lo esperado La FIFA se acercó a ETH Zurich en 2021 en busca de un conjunto de datos para que las computadoras pudieran ser entrenadas para estimar poses. También querían saber qué tan buenos eran realmente los métodos de MPE existentes. Con este fin, la FIFA proporcionó a los investigadores varias secuencias de video de la Copa Mundial 2022 en Qatar, que se grabaron con diferentes cámaras (estacionarias y móviles), así como datos adicionales, como las dimensiones exactas del campo de juego dentro de los estadios individuales. Esta tarea mantuvo ocupados a los investigadores de ETH durante tres años – una eternidad en el mundo de la IA que avanza rápidamente. “Al principio, pensamos que podríamos obtener rápidamente un conjunto de datos preciso,” recuerda Jiang. “Ya teníamos un sistema que podía representar poses y trayectorias precisamente en forma digital, y asumimos que esto sería fácil de aplicar a las imágenes de la Copa del Mundo.” Pronto se dieron cuenta de que existe una gran diferencia entre simplemente digitalizar secuencias individuales y aplicar el sistema a un conjunto de datos más grande. Por ejemplo, los desafíos técnicos incluyeron obstrucción del jugador, desenfoque de movimiento y problemas con la calibración de la cámara. Las distorsiones de las diversas cámaras o el zoom de la cámara de transmisión también demostraron ser complicadas. Las líneas deben coincidir perfectamente Para garantizar que los jugadores digitales terminaran superpuestos con precisión sobre los jugadores reales, los investigadores primero tuvieron que calibrar y comparar las imágenes de video de varias cámaras estáticas de un estadio – con diferentes ángulos. La calibración sirve para determinar con precisión las propiedades específicas de cada cámara, como la distancia focal o el tamaño del sensor, y para ajustar la cámara para que registre la realidad con la mayor precisión posible. Esto se debe a que cada cámara sufre ciertas distorsiones debido a su óptica, como cuando se trata de representar líneas rectas. Las líneas de referencia digitales se colocan sobre la imagen

Leer más »

IBM contribuye con proyectos clave de código abierto a la Fundación Linux para avanzar en la participación de la comunidad de IA

IBM está contribuyendo con 3 proyectos de código abierto—Docling, Data Prep Kit y BeeAI— al Fundación Linux.  Este movimiento señala no solo el crecimiento potencial de estos proyectos, sino también a los IBM compromiso continuo a la IA de código abierto. “Continuamos nuestra larga historia de contribuir con proyectos de código abierto para garantizar que sean fáciles de consumir y que sea fácil para otros—no solo para nosotros—contribuir,” dice Brad Topol, Ingeniero Distinguido de IBM y Director de Open Technologies, en una entrevista. Topol también preside la Junta de Gobierno de la LF AI & Data Foundation, un grupo alojado bajo la Fundación Linux centrado en el avance de la innovación de código abierto a través de la inteligencia artificial y las tecnologías de datos. Cada proyecto se centra en una parte esencial de la pila de desarrollo de IA. A medida que la industria madura, la innovación impulsada por la comunidad de desarrolladores más amplia en estas áreas es clave para preparar la empresa de IA. Docando, que se lanzó y de código abierto hace un año, aborda un límite que muchos modelos de cimientos tienen para uso empresarial. Si bien los modelos han sido entrenados en cada fragmento de información disponible públicamente, gran parte de los datos valiosos para las empresas se encuentran en documentos que no son accesibles en línea: PDF, informes anuales, cubiertas de diapositivas. Docling agiliza el proceso de convertir documentos no estructurados en archivos JSON y Markdown que son fáciles para modelos de idiomas grandes (LLM) y otros modelos de fundación para digerir. Desde su lanzamiento, Docling ha ganado tracción, ganando más de 23,000 estrellas en GitHub. Cuando se combina con generación aumentada por recuperación (RAG) técnicas, Docling mejora las salidas LLM. “Docling puede hacer que los LLM respondan mucho mejor y mucho más específicos a sus necesidades,” dice Topol. Además de ganar tracción en la comunidad de código abierto, Docling ayuda a impulsar Red Hat® Enterprise Linux® AI, donde permite el control consciente del contexto y admite la nueva tubería de ingestión de datos de las plataformas. Por supuesto, otro paso crítico en la implementación de IA es la preparación de datos. IBM Kit de Preparación de Datos, que fue lanzado en 2024, también ha ganó popularidad: ayuda a limpiar, transformar y enriquecer datos no estructurados para casos de pre-entrenamiento, ajuste fino y uso de RAG. Data— no estructurado, como bases de datos, páginas web y archivos de audio que son más complejos de analizar y extraer información—, representa el 90% de todos los datos generados por la empresa según para IDC, los LLM pueden analizar grandes cantidades de datos no estructurados y extraer información relevante para generar y probar nuevas ideas de productos o servicios, por ejemplo, en horas en lugar de meses. Data Prep Kit está diseñado para simplificar la preparación de datos para aplicaciones LLM—actualmente enfocado en modelos de código y lenguaje—soporte de pre-entrenamiento, ajuste fino y casos de uso RAG. Construido sobre marcos de procesamiento distribuidos familiares como Spark y Ray, brinda a los desarrolladores la flexibilidad de crear módulos personalizados que se escalan fácilmente, ya sea que se ejecuten en una computadora portátil o en todo un centro de datos. “Solíamos decir, basura adentro, basura afuera. Definitivamente quieres que entren buenos datos, dice” Topol. “Este no es un proyecto glamoroso en comparación con algunas de las otras partes del ciclo de vida de LLM, pero es increíblemente crítico, increíblemente valioso y un imprescindible.” Data Prep Kit está comenzando a impulsar las ofertas de IBM y ahora se encuentra en IBM in TechPreview de IBM Data Integration for Unstructured Data. Finalmente, a medida que los agentes están ganando tracción, IBM lanzó BeeAI. BeeAI puede ser utilizado por los desarrolladores para descubrir, ejecutar y componer agentes de IA desde cualquier marco, incluidos CrewAI, LangGraph y AutoGen. El proyecto incluye el Protocolo de Comunicación del Agente, que potencia la capacidad de descubrimiento e interoperabilidad del agente, y el marco BeeAI, su marco nativo para agentes de construcción en Python o TypeScript, optimizado para modelos de código abierto. “Hay otros marcos para agentes de construcción,” dice Topol. “Pero lo bueno de BeeAI es que proporciona una plataforma donde también puede conectar agentes de esas otras tecnologías. BeeAI no solo trabaja con sus propios agentes.” Al contribuir con estos proyectos a la Fundación Linux, IBM tiene como objetivo ampliar su alcance y atraer nuevos contribuyentes y usuarios. “Los proyectos están en un lugar maravilloso donde las personas pueden invertir sus recursos. Hace una gran diferencia,” dice Topol. “Es como una póliza de seguro. El gobierno abierto también hace que las personas se sientan mejor que si contribuyen, con el tiempo, van a ganar sus rayas a través de lo que llamamos meritocracia y ganar un papel más influyente en el proyecto. También pueden sentirse seguros de que el proyecto no hará ningún cambio drástico de licencia de código abierto que pueda impedir drásticamente el uso futuro del proyecto.” Señalando a Kubernetes—, un sistema de orquestación de contenedores de código abierto desarrollado originalmente por Google y luego donado a la Cloud Native Computing Foundation—Topol señala cómo su adopción aumentó después de convertirse en parte de un modelo de gobierno abierto, convirtiéndolo finalmente en un estándar de la industria. Tiene ambiciones audaces para estos proyectos. “Un proyecto de código abierto con un ecosistema poderoso es, francamente, imparable,”, dice. Obtenga más información sobre proyectos como Docling, Data Prep Kit y BeeAI en el Conferencia IBM TechXchange 6-9 de octubre de 2025, en Orlando, FL. Los expertos, incluidos los comprometidos y colaboradores del proyecto, estarán en el sitio para presentaciones, aprendizaje práctico y oportunidades de creación de redes, con más de 30 proyectos de código abierto exhibidos. La inscripción se abre el 4 de abril. IBM News. A. N. Traducido al español

Leer más »
Scroll al inicio