El Portal de las Tecnologías para la Innovación

Categoría: Inteligencia Artificial News

Super 99 y la IA genérica de SAP llevan el negocios a otro nivel

El líder en retail, Super 99 en Panamá, ha decidido utilizar la Inteligencia Artificial (IA) Generativa como una herramienta que proporcione información que ayude a su junta directiva a tomar decisiones mejor informadas, no que la IA tome las decisiones por ellos Centroamérica y Caribe 26 de mayo de 2025. — Super 99, empresa líder en el mercado nacional y con casi 40 años de servicio ininterrumpido, con más de 50 sucursales en todo el país y alrededor de 6,000 colaboradores, generando indirectamente más de 15,000 plazas laborales. Para lograr mantenerse competitivo, su misión ha sido siempre estar a la vanguardia de la tecnología, eficiencia, servicio y rentabilidad.  Por tal motivo y en conjunto con empresas altamente reconocidas, se ha iniciado un proceso de transformación digital. Antonio Castillo es el director de tecnología de Super 99, con más de 10 años de experiencia en el mercado de retail nos señala que: “La cadena tiene dos proyectos prioritarios: un programa de lealtad de clientes y lanzar el punto de venta.  Estos proyectos son el siguiente paso en nuestra transformación digital y vamos de la mano con Rise with SAP porque son líderes comprobados en el área de retail y están enfocados hacia dónde queremos llegar”. Las soluciones de Rise with SAP proveen a Super 99 información muy valiosa para conocer los patrones de compra que permiten que los clientes tengan todos los productos disponibles.  De igual manera, permite mantener inventarios en tiempo real, estos disminuyen el riesgo de tener tiendas desabastecidas y con ello perder oportunidades de compra de consumidores fieles. Además, la integración de datos en una plataforma unificada garantiza que todas las áreas del supermercado operen de manera más coordinada, facilitando el acceso a la información en tiempo real. Esto no solo mejora la toma de decisiones estratégicas, sino que también aumenta la productividad de los equipos al reducir los tiempos de respuesta y potenciales errores operativos. Para Super 99 la Inteligencia Artificial (IA) Generativa es una herramienta de mucha utilidad y esperan involucrarla en todos sus procesos tecnológicos.  El manejo de información a todo nivel que se genera en un establecimiento de retail es muy complejo y una herramienta como la IA Generativa puede ayudar a manejarla de manera eficiente en tiempo real.  “Yo quiero que mi junta directiva pueda tener reportes con recomendaciones imparciales de soluciones con Inteligencia Artificial Generativa.  No que la IA tome la decisión, sino que con base a sus recomendaciones la Junta Directiva pueda tomar una decisión más certera.  Creo que la IA puede proveer un mejor análisis de información, optimizando tiempos y reduciendo riesgos” señala Castillo. Con RISE with SAP, Super 99 tendrá la capacidad de seguir impulsando la eficiencia de sus procesos mediante el uso de IA Generativa, apalancándose en la automatización y la integración avanzada de datos, aumentando la productividad de los equipos al reducir los tiempos de respuesta y mejorando sus flujos de coordinación y colaboración. Castillo hace ver que “muchas veces no nos damos cuenta de que hay procesos que necesitan actualizarse y durante el tiempo de esa evolución generalmente se consumen recursos no programados por parte de la empresa.  Implementando un sistema con IA Generativa como Rise with SAP, esperaríamos que antes de que ocurra un error se nos alerte de manera anticipada para corregirlo y con ello evitar pérdidas económicas”. Esta iniciativa refuerza el compromiso de Super 99 de ser una empresa ejemplar en el recursos humano y en los ambientes de sus establecimientos, en donde el cliente cubra la mayor cantidad de sus necesidades bajo un mismo techo. SAP News.

Leer más »

Samsung Vision AI está aquí. Nueva línea de televisores 2025

Samsung Electronics presentó recientemente su nueva gama de televisores con inteligencia artificial Samsung Vision AI que revolucionan la manera de ver TV y que incluye los modelos Neo QLED, QLED, OLED y The Frame. “Nuevamente, Samsung está llevando la Inteligencia Artificial un paso más allá y creando un ‘hogar con AI’ más seguro y conveniente. Nos hemos adaptado a los nuevos hábitos de consumo de nuestros usuarios y por eso hoy les invitamos a interactuar y conocer de cerca nuestro poderoso ecosistema. Este momento marca un hito significativo en nuestro camino como una empresa líder en el sector tecnológico, y estamos encantados de celebrarlo con todos ustedes. Bienvenidos a la grandeza de la televisión, Samsung Vision AI está aquí”, dijo Jason Kim, presidente de Samsung Electronics Latinoamérica en su discurso de bienvenida a los invitados al evento de lanzamiento regional realizado en La Antigua, Guatemala. ▲ Jason Kim, Presidente de Samsung Centroamérica y el Caribe, durante las palabras de inauguración del evento de lanzamiento en Antigua, Guatemala ▲ Ejecutivos de Samsung presentes durante el evento. De izquierda a derecha: Agustín Napoli (Director B2C de la División de Visual Display), Won Cha (Director General de Samsung Electronics NCA), Jason Kim (Presidente de Samsung Centroamérica y el Caribe), Larissa Espinal (Gerente de RR.PP), Felipe Rabat (Vicepresidente de Samsung Centroamérica y el Caribe) y José Joaquín Urbina (Director Senior de Experiencias Móviles). Beneficios únicos y experiencias personalizadas Los nuevos televisores presentados marcan un antes y un después en la era de la tecnología de pantallas y entretenimiento.  En esencia, la experiencia de visualización se enriquece con el conjunto de funciones y ventajas de Samsung Vision AI. Comencemos por la personalización que tanto aprecian los consumidores: Los televisores Samsung Vision AI se adaptan fácilmente a las rutinas, hábitos e interacciones diarias del usuario. Al conocer sus necesidades, actúan de forma autónoma para satisfacerlas. A través de su plataforma Daily+ pueden recomendarte actividades, rutinas deportivas, recetas saludables y hasta un itinerario para tu viaje. Incluso te permiten generar tu propio fondo de pantalla por medio del uso de AI considerando tus gustos y preferencias. ▲ Personalización, Conectividad y Seguridad son los principales beneficios de la nueva línea de televisores Samsung Vision AI 2025, explicó Felipe Rabat La conectividad es otra razón poderosa para entrar al mundo del Samsung Vision AI. Mientras el usuario disfruta sus programas, series, videos y otros contenidos audiovisuales, a través de la plataforma SmartThings, va a poder gestionar de forma centralizada tareas que normalmente le obligaban a hacer una pausa, ir a otro lugar de la casa e interrumpir su momento de entretenimiento y relajación. Ajustar o apagar luces, definir la temperatura del sistema de aire acondicionado, monitorear el hogar mediante cámaras de seguridad o encender el horno para que inicie el horneado de una pizza. Esto y mucho más, para una vida conectada y confortable. Varios de los modelos de TV presentados poseen Glare Free, tecnología que reduce los reflejos en las pantallas, y así mejora la visibilidad y la experiencia visual en diferentes entornos de iluminación, incluso bajo luz directa. La belleza y el arte no quedan por fuera, The Frame reproduce obras de arte de renombre mundial de la Feria Art Basel, con la que Samsung estableció una asociación y la oferta de Art Store se amplía cada vez más, ya que esta plataforma ahora está también disponible en los televisores QLED y Neo QLED 2025. ▲ La artista plástico Luz Andrade junto a Felipe Rabat al lado de un The Frame de Samsung, que despliega una de las obras de la artista guatemalteca. ▲ La tecnología Quantum Dot de los televisores Neo QLED de Samsung lo convierten en una pieza única en cuanto a calidad de imagen y durabilidad Entre otras de la funciones de Samsung Vision AI se destacan: Samsung Daily+, permite gestionar fácilmente actividades diarias y estilo de vida desde la comodidad del televisor; Pet Care, para mejorar el cuidado de las mascotas en casa; y Stingray Karaoke desde un Smartphone Galaxy, para cantar tus canciones favoritas sin necesidad de un micrófono.  La mejor Inteligencia Artificial: el más alto rendimiento El portafolio comprende las siguientes líneas de televisores: ▲ Grupo de periodistas e influencers invitados al evento Pre-venta imperdible A partir del 19 de mayo, Samsung Electronics inició la preventa de 11 modelos de su portafolio de televisores 2025, que incluye un cupón de 10% de descuento para adquirir cualquier smartphone o producto de audio de la marca con la compra de alguno de los televisores 2025. Samsung News

Leer más »

Modelos TAIDE agregados a Qualcomm AI Hub: Impulsando un diálogo de IA confiable

Una visión para el liderazgo de la IA de vanguardia en Taiwán Qualcomm Technologies se enorgullece en anunciar que TAIDE ( Motor de Diálogo de IA Confiable ), un modelo LLM de código abierto, ya está disponible en Qualcomm AI Hub, lo que simplifica la implementación de modelos de IA para aplicaciones de visión, audio y voz en dispositivos periféricos. Esto incluye Llama3-TAIDE-LX-8B, uno de los varios modelos base desarrollados como componente fundamental para la comunidad de desarrolladores de Taiwán. TAIDE está redefiniendo el procesamiento del idioma chino tradicional y los sistemas de diálogo de IA perimetral. Con Qualcomm AI Hub y TAIDE, los desarrolladores taiwaneses tienen una gran oportunidad para ayudar a Taiwán a establecer un liderazgo en el desarrollo de IA. Una visión para el liderazgo de la IA de vanguardia en Taiwán TAIDE en Qualcomm AI Hub destaca la oportunidad de Taiwán de liderar la IA de borde, mejorando la competitividad de la fabricación avanzada y ampliando la gama de tecnologías, aplicaciones y casos de uso de IA disponibles en Taiwán. La IA de borde permite el procesamiento y la inferencia localmente, más cerca de donde se generan los datos, lo que reduce la necesidad de transmitirlos a la nube. Esto se traduce en tiempos de respuesta más rápidos, mayor seguridad y menores requisitos de ancho de banda, además de mayor privacidad, latencia, fiabilidad, flexibilidad y reducción de costes. TAIDE en Qualcomm AI Hub se alinea con el Plan de IA 2.0 de Taiwán y contribuirá al desarrollo tecnológico e industrial local. Al ofrecer una herramienta innovadora y gratuita a los desarrolladores taiwaneses, los animamos a crear más aplicaciones de IA Edge lideradas por Taiwán para empresas de Taiwán y del mundo. Qualcomm Technologies se compromete a conectar con la comunidad de desarrolladores, permitiéndoles crear sus propias soluciones integrales de aprendizaje automático en el dispositivo con nuestros socios, entre ellos creadores de modelos, proveedores de nube, proveedores de SDK y otros. Un hito para la innovación en IA de Taiwán Los modelos básicos de TAIDE fueron desarrollados por el equipo de TAIDE con el apoyo del gobierno de Taiwán. La iniciativa se lanzó oficialmente en abril de 2023 bajo el NSTC, lo que dio lugar al lanzamiento del modelo Llama3-TAIDE-LX-8B un año después, en abril de 2024. El profesor Tsai y sus colegas de la Universidad Nacional Central (NCU) utilizaron Qualcomm AI Hub para optimizar el modelo e implementarlo en plataformas Qualcomm, como Snapdragon X Elite y Snapdragon 8 Elite. Construido sobre bases probadas El modelo Llama3 -TAIDE-LX-8B-Chat-Alpha1 se basa en la arquitectura Llama3 de Meta y se ha optimizado con datos de chino tradicional. TAIDE ofrece: Rendimiento verificado en Qualcomm AI Hub Qualcomm AI Hub se dedica a proporcionar un ecosistema confiable donde los modelos de IA se implementan sin problemas. TAIDE se ha evaluado en la plataforma Qualcomm AI Hub, ejecutando el modelo en dispositivos reales. A continuación, se muestran los resultados en el Snapdragon X Elite: Ahora que TAIDE está disponible en Qualcomm AI Hub, se pueden realizar pruebas frecuentes del modelo y acelerar el desarrollo de futuras aplicaciones hasta su comercialización. Estas métricas no solo validan la excelencia técnica de TAIDE, sino que también permiten a los desarrolladores integrar el modelo con confianza en sus aplicaciones de próxima generación. Acelerando el futuro del desarrollo de aplicaciones de IA El potencial de la IA de Edge para Taiwán es enorme, ya que mejora la rentabilidad, la sostenibilidad y la privacidad al procesar entradas y generar salidas directamente en el dispositivo. A medida que la IA potencia cada vez más la interfaz de usuario, la forma en que interactuamos con nuestros dispositivos cambiará drásticamente, lo que resultará en experiencias más intuitivas y personalizadas, además de mayores beneficios para los usuarios más pequeños, como familias, empresas y estudiantes. Con este modelo de TAIDE basado en Llama-3, ahora disponible en nuestra colección de modelos Qualcomm AI Hub, los desarrolladores tienen acceso a un modelo que combina procesamiento de lenguaje de vanguardia con funcionalidades prácticas. Algunos ejemplos de uso son: Únete a la revolución Invitamos a los desarrolladores a explorar TAIDE en Qualcomm AI Hub e integrarlo en sus propias aplicaciones. Consulta nuestra ChatApp de ejemplo para obtener orientación sobre cómo empezar. Únete al canal de Slack de Qualcomm AI Hub para conectar con la comunidad, hacer preguntas y obtener más información. Qualcomm Blog. Traducido al español

Leer más »

Postal de Computex: La estación de trabajo cobra nueva vida

Los procesadores Intel Core Ultra Serie 2 impulsan máquinas accesibles para innovadores y usuarios avanzados. Para:  Cualquier persona que desee un rendimiento y una flexibilidad sin concesiones. De: Computex 2025, Taipéi, Taiwán | 20 de mayo de 2025 Los visitantes del stand de Intel aquí en Computex 2025 están viendo la suite completa de productos Intel® Core™ Ultra Series 2 para estaciones de trabajo móviles y de escritorio en acción, en una forma que quizás no esperaban. En Computex, Intel exhibe las últimas soluciones de estaciones de trabajo de alto rendimiento con los nuevos procesadores Intel Core Ultra. El segmento está en rápida evolución y expansión, con las estaciones de trabajo de escritorio y móviles de gama básica a la cabeza. Están diseñadas para innovadores profesionales y usuarios avanzados que buscan el rendimiento y las capacidades de una estación de trabajo en plataformas más accesibles. En Taipei, Intel está mostrando cómo estas nuevas estaciones de trabajo equipadas con Intel Core Ultra Serie 2 están redefiniendo lo que es posible en el segmento de estaciones de trabajo móviles y de escritorio de nivel básico. En una demostración, Mike Bartz, de Intel, mostró procesadores de PC con IA en una estación de trabajo móvil con tecnología Intel. Demostró cómo se pueden fotografiar objetos reales y transformarlos en materiales 3D realistas con Adobe Substance 3D Sampler. Esta función, impulsada por IA, aprovecha las plataformas Intel® Core™ serie H y serie HX de la estación de trabajo para ejecutar cargas de trabajo de inferencia local en segundos. El resultado: imágenes mejoradas con IA, como muestras de tela, se colocan en modelos 3D, como una silla, para ayudar a los usuarios a visualizar el aspecto y el comportamiento de una tela específica. PS  Computex 2025: Intel presenta nuevas GPU para IA y estaciones de trabajo  (Noticias) |  Intel en Computex 2025  (Dossier de prensa) |  Computex 2025: Estaciones de trabajo móviles y de escritorio de Intel (Blog de Intel) Nota del editor: Esta historia fue editada el 20 de mayo de 2025 para ajustar la descripción de la estación de trabajo utilizada en la demostración. Intel News. Traducido al español

Leer más »

NVIDIA Dynamo acelera las iniciativas de la comunidad llm-d para impulsar la inferencia distribuida a gran escala

La introducción de la comunidad llm-d en Red Hat Summit 2025 marca un avance significativo en la aceleración de la innovación en inferencia de IA generativa para el ecosistema de código abierto.  Basado en vLLM e Inference Gateway, llm-d amplía las capacidades de vLLM con una arquitectura nativa de Kubernetes para implementaciones de inferencia a gran escala.  Esta publicación explica los componentes clave de NVIDIA Dynamo que respaldan el proyecto llm-d.  Transferencia acelerada de datos de inferencia La inferencia distribuida a gran escala aprovecha técnicas de paralelismo de modelos —como el paralelismo tensorial, el de pipeline y el de expertos— que se basan en la comunicación entre nodos e intranodos, de baja latencia y alto rendimiento. También requieren una rápida transferencia de caché KV entre los trabajadores de GPU de precarga y decodificación en entornos de servicio desagregados.  Para permitir la transferencia de datos distribuidos y desagregados de alto rendimiento y baja latencia, llm-d utiliza NVIDIA NIXL . Parte de NVIDIA Dynamo, NIXL es una biblioteca de comunicación punto a punto de alto rendimiento y baja latencia que proporciona una API de movimiento de datos consistente para mover datos de forma rápida y asíncrona entre diferentes niveles de memoria y almacenamiento utilizando la misma semántica. Está específicamente optimizada para el movimiento de datos de inferencia, lo que permite transferencias de datos no bloqueantes y no contiguas entre diversos tipos de memoria y almacenamiento. llm-d utiliza NIXL para acelerar la transferencia de datos de caché KV entre el prellenado y la decodificación en configuraciones de servicio desagregadas.   Desagregación de prellenado y decodificación Las implementaciones tradicionales de modelos de lenguaje grande (LLM) ejecutan tanto la fase de precarga, que requiere un alto consumo de recursos, como la de decodificación, que requiere un alto consumo de memoria, en la misma GPU. Esto genera un uso ineficiente de recursos y una optimización limitada del rendimiento. El servicio desagregado soluciona este problema separando ambas fases en diferentes GPU o nodos, lo que permite una optimización independiente y un mejor uso del hardware.  El servicio desagregado requiere una programación cuidadosa de las solicitudes en los nodos de prellenado y decodificación. Para acelerar la adopción del servicio desagregado en la comunidad de código abierto, NVIDIA ha apoyado el diseño y la implementación de algoritmos de programación de solicitudes de prellenado y decodificación en el proyecto vLLM.  De cara al futuro, NVIDIA se complace en seguir colaborando con la comunidad llm-d con contribuciones adicionales, como se detalla en las siguientes secciones. Planificación dinámica de recursos de la GPU  Los métodos tradicionales de escalado automático basados ​​en métricas como las consultas por segundo (QPS) son inadecuados para los sistemas modernos de servicio LLM, especialmente aquellos que utilizan servicio desagregado. Esto se debe a que las cargas de trabajo de inferencia varían significativamente en las longitudes de secuencia de entrada (ISL) y de salida (OSL). Mientras que las ISL largas exigen más de las GPU de prellenado, las OSL largas sobrecargan las GPU de decodificación.  Las cargas de trabajo dinámicas con ISL y OSL variables hacen que métricas simples como QPS no sean fiables para predecir las necesidades de recursos ni para equilibrar la carga de la GPU en configuraciones de servicio desagregadas. Para facilitar esta gestión de la complejidad, NVIDIA colaborará con la comunidad llm-d para incorporar las ventajas de NVIDIA Dynamo Planner al componente Variant Autoscaler de llm-d. Dynamo Planner es un motor de planificación especializado que comprende las exigencias específicas de la inferencia LLM y puede escalar de forma inteligente el tipo de GPU adecuado en el momento oportuno.  Descarga de caché de KV Gestionar el alto coste de almacenar grandes volúmenes de caché KV en la memoria de la GPU se ha convertido en un reto importante para los equipos de inferencia de IA. Para abordar este reto, NVIDIA colaborará con la comunidad para incorporar las ventajas de NVIDIA Dynamo KV Cache Manager al subsistema de caché KV de llm-d.  El administrador de caché KV de Dynamo transfiere la caché KV de acceso menos frecuente a soluciones de almacenamiento más rentables, como la memoria del host de la CPU, SSD o almacenamiento en red. Esta estrategia permite a las organizaciones almacenar grandes volúmenes de caché KV a un costo mucho menor, liberando valiosos recursos de la GPU para otras tareas. El administrador de caché KV de Dynamo utiliza NIXL para interactuar con diferentes proveedores de almacenamiento, lo que permite la organización fluida de la caché KV en niveles para llm-d. Ofreciendo inferencia de IA optimizada con NVIDIA NIM Para las empresas que buscan la agilidad de la innovación de código abierto, combinada con la fiabilidad, la seguridad y el soporte de una oferta comercial con licencia, NVIDIA NIM integra la tecnología de inferencia líder de NVIDIA y la comunidad. Esto incluye SGLang, NVIDIA TensorRT-LLM y vLLM, con compatibilidad con componentes de Dynamo próximamente. NVIDIA NIM, un conjunto de microservicios fáciles de usar diseñados para una implementación segura y fiable de inferencia de modelos de IA de alto rendimiento en nubes, centros de datos y estaciones de trabajo, es compatible con la licencia comercial NVIDIA AI Enterprise en Red Hat OpenShift AI.  NVIDIA y Red Hat cuentan con una larga trayectoria de colaboración para dar soporte a Red Hat OpenShift y Red Hat OpenShift AI en la computación acelerada de NVIDIA. Para simplificar la implementación, la gestión y el escalado de las cargas de trabajo de entrenamiento e inferencia de IA, NVIDIA GPU Operator , NVIDIA Network Operator y NVIDIA NIM Operator están certificados en Red Hat OpenShift y son compatibles con Red Hat OpenShift AI.  Red Hat también ha integrado NVIDIA NIM en el catálogo de aplicaciones Red Hat OpenShift AI . Red Hat admite Red Hat OpenShift y Red Hat OpenShift AI para su ejecución en cualquier sistema certificado por NVIDIA y actualmente trabaja con NVIDIA para validar la compatibilidad con sistemas NVIDIA GB200 NVL72 .  Comience a avanzar en la inferencia de código abierto  Para obtener más información sobre cómo NVIDIA apoya el proyecto llm-d, mire la conferencia principal de Red Hat Summit 2025 para obtener una descripción general del proyecto llm-d y escuche el panel de expertos con líderes de Google, Neural Magic, NVIDIA

Leer más »

El acelerómetro compacto y de bajo ruido de tres ejes M-A370AD10 entra en producción en masa

 Aceleración de la digitalización de la observación sísmica, la medición continua de microtremores y el monitoreo del envejecimiento del sistema Seiko Epson Corporation (TSE: 6724, «Epson») ha desarrollado el M-A370AD10, un acelerómetro de 3 ejes compacto y de bajo ruido, ideal para abordar problemas sociales derivados, entre otros, del aumento de desastres naturales y el envejecimiento de las infraestructuras. Este producto proporciona datos extremadamente precisos para la observación de terremotos, la medición continua de microtremores y la monitorización del envejecimiento de las infraestructuras, lo que permite la detección temprana de anomalías y una respuesta rápida. La incorporación de este producto a los sistemas también puede mejorar significativamente su fiabilidad. El inicio de la producción en masa de este acelerómetro está previsto para julio de 2025. El M-A370AD10 ofrece un rendimiento de ruido inferior al del Nuevo Modelo de Alto Ruido del USGS¹ . Este bajo nivel de ruido se logra gracias a la tecnología de microfabricación patentada de Epson² y la tecnología IP digital³ . Este dispositivo también ofrece una alta estabilidad de polarización y un amplio rango dinámico, lo que lo hace excelente para la detección de señales microsísmicas imperceptibles para los humanos, la exploración de estructuras terrestres mediante mediciones de vibración ambiental y el monitoreo de la inclinación de edificios a largo plazo. El bajo consumo de energía y la salida digital de este producto también permiten construir sistemas de medición más sencillos que los sistemas convencionales que utilizan sensores de salida analógica. Epson está acelerando la transformación digital ampliando su gama de acelerómetros integrables, mejorando la fiabilidad del sistema y contribuyendo al desarrollo de infraestructuras sociales seguras y resilientes, mitigando los riesgos asociados a desastres naturales e instalaciones obsoletas. Características del producto Aplicaciones de destino Detección de terremotos, exploración de recursos, exploración de vibraciones ambientales (microtremores), exploración de estructuras subterráneas, medición de inclinación, monitoreo de la salud de edificios, análisis, control y estabilización de vibraciones, etc. Enlace relacionado Para obtener información más detallada sobre el producto, consulte la siguiente página web. Consultas de clientes Grupo de Marketing de Productos MD, Departamento de Ventas y Marketing MD, Seiko Epson Corporation Información detallada Puede descargar materiales que resumen las características y ofrecen comparativas de los acelerómetros y métodos de comparación de Epson. No dude en contactarnos para obtener más información. Participación en la exposición Epson expondrá en la Reunión de la Unión de Geociencias de Japón 2025. Este evento se llevará a cabo en Makuhari Messe del 25 al 30 de mayo de 2025. Planeamos exhibir nuestros nuevos productos en el stand de Epson. Enlace de la exposición Reunión de la Unión de Geociencias de Japón 2025 Comparación de especificaciones entre el producto nuevo y el existente Qué Nuevo producto Producto existente Nombre del producto M-A370AD10 M-A352AD10 Solicitud Incorporado Dimensiones / Material 48 x 24 x 16 mm / Fundición a presión de aluminio Conector de host Conector de receptáculo (1,00 mm) Formato de salida SPI/UART (digital) Velocidad de transferencia 115,2 kbps – 460,8 kbps (predeterminado 460,8 kbps) Eje de detección Tres ejes Cantidad física de salida Aceleración / ángulo de inclinación Rango dinámico Aceleración ±10 GÁngulo de inclinación ±1,047 rad(±60 grados) Aceleración ±15 GÁngulo de inclinación ±1,047 rad(±60 grados) Densidad de ruido 0,02 µG/√Hz (1 Hz – 10 Hz) 0,2 µG/√Hz (0,5 Hz – 6 Hz) Error de temperatura de sesgo ±0,5 mG (-30 °C – 85 °C) ±2 mG (-30 °C – 85 °C) Repetibilidad del sesgo ±0,1 mG típico(1 año después del envío, 25 °C,Vcc = 3,3 V) 3 mG típico(1 año después del envío, 25 °C,Vcc = 3,3 V) Frecuencia, rango de medición CC – 210 Hz CC – 460 Hz Voltaje de la fuente de alimentación 3,15 V – 3,45 V Consumo actual 36,3 mA típico (3,3 V) 13,2 mA típico (3,3 V) Rango de temperatura de funcionamiento -30℃ – 85℃ Epson News. Traducido al español

Leer más »

Computex: Intel presenta nuevas GPU para IA y estaciones de trabajo

La empresa amplía la línea de GPU Intel Arc Pro a prosumidores y desarrolladores de IA, y anuncia la disponibilidad del acelerador de IA Intel Gaudi 3 a través de implementaciones a escala de rack y PCIe. TAIPÉI, Taiwán, 19 de mayo de 2025 – Hoy, en Computex 2025, Intel presenta una nueva línea de unidades de procesamiento gráfico (GPU) y aceleradores de IA diseñados para profesionales y desarrolladores. Los anuncios de Intel incluyen: Celebrando 40 años en Taiwán Los lanzamientos de productos de esta semana coinciden con el 40.º aniversario de Intel en Taiwán, lo que marca cuatro décadas de colaboración, innovación y éxito compartido en torno a la arquitectura x86 con uno de los ecosistemas tecnológicos más dinámicos del mundo. A medida que las aplicaciones de IA de alto rendimiento aumentan la necesidad de mayor capacidad de procesamiento, la arquitectura x86 continúa consolidando su papel clave en la aceleración de la innovación para clientes y usuarios. Más: Intel en Computex 2025 (Dossier de prensa) “Durante los últimos 40 años, el poder de nuestra alianza con el ecosistema de Taiwán ha impulsado la innovación que ha transformado nuestro mundo para mejor”, afirmó Lip-Bu Tan, director ejecutivo de Intel. “Esta semana, renovamos nuestro compromiso con nuestros socios mientras trabajamos para construir un nuevo Intel para el futuro. Juntos, crearemos productos excelentes que deleiten a nuestros clientes y aprovechemos las emocionantes oportunidades que se avecinan”. Nuevas GPU para IA y rendimiento de estaciones de trabajo Las nuevas GPU Intel Arc Pro B60 y B50, basadas en la arquitectura X e 2, incorporan núcleos de inteligencia artificial Intel® X e Matrix Extensions (XMX) y unidades de trazado de rayos avanzadas, que brindan capacidades de alto rendimiento a creadores, desarrolladores e ingenieros. Las nuevas GPU Intel Arc Pro B60 e Intel Arc Pro B50, que amplían la gama de GPU para profesionales, están diseñadas para cargas de trabajo de inferencia de IA exigentes y aplicaciones de estaciones de trabajo. Con funciones compatibles con IA, 24 GB y 16 GB de memoria, respectivamente, y escalabilidad multiGPU, la serie B de Intel Arc Pro ofrece una solución versátil para creadores, desarrolladores de IA y profesionales. Las GPU están optimizadas para AEC (arquitectura, ingeniería y construcción) y estaciones de trabajo de inferencia, ofreciendo estabilidad y rendimiento gracias a una amplia gama de certificaciones de proveedores de software independientes (ISV) y software optimizado. Las GPU Intel Arc Pro Serie B son compatibles con controladores de consumo y profesionales en Windows. En Linux, las GPU admiten una pila de software en contenedores para simplificar las implementaciones de IA y se actualizarán progresivamente con funciones y optimizaciones. Al combinar una alta capacidad de memoria con compatibilidad de software clave, la Intel Arc Pro Serie B ofrece a los creadores y desarrolladores de IA soluciones escalables y rentables. Intel también presentó una plataforma configurable basada en Intel® Xeon® de clase estación de trabajo (cuyo nombre en código es Project Battlematrix), diseñada para reducir los puntos de fricción de los desarrolladores de IA. Admite hasta ocho GPU Intel Arc Pro B60 de 24 GB para habilitar modelos de IA de tamaño mediano (hasta 150 000 millones de parámetros) y precisos con hasta 192 GB de memoria de acceso aleatorio de vídeo. (~0 KB) «La serie B de Intel Arc Pro demuestra el compromiso de Intel con la tecnología de GPU y las alianzas con el ecosistema», afirmó Vivian Lien, vicepresidenta y directora general de Gráficos de Cliente de Intel. «Con las capacidades avanzadas de la arquitectura X e 2 y un ecosistema de software en expansión, las nuevas GPU Arc Pro ofrecen accesibilidad y escalabilidad a las pequeñas y medianas empresas que buscan soluciones específicas». La GPU Intel Arc Pro B60 estará disponible en muestras de socios de placas base, incluidos, entre otros, ASRock, Gunnir, Lanner, Maxsun, Onix, Senao y Sparkle, a partir de junio de 2025. La GPU Intel Arc Pro B50 estará disponible en distribuidores autorizados de Intel a partir de julio de 2025. Intel Gaudi 3 admite implementaciones PCIe y a escala de rack Ampliando su estrategia de IA, Intel presentó nuevas opciones de implementación para los aceleradores de IA Intel Gaudi 3: La arquitectura a escala de rack Intel Gaudi está optimizada para ejecutar grandes modelos de IA y destaca en la inferencia en tiempo real con un rendimiento de baja latencia. Estas configuraciones refuerzan el compromiso de Intel con una infraestructura de IA abierta, flexible y segura, compatible con diseños personalizados y del Proyecto de Computación Abierta (OCP) para proveedores de servicios en la nube (CSP). Asistente de creación de inteligencia artificial de Intel: ya disponible Tras su debut en CES 2025 , Intel AI Assistant Builder, un marco de software ligero y abierto para crear y ejecutar agentes de IA personalizados localmente en PC con IA de Intel, ya está disponible en versión beta pública en GitHub . Con las nuevas soluciones innovadoras presentadas en Computex por Acer y ASUS como ejemplos, Intel AI Assistant Builder permite a desarrolladores y socios crear e implementar rápidamente agentes de IA para sus propias organizaciones y clientes directos. ( Más información: AI Assistant Builder ofrece asistentes de IA gratuitos ) Stand de Intel en Computex 2025 Intel exhibirá sus últimas innovaciones en procesadores y gráficos en Computex 2025 en el Centro de Exposiciones Taipei Nangang. Dónde: 1F, Nangang Hall 1 – J0306Cuándo: Del martes 20 de mayo al viernes 23 de mayoHorario: de 9:30 a. m. a 5:30 p. m., hora local de Taiwán Avisos y exenciones de responsabilidad El rendimiento varía según el uso, la configuración y otros factores. Más información en intel.com/performanceindex . Las funciones de IA pueden requerir la compra, suscripción o activación de software por parte de un proveedor de software o plataforma, o tener requisitos específicos de configuración o compatibilidad. Las ventajas en latencia de datos, costo y privacidad se refieren a aplicaciones de IA no basadas en la nube. Más información en intel.com/AIPC . Intel News. Traducido al español

Leer más »

La IA aprende cómo se conectan la visión y el sonido, sin intervención humana

Este nuevo modelo de aprendizaje automático puede coincidir con los datos visuales y de audio correspondientes, lo que algún día podría ayudar a los robots a interactuar en el mundo real. Los humanos aprendemos de forma natural conectando la vista y el sonido. Por ejemplo, podemos observar a alguien tocando el violonchelo y reconocer que sus movimientos generan la música que escuchamos. Un nuevo enfoque desarrollado por investigadores del MIT y de otras instituciones mejora la capacidad de un modelo de IA para aprender de esta misma manera. Esto podría ser útil en aplicaciones como el periodismo y la producción cinematográfica, donde el modelo podría ayudar a seleccionar contenido multimodal mediante la recuperación automática de vídeo y audio. A largo plazo, este trabajo podría utilizarse para mejorar la capacidad de un robot para comprender entornos del mundo real, donde la información auditiva y visual a menudo están estrechamente conectadas. Mejorando el trabajo previo de su grupo, los investigadores crearon un método que ayuda a los modelos de aprendizaje automático a alinear los datos de audio y visuales correspondientes de los videoclips sin necesidad de etiquetas humanas. Ajustaron el entrenamiento de su modelo original para que aprenda una correspondencia más precisa entre un fotograma de vídeo específico y el audio que se produce en ese momento. Los investigadores también realizaron ajustes arquitectónicos que ayudan al sistema a equilibrar dos objetivos de aprendizaje distintos, lo que mejora el rendimiento. En conjunto, estas mejoras relativamente sencillas aumentan la precisión de su enfoque en las tareas de recuperación de vídeo y en la clasificación de la acción en escenas audiovisuales. Por ejemplo, el nuevo método podría hacer coincidir de forma automática y precisa el sonido de un portazo con la imagen de la puerta al cerrarse en un vídeo. “Estamos construyendo sistemas de IA que pueden procesar el mundo como lo hacen los humanos, en términos de recibir información auditiva y visual simultáneamente y procesar ambas modalidades sin problemas. De cara al futuro, si logramos integrar esta tecnología audiovisual en algunas de las herramientas que usamos a diario, como los grandes modelos lingüísticos, podría abrir un gran abanico de nuevas aplicaciones”, afirma Andrew Rouditchenko, estudiante de posgrado del MIT y coautor de un artículo sobre esta investigación . Lo acompañan en el artículo el autor principal Edson Araujo, un estudiante de posgrado en la Universidad Goethe en Alemania; Yuan Gong, un ex posdoctorado del MIT; Saurabhchand Bhati, un actual posdoctorado del MIT; Samuel Thomas, Brian Kingsbury y Leonid Karlinsky de IBM Research; Rogerio Feris, científico principal y gerente del Laboratorio de IA Watson del MIT-IBM; James Glass, científico investigador sénior y jefe del Grupo de Sistemas de Lenguaje Hablado en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT (CSAIL); y la autora sénior Hilde Kuehne, profesora de ciencias de la computación en la Universidad Goethe y profesora afiliada al Laboratorio de IA Watson del MIT-IBM. El trabajo se presentará en la Conferencia sobre Visión por Computador y Reconocimiento de Patrones. Sincronización Este trabajo se basa en un método de aprendizaje automático que los investigadores desarrollaron hace unos años, que proporcionó una forma eficiente de entrenar un modelo multimodal para procesar simultáneamente datos de audio y visuales sin la necesidad de etiquetas humanas. Los investigadores alimentan este modelo, llamado CAV-MAE, con videoclips sin etiquetar, y este codifica los datos visuales y de audio por separado en representaciones llamadas tokens. Utilizando el audio natural de la grabación, el modelo aprende automáticamente a mapear pares correspondientes de tokens visuales y de audio próximos entre sí dentro de su espacio de representación interno. Descubrieron que el uso de dos objetivos de aprendizaje equilibra el proceso de aprendizaje del modelo, lo que permite a CAV-MAE comprender los datos de audio y visuales correspondientes al tiempo que mejora su capacidad para recuperar videoclips que coinciden con las consultas del usuario. Pero CAV-MAE trata las muestras de audio y visuales como una unidad, por lo que un videoclip de 10 segundos y el sonido de un portazo se mapean juntos, incluso si ese evento de audio ocurre en solo un segundo del video. En su modelo mejorado, llamado CAV-MAE Sync, los investigadores dividen el audio en ventanas más pequeñas antes de que el modelo calcule sus representaciones de los datos, de modo que genera representaciones separadas que corresponden a cada ventana de audio más pequeña. Durante el entrenamiento, el modelo aprende a asociar un fotograma de vídeo con el audio que se produce durante ese fotograma. “Al hacer eso, el modelo aprende una correspondencia más detallada, lo que mejora el rendimiento más adelante cuando agregamos esta información”, dice Araujo. También incorporaron mejoras arquitectónicas que ayudan al modelo a equilibrar sus dos objetivos de aprendizaje. Añadiendo “margen de maniobra” El modelo incorpora un objetivo contrastivo, donde aprende a asociar datos de audio y visuales similares, y un objetivo de reconstrucción que busca recuperar datos de audio y visuales específicos en función de las consultas del usuario. En CAV-MAE Sync, los investigadores introdujeron dos nuevos tipos de representaciones de datos, o tokens, para mejorar la capacidad de aprendizaje del modelo. Incluyen “tokens globales” dedicados que ayudan con el objetivo de aprendizaje contrastivo y “tokens de registro” dedicados que ayudan al modelo a centrarse en detalles importantes para el objetivo de reconstrucción. En esencia, añadimos un poco más de margen de maniobra al modelo para que pueda realizar cada una de estas dos tareas, la contrastiva y la reconstructiva, de forma más independiente. Esto mejoró el rendimiento general, añade Araujo. Si bien los investigadores tenían cierta intuición de que estas mejoras optimizarían el rendimiento de CAV-MAE Sync, fue necesaria una cuidadosa combinación de estrategias para cambiar el modelo en la dirección que querían. “Dado que tenemos múltiples modalidades, necesitamos un buen modelo para ambas modalidades por sí solas, pero también necesitamos lograr que se fusionen y colaboren”, dice Rouditchenko. Al final, sus mejoras optimizaron la capacidad del modelo para recuperar videos a partir de una consulta de audio y predecir la clase de

Leer más »
Scroll al inicio