El Portal de las Tecnologías para la Innovación

Categoría: IoT

La IA en el corazón de la innovación: una nueva mirada al ámbito laboral

Vivimos en una época en la que la inteligencia artificial (IA) ha pasado de ser una tendencia a convertirse en una realidad, impactando tanto a consumidores como a empresas. Con la popularización de herramientas que utilizan IA, el sector corporativo ha explorado el potencial de esta tecnología para aumentar la productividad y la competitividad, automatizando tareas repetitivas y permitiendo a los trabajadores centrarse en actividades más estratégicas y creativas. Según un estudio de NTT Data[1] centrándose en el uso de IA, el 71% de las empresas encuestadas ya reconocen el potencial de la IA para mejorar la eficiencia en la vida cotidiana. Sin embargo, la adopción efectiva de la IA requiere un enfoque estructurado, además de abordar la resistencia cultural y promover la capacitación adecuada de los empleados para el uso correcto de la solución. Según Great Place to Work®, más de la mitad de los empleados en América Latina están entusiasmados con el uso de la IA en el trabajo, pero solo el 30% de las empresas ofrecen capacitación específica[2] . Esta brecha entre el interés y la capacidad revela un potencial sin explotar y refuerza la necesidad de líderes que no solo adopten la tecnología, sino que también empoderen a sus equipos para aprovecharla al máximo. En Samsung, este cambio está guiado por una visión clara: queremos que la IA sea accesible, relevante y útil para todos, todos los días y en todas partes. Por lo tanto, creo que las empresas de tecnología tienen un papel crucial que desempeñar en la integración efectiva de la IA en el lugar de trabajo, desarrollando soluciones accesibles que se adapten a las necesidades de todos. Esta es la base de nuestra visión global “IA para todos”, que busca aplicar la tecnología con propósito, promoviendo ganancias reales en eficiencia y creatividad tanto en la vida personal como profesional. Entiendo que esta filosofía debe servir como guía para nuestras soluciones y nuestra cultura de trabajo, en un proceso que una la innovación tecnológica con el desarrollo humano. Esto se debe a que tenemos que trabajar para que la innovación sea pensada como una conexión con la cultura de equipo. En una empresa impulsada por tecnología, creemos que la IA debe estar presente dondequiera que pueda crear valor, desde el hogar hasta el lugar de trabajo, respaldando decisiones más inteligentes y liberando tiempo para actividades más estratégicas. En mi equipo utilizamos IA a diario. Un ejemplo es Samsung Gauss, nuestra IA generativa desarrollada internamente. Funciona sin conexión, de forma segura y en continuo aprendizaje, respaldando tareas como la redacción de correos electrónicos, presentaciones, actas, hojas de cálculo, así como la interpretación de códigos, la generación de gráficos y el análisis de datos. Gauss es un gran aliado y, hoy en día, mejora el rendimiento del equipo sin comprometer la autonomía. Cuanto más se utiliza, más inteligente se vuelve, aprendiendo de las interacciones reales del equipo. Esto nos lleva a un punto central, la IA sólo puede ser verdaderamente transformadora cuando es parte de la cultura organizacional. Esta tecnología se suma a un pilar esencial: la cualificación continua también en IA. Con Samsung U, nuestra plataforma global de aprendizaje, ofrecemos caminos personalizados en áreas como Ventas, Marketing, Diseño y Manufactura, con la inteligencia artificial como habilitador de muchos procesos. El objetivo es claro: preparar profesionales para liderar y colaborar en un mundo cada vez más impulsado por la IA. Al seguir de cerca los avances de la IA en el universo móvil, donde la innovación ocurre en tiempo real, en manos de los usuarios, veo la oportunidad de guiar esta transición con propósito y sensibilidad. Y es por eso que adoptar la IA en el trabajo no significa renunciar al contacto humano. Por el contrario; es ponerlo en el centro de la innovación. En un entorno que valora la curiosidad, la autonomía y el aprendizaje continuo, la tecnología se convierte en un poderoso aliado. El futuro del trabajo ha comenzado y la IA es una de sus principales fortalezas. Depende de nosotros liderar esta transformación con claridad, responsabilidad y visión de futuro. A medida que la IA se consolida como un pilar de la innovación en los negocios, su adopción no es sólo una ventaja competitiva, es el comienzo de un compromiso estratégico de los líderes. Por lo tanto, sostengo que la IA no es sólo una herramienta de eficiencia, sino un reflejo directo de la visión de las empresas para el futuro. Y en Samsung, no es diferente. Incorporar IA significa posicionar a la empresa como un agente de transformación, capaz de anticipar tendencias, mejorar procesos y entregar soluciones más inteligentes y ágiles a sus públicos. [1] https://br.nttdata.com/insights/estudios/inteligencia-artificial-na-america-latina [2] https://gptw.com.br/conteudo/artigos/ia-nas-empresas/ Samsung News. A. Q.

Leer más »

La solución ADN Nivel 4 de Huawei ganó el premio a las operaciones de red autónomas en FutureNet World 2025

En FutureNet World 2025, celebrado en Londres, Huawei fue reconocido como el primer proveedor en recibir el premio a las Operaciones de Red Autónomas, lo que refleja el creciente impulso de las Redes Autónomas (AN) en la industria de las comunicaciones. FutureNet World es una plataforma industrial dedicada a la automatización de redes y la IA. El evento de 2025 reunió a más de 700 líderes de la industria, provenientes de los principales proveedores de servicios de comunicaciones (CSP), organizaciones de normalización y proveedores a nivel mundial, para explorar el futuro de la transformación de las redes. Huawei ganó el premio por su solución de Red de Conducción Autónoma (ADN) de Nivel 4. La solución ADN Nivel 4 de Huawei ganó el premio de Operaciones de Red Autónomas La solución ADN Nivel 4 de Huawei permite a los proveedores de servicios de comunicaciones (CSP) alcanzar el Nivel 4 de Redes Autónomas mediante la optimización de sus capacidades de operación y mantenimiento (O&M) centradas en los agentes. Dirigida a escenarios de alto valor en mantenimiento de red, optimización de la experiencia y operaciones de servicio, la solución incluye los copilotos de la serie Mate para cuatro roles y los agentes de la serie Spirit para siete escenarios. Implementada a nivel mundial, ya ha obtenido resultados positivos en redes IP, centrales, ópticas e inalámbricas. Sam Wang, gerente general de Huawei ADN Solution, afirmó en su discurso inaugural que Huawei apostará por escenarios de alto valor, impulsará la innovación nativa de dispositivos y ampliará el liderazgo de la solución ADN Nivel 4. Esto ayudará a los CSP globales a mejorar su nivel de AN y alcanzar el éxito comercial en la era 5G-A, sentando así una base sólida para la llegada del 6G. HUAWEI News. Traducido al español

Leer más »

Adaptación de la realidad aumentada a la sociedad

La ETH de Zúrich está creando un nuevo centro de investigación sobre realidad aumentada que implica una estrecha colaboración con Google. Uno de los codirectores de la ETH, Christian Holz, explica la importancia de la creación de redes en este campo.  En resumen Christian Holz, ¿qué significa realmente la realidad aumentada?La visión de la realidad aumentada es más antigua de lo que se cree. Ivan Sutherland, pionero de los gráficos por computadora, publicó su concepto Ultimate Display —una pantalla de computadora que satisface todos los sentidos humanos— hace 60 años. Hoy en día, generalmente se trata de abrir nuevas dimensiones de la realidad, por ejemplo, con gafas inteligentes e interactivas que pueden ampliar y mejorar la percepción de las personas. ¿Es engañosa la impresión o la realidad aumentada aún está en sus primeras etapas?En cierto sentido, ya vivimos en una realidad aumentada a través de nuestros smartphones, pues usamos sus servicios a diario. Pero la tecnología y las interfaces entre el mundo real y el virtual siguen evolucionando; por ejemplo, usamos relojes inteligentes interactivos para consultar mensajes o hacer llamadas. ¿Qué temas investigarán en el nuevo centro?Las interfaces entre lo real y lo virtual funcionan a la perfección con dispositivos convencionales. Así, si presiono una tecla en el teclado de mi portátil, la letra correspondiente aparece en el documento virtual de mi pantalla. En la realidad aumentada, en cambio, el contenido virtual se integra directamente en mi entorno físico: el teclado aparece sobre la mesa frente a mí y el documento flota en el aire junto a él. Pero ¿cómo puede el sistema reconocer y comprender el mundo que me rodea? ¿Cómo sabe dónde está mi mano y si estoy escribiendo o simplemente gesticulando? ¿Y cómo podemos integrar humanos virtuales y objetos 3D en el mundo para que parezcan engañosamente reales y podamos interactuar con ellos de forma plausible? Estas son preguntas clave de investigación que estudiaremos en el centro. ETH Zürich News. D. L. Traducido al español

Leer más »

Apple presenta la Edición Orgullo 2025

Con motivo del Mes del Orgullo y para celebrar la fuerza y la belleza del colectivo LGBTQ+ en todo el mundo, Apple ha presentado una nueva correa deportiva Edición Orgullo para el Apple Watch, una esfera a juego y fondos de pantalla para el iPhone y el iPad. Con motivo del Mes del Orgullo, Apple ha presentado una nueva correa deportiva Edición Orgullo para el Apple Watch, una esfera a juego y fondos de pantalla para el iPhone y el iPad, para celebrar la fuerza y la belleza del colectivo LGBTQ+ en todo el mundo. La correa deportiva Edición Orgullo está disponible desde hoy, y la esfera y el fondo de pantalla dinámicos a juego estarán disponibles próximamente mediante una actualización de software. Con franjas de los colores del arcoíris que varían en forma y tamaño, cada correa deportiva Edición Orgullo se ensambla a mano a partir de franjas individuales de vibrantes colores moldeadas por comprensión, creando variaciones tan sutiles como llamativas. No hay dos correas exactamente iguales, reflejando la individualidad de todas las personas que forman parte de la comunidad LGTBQ+. Pausar la reproducción del vídeo: Edición Orgullo 2025 para el Apple Watch La correa deportiva Edición Orgullo se ensambla a mano con franjas individuales en vivos colores que se moldean por compresión para crear variaciones tan sutiles como llamativas. Y la nueva esfera Orgullo y Armonía y los fondos de pantalla para el iPhone y iPad ofrecen un diseño complementario. La esfera analógica cuenta con vibrantes franjas arcoíris, que fluyen de manera dinámica por la pantalla para formar grandes dígitos cuando los usuarios levantan la muñeca para mirar la hora. Los colores del fondo de pantalla del iPhone y iPad cambian de lugar cuando los usuarios mueven, bloquean o desbloquean el dispositivo. La esfera Orgullo y Armonía y el fondo de pantalla para el iPhone y iPad estarán disponibles próximamente en una actualización de software de watchOS 11.5, iOS 18.5 y iPadOS 18.5. Apple se enorgullece de apoyar económicamente a organizaciones que trabajan con las comunidades LGBTQ+. Precio y disponibilidad Apple News. Traducido al español

Leer más »

Hybrid AI model crafts smooth, high-quality videos in seconds

The CausVid generative AI tool uses a diffusion model to teach an autoregressive (frame-by-frame) system to rapidly produce stable, high-resolution videos. What would a behind-the-scenes look at a video generated by an artificial intelligence model be like? You might think the process is similar to stop-motion animation, where many images are created and stitched together, but that’s not quite the case for “diffusion models” like OpenAl’s SORA and Google’s VEO 2. Instead of producing a video frame-by-frame (or “autoregressively”), these systems process the entire sequence at once. The resulting clip is often photorealistic, but the process is slow and doesn’t allow for on-the-fly changes.  Scientists from MIT’s Computer Science and Artificial Intelligence Laboratory (CSAIL) and Adobe Research have now developed a hybrid approach, called “CausVid,” to create videos in seconds. Much like a quick-witted student learning from a well-versed teacher, a full-sequence diffusion model trains an autoregressive system to swiftly predict the next frame while ensuring high quality and consistency. CausVid’s student model can then generate clips from a simple text prompt, turning a photo into a moving scene, extending a video, or altering its creations with new inputs mid-generation. This dynamic tool enables fast, interactive content creation, cutting a 50-step process into just a few actions. It can craft many imaginative and artistic scenes, such as a paper airplane morphing into a swan, woolly mammoths venturing through snow, or a child jumping in a puddle. Users can also make an initial prompt, like “generate a man crossing the street,” and then make follow-up inputs to add new elements to the scene, like “he writes in his notebook when he gets to the opposite sidewalk.” A video produced by CausVid illustrates its ability to create smooth, high-quality content. AI-generated animation courtesy of the researchers. The CSAIL researchers say that the model could be used for different video editing tasks, like helping viewers understand a livestream in a different language by generating a video that syncs with an audio translation. It could also help render new content in a video game or quickly produce training simulations to teach robots new tasks. Tianwei Yin SM ’25, PhD ’25, a recently graduated student in electrical engineering and computer science and CSAIL affiliate, attributes the model’s strength to its mixed approach. “CausVid combines a pre-trained diffusion-based model with autoregressive architecture that’s typically found in text generation models,” says Yin, co-lead author of a new paper about the tool. “This AI-powered teacher model can envision future steps to train a frame-by-frame system to avoid making rendering errors.” Yin’s co-lead author, Qiang Zhang, is a research scientist at xAI and a former CSAIL visiting researcher. They worked on the project with Adobe Research scientists Richard Zhang, Eli Shechtman, and Xun Huang, and two CSAIL principal investigators: MIT professors Bill Freeman and Frédo Durand. Caus(Vid) and effect Many autoregressive models can create a video that’s initially smooth, but the quality tends to drop off later in the sequence. A clip of a person running might seem lifelike at first, but their legs begin to flail in unnatural directions, indicating frame-to-frame inconsistencies (also called “error accumulation”). Error-prone video generation was common in prior causal approaches, which learned to predict frames one by one on their own. CausVid instead uses a high-powered diffusion model to teach a simpler system its general video expertise, enabling it to create smooth visuals, but much faster. Play video CausVid enables fast, interactive video creation, cutting a 50-step process into just a few actions.Video courtesy of the researchers. CausVid displayed its video-making aptitude when researchers tested its ability to make high-resolution, 10-second-long videos. It outperformed baselines like “OpenSORA” and “MovieGen,” working up to 100 times faster than its competition while producing the most stable, high-quality clips. Then, Yin and his colleagues tested CausVid’s ability to put out stable 30-second videos, where it also topped comparable models on quality and consistency. These results indicate that CausVid may eventually produce stable, hours-long videos, or even an indefinite duration. A subsequent study revealed that users preferred the videos generated by CausVid’s student model over its diffusion-based teacher. “The speed of the autoregressive model really makes a difference,” says Yin. “Its videos look just as good as the teacher’s ones, but with less time to produce, the trade-off is that its visuals are less diverse.” CausVid also excelled when tested on over 900 prompts using a text-to-video dataset, receiving the top overall score of 84.27. It boasted the best metrics in categories like imaging quality and realistic human actions, eclipsing state-of-the-art video generation models like “Vchitect” and “Gen-3.” While an efficient step forward in AI video generation, CausVid may soon be able to design visuals even faster — perhaps instantly — with a smaller causal architecture. Yin says that if the model is trained on domain-specific datasets, it will likely create higher-quality clips for robotics and gaming. Experts say that this hybrid system is a promising upgrade from diffusion models, which are currently bogged down by processing speeds. “[Diffusion models] are way slower than LLMs [large language models] or generative image models,” says Carnegie Mellon University Assistant Professor Jun-Yan Zhu, who was not involved in the paper. “This new work changes that, making video generation much more efficient. That means better streaming speed, more interactive applications, and lower carbon footprints.” The team’s work was supported, in part, by the Amazon Science Hub, the Gwangju Institute of Science and Technology, Adobe, Google, the U.S. Air Force Research Laboratory, and the U.S. Air Force Artificial Intelligence Accelerator. CausVid will be presented at the Conference on Computer Vision and Pattern Recognition in June. MIT News. A. S.

Leer más »

El modelo de IA híbrido crea videos fluidos y de alta calidad en segundos

La herramienta de inteligencia artificial generativa CausVid utiliza un modelo de difusión para enseñar a un sistema autorregresivo (cuadro por cuadro) a producir rápidamente videos estables y de alta resolución. ¿Cómo sería una mirada entre bastidores a un vídeo generado por un modelo de inteligencia artificial? Podrías pensar que el proceso es similar a la animación stop-motion, donde se crean y unen muchas imágenes, pero no es así con los «modelos de difusión» como SORA de OpenAl y VEO 2 de Google. En lugar de producir un video fotograma a fotograma (o «autorregresivamente»), estos sistemas procesan toda la secuencia a la vez. El clip resultante suele ser fotorrealista, pero el proceso es lento y no permite cambios sobre la marcha.  Científicos del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT y Adobe Research han desarrollado un enfoque híbrido, llamado «CausVid», para crear videos en segundos. Al igual que un estudiante ingenioso que aprende de un profesor experto, un modelo de difusión de secuencia completa entrena un sistema autorregresivo para predecir rápidamente el siguiente fotograma, garantizando al mismo tiempo alta calidad y consistencia. El modelo de estudiante de CausVid puede entonces generar clips a partir de una simple instrucción de texto, convirtiendo una foto en una escena en movimiento, extendiendo un video o alterando sus creaciones con nuevas entradas a mitad de generación. Esta herramienta dinámica permite la creación rápida e interactiva de contenido, reduciendo un proceso de 50 pasos a solo unas pocas acciones. Permite crear numerosas escenas imaginativas y artísticas, como un avión de papel transformándose en cisne, mamuts lanudos aventurándose en la nieve o un niño saltando en un charco. Los usuarios también pueden crear una indicación inicial, como «generar un hombre cruzando la calle», y luego añadir elementos adicionales a la escena, como «escribe en su cuaderno al llegar a la acera de enfrente». Un vídeo producido por CausVid ilustra su capacidad para crear contenido fluido y de alta calidad.Animación generada por IA cortesía de los investigadores. Los investigadores de CSAIL afirman que el modelo podría utilizarse para diversas tareas de edición de vídeo, como ayudar a los espectadores a comprender una transmisión en directo en otro idioma mediante la generación de un vídeo sincronizado con la traducción del audio. También podría ayudar a renderizar nuevo contenido en un videojuego o a producir rápidamente simulaciones de entrenamiento para enseñar nuevas tareas a los robots. Tianwei Yin SM ’25, PhD ’25, estudiante recién graduado de ingeniería eléctrica e informática y afiliado de CSAIL, atribuye la solidez del modelo a su enfoque mixto. “CausVid combina un modelo basado en difusión pre-entrenado con arquitectura autorregresiva que típicamente se encuentra en modelos de generación de texto”, dice Yin, co-autor principal de un nuevo  artículo sobre la herramienta. “Este modelo de profesor potenciado por IA puede prever pasos futuros para entrenar un sistema cuadro por cuadro para evitar cometer errores de renderizado”. El co-autor principal de Yin, Qiang Zhang, es un científico investigador en xAI y un ex investigador visitante de CSAIL. Trabajaron en el proyecto con los científicos de Adobe Research Richard Zhang, Eli Shechtman y Xun Huang, y dos investigadores principales de CSAIL: los profesores del MIT Bill Freeman y Frédo Durand. Caus(Vid) y efecto Muchos modelos autorregresivos pueden crear un video que es fluido inicialmente, pero la calidad tiende a caer más adelante en la secuencia. Un clip de una persona corriendo puede parecer realista al principio, pero sus piernas comienzan a agitarse en direcciones poco naturales, lo que indica inconsistencias cuadro por cuadro (también llamado “acumulación de errores”). La generación de video propensa a errores era común en los enfoques causales anteriores, que aprendían a predecir fotogramas uno por uno por sí solos. En cambio, CausVid utiliza un modelo de difusión de alta potencia para enseñar a un sistema más simple su experiencia general en video, lo que le permite crear imágenes fluidas, pero con mucha más rapidez. Reproducir vídeoCausVid permite la creación rápida de videos interactivos, simplificando un proceso de 50 pasos a solo unas pocas acciones.Video cortesía de los investigadores. CausVid demostró su capacidad para crear videos cuando los investigadores probaron su capacidad para crear videos de alta resolución de 10 segundos. Superó a plataformas como OpenSORA y MovieGen , trabajando hasta 100 veces más rápido que la competencia y produciendo clips de la más alta calidad y estabilidad. Posteriormente, Yin y sus colegas probaron la capacidad de CausVid para generar videos estables de 30 segundos, donde también superó a modelos comparables en calidad y consistencia. Estos resultados indican que CausVid podría eventualmente producir videos estables de varias horas de duración, o incluso indefinidamente. Un estudio posterior reveló que los usuarios preferían los videos generados por el modelo de estudiantes de CausVid a su modelo de profesores basado en la difusión. “La velocidad del modelo autorregresivo realmente marca la diferencia”, afirma Yin. “Sus videos se ven igual de bien que los del profesor, pero al tener menos tiempo para producirlos, la desventaja es que sus elementos visuales son menos diversos”. CausVid también destacó en pruebas con más de 900 indicaciones utilizando un conjunto de datos de texto a video, obteniendo la máxima puntuación general de 84,27. Obtuvo las mejores métricas en categorías como calidad de imagen y acciones humanas realistas, eclipsando modelos de generación de video de vanguardia como » Vchitect » y » Gen-3 » . Si bien CausVid representa un avance eficiente en la generación de video con IA, pronto podrá diseñar imágenes aún más rápido, quizás al instante, con una arquitectura causal más pequeña. Yin afirma que si el modelo se entrena con conjuntos de datos específicos del dominio, probablemente creará clips de mayor calidad para robótica y videojuegos. Los expertos afirman que este sistema híbrido es una mejora prometedora respecto a los modelos de difusión, que actualmente se ven limitados por la velocidad de procesamiento. «[Los modelos de difusión] son ​​mucho más lentos que los modelos de lenguaje extenso (LLM) o los modelos de imágenes generativas», afirma el profesor adjunto de la Universidad Carnegie Mellon, Jun-Yan Zhu,

Leer más »

Samsung amplía el acceso directo al asistente de IA con el botón lateral en la serie Galaxy A

Gracias a la colaboración entre Samsung y Google, más usuarios pronto podrán activar Gemini de forma más intuitiva para una experiencia móvil más inteligente Samsung Electronics Co., Ltd. anunció hoy que algunos dispositivos de la serie Galaxy A pronto permitirán activar el asistente de IA a través del botón lateral, llevando una función favorita de los fans de la serie Galaxy S a más usuarios y reforzando la visión de Samsung de democratizar las experiencias más avanzadas de inteligencia artificial. Con esta actualización[1], los usuarios podrán disfrutar de experiencias de IA más inteligentes, incluyendo el lanzamiento de Gemini[2], el asistente impulsado por IA de Google, simplemente presionando y manteniendo el botón lateral. Samsung introdujo Awesome Intelligence[3] en los más recientes modelos de la serie Galaxy A: Galaxy A56 5G, Galaxy A36 5G y Galaxy A26 5G, incluyendo funciones de IA favoritas de los usuarios que acercan las increíbles experiencias móviles con inteligencia artificial de Galaxy a más usuarios. Ahora, la próxima actualización facilitará aún más que usuarios de todo el mundo de la serie Galaxy A completen tareas cotidianas de manera más intuitiva con acceso directo a Gemini desde el botón lateral. Reconocida por su equilibrio entre rendimiento y valor, la serie Galaxy A ahora ofrece una experiencia móvil más inteligente gracias a esta actualización. Con un acceso más sencillo a Gemini, los usuarios podrán consultar su agenda, encontrar restaurantes cercanos o recibir recomendaciones de regalos de cumpleaños con simples comandos de voz. También podrán realizar tareas entre distintas aplicaciones[4] con un solo comando como buscar un lugar para cenar en Google Maps y enviar la dirección a un amigo por Mensajes, abarcando apps de Samsung, Google y de terceros seleccionadas. “Samsung y Google han trabajado juntos para ofrecer experiencias de IA fluidas, intuitivas y significativas, haciendo que la tecnología más reciente sea accesible para más usuarios”, dijo Jay Kim, Vicepresidente Ejecutivo y Head d Customer Experience Office, Mobile eXperience Business en Samsung Electronics. “Nos entusiasma que los usuarios de la serie Galaxy A ahora puedan activar Gemini de forma más rápida y natural con un simple gesto que integra asistencia inteligente en sus tareas diarias”. Un acceso más rápido a Gemini significa ayuda disponible en momentos cotidianos como hacer planes de cena de último minuto. Con un simple comando de voz, los usuarios pueden decir: “Busca restaurantes franceses, pet-friendly y con terraza cerca de mí” y recibir sugerencias en segundos, lo que facilita elegir un lugar y compartirlo con un amigo sin escribir una sola palabra. A partir de los primeros días de mayo, una actualización de software se desplegará a nivel mundial en modelos específicos de la serie Galaxy A. Para más información sobre la serie Galaxy A, visita: Samsung Newsroom Latinoamérica, Samsung Mobile Press y Samsung.com. [1] La disponibilidad y las funciones compatibles pueden variar según el mercado, el operador y el modelo del dispositivo. Esta actualización solo estará disponible en los modelos Galaxy A56 5G, A55 5G, A54 5G, A36 5G, A35 5G, A34 5G, A26 5G, A25 5G, A25e 5G y A24 que ejecuten One UI 7, y su despliegue está programado para comenzar en mayo. El calendario está sujeto a cambios. [2] Se requiere conexión a internet y un sistema operativo compatible. La disponibilidad puede variar según el dispositivo, país/región e idioma. [3] Awesome Intelligence está disponible en los modelos Galaxy A56 5G, Galaxy A36 5G y Galaxy A26 5G. La disponibilidad de las funciones de Awesome Intelligence puede variar según el país/región, la versión de One UI/SO, el modelo del dispositivo y el operador. [4] Se requiere conexión a internet e inicio de sesión en una cuenta de Google. La disponibilidad del servicio puede variar según el país/región, el idioma y el modelo del dispositivo. Funciona en aplicaciones compatibles. La disponibilidad de funciones puede diferir según el tipo de suscripción y los resultados pueden variar. Algunas funciones o aplicaciones pueden requerir configuración previa. No se garantiza la precisión de los resultados. Samsung News

Leer más »

IBM y Scuderia Ferrari HP Debut Reimaginaron la Aplicación Móvil para Supercharge Global Formula 1 Fan Experience

IBM trae IA generativa a la aplicación por primera vez a través de características completamente nuevas, como resúmenes de carreras, estadísticas históricas, información posterior a la carrera, encuestas interactivas, mensajes de fanáticos y aspectos destacados de carreras icónicos – Global Tifosi ahora puede experimentar la aplicación móvil Scuderia Ferrari por primera vez en italianoIBM y Scuderia Ferrari HP continuarán lanzando nuevas funciones de aplicaciones a lo largo de 2025 para proporcionar a los fanáticos acceso y compromiso sin parar de Scuderia Ferrari HP ARMONK, N.Y., 1 De mayo de 2025 /PRNewswire/– IBM (NYSE: IBM) y la Scuderia Ferrari HP presentó hoy un nuevo reimaginado experiencia de aplicación móvil diseñado para acercar más que nunca a los autos, conductores y carreras que aman la apasionada base de fans global de casi 400 millones de Tifosi. Ahora disponible en Inglés y – por primera vez – italiano, la aplicación incluye un nuevo Centro de Carreras y Racing Insights construido con IBM watsonx ofreciendo una experiencia más inmersiva. Estas características impulsadas por IA tienen como objetivo acercar aún más a los fanáticos a toda la acción de Scuderia Ferrari HP desde el fin de semana de carrera e incluyen: Nuevas características de la aplicación Scuderia Ferrari, que incluyen Race Centre, capacidades de idioma italiano, Race Summaries y Fan Polls Junto con Race Center, IBM y Scuderia Ferrari han lanzado nuevas características de aplicaciones diseñadas para ofrecer a los fanáticos experiencias personalizadas e interactivas para los fanáticos durante todo el año — 24/7, los 365 días del año. Estos incluyen: IBM y Scuderia Ferrari continuarán lanzando nuevas características de aplicaciones a lo largo de 2025 para hacer que la temporada de carreras sea aún más emocionante. Al combinar datos y tecnologías de IA con las vastas cantidades de datos actuales e históricos del equipo, IBM y la Scuderia Ferrari están trabajando para reimaginar la experiencia de los fanáticos digitales de manera que profundicen la conexión entre Tifosi, los fanáticos de la F1 y el equipo de carreras de F1 más famoso del mundo. «IBM y Ferrari están obligados por un compromiso compartido con el progreso, la innovación y la excelencia», dijo Jonathan Adashek, Vicepresidente Senior de Marketing y Comunicaciones de IBM. «Con AI, estamos creando un nuevo plan para la participación de los fanáticos digitales que acerca aún más a la Scuderia Ferrari, ya sea fin de semana de carrera o no. La aplicación está construida con las mismas tecnologías de datos y análisis utilizadas por los clientes de IBM en todas las industrias para lograr mejores experiencias de los clientes, ayudar a sus empleados a alcanzar nuevos niveles de productividad y tomar decisiones comerciales más informadas y basadas en datos.» «Esta aplicación se trata de acercar a todos nuestros fanáticos al corazón del mundo de las carreras de Ferrari», dijo Lorenzo Giorgetti, Director de Ingresos de Carreras, Ferrari. «Con la tecnología de IA de vanguardia de IBM y nuestro compromiso compartido con la innovación y la excelencia, estamos creando una experiencia digital digna del nombre de Ferrari. El proyecto acaba de ser lanzado y será cada vez más completo en los próximos meses, maximizando el potencial de las herramientas que IBM está poniendo a nuestra disposición. No puedo esperar a ver a los fans interactuando con esta nueva aplicación, entrando en una nueva dimensión de la experiencia Ferrari.» Descargue la aplicación móvil rediseñada Scuderia Ferrari, ahora disponible en dispositivos móviles, en el Apple Tienda de Aplicaciones y el Google Play Store. Haga clic aquí para obtener más información sobre IBM y Scuderia Ferrari HP. Las declaraciones con respecto a la dirección e intención futuras de IBM están sujetas a cambios o retiros sin previo aviso, y representan solo metas y objetivos. IBM News. Traducido al español

Leer más »

Liberando el poder de la IA con Lenovo Workstations e Intel

Maximice la productividad y la innovación para darse cuenta del verdadero poder de la IA para ofrecer resultados comerciales más inteligentes y exitosos. 2 De mayo de 2025 La evolución acelerada de las herramientas habilitadas para IA presenta oportunidades nuevas y aparentemente ilimitadas para las empresas. Se está entendiendo bien cómo la IA puede ayudar a realizar tareas de manera más rápida y eficiente. A medida que avanza el panorama de la IA, las organizaciones tienen el desafío de encontrar soluciones con potencia informática para manejar el uso y la construcción de cargas de trabajo complejas de IA. Sin embargo, simplemente saber por dónde empezar a elegir las soluciones informáticas adecuadas para satisfacer las necesidades de un organizativo puede ser un desafío. Algunas organizaciones son pequeñas y ágiles, y solo necesitan algunas máquinas poderosas para equipar a los diseñadores y científicos de datos, que pueden o no requerir una solución móvil. Otras organizaciones, por ejemplo, como una empresa global, podrían depender en gran medida de los proveedores de servicios en la nube para un levantamiento pesado, y están buscando brindar más limpieza y capacitación de datos, así como más creación de modelos de IA, en las instalaciones para reducir costos. Dondequiera que las empresas estén en su viaje de IA, Lenovo está aquí para ayudar a las empresas a alcanzar sus objetivos y obtener el mayor valor de las iniciativas de IA. Así de diferentes son Estaciones de trabajo de Lenovo están ayudando a incorporar y apoyar las activaciones de IA. Desarrollo de IA a Escala – Dondequiera que ocurra el Trabajo  El Lenovo PX ThinkStation es la estación de trabajo más rápida y poderosa de la industria para cargas de trabajo de ciencia de datos. Es la única estación de trabajo en el mercado que admite dos procesadores escalables Intel Xeon 64C, hasta cuatro GPU NVIDIA RTX Pro 6000 Max-Q Blackwell Generation y 4TB de memoria del sistema. El Lenovo ThinkStation PX funciona con Intel dual de 4a generación® Xeón® Procesadores escalables y capaces de entregar hasta 128 núcleos. ThinkStation PX es la opción ideal para los profesionales de IA con las cargas de trabajo de aprendizaje automático, aprendizaje profundo y análisis de datos más exigentes y se puede implementar en computadoras de escritorio o se puede acceder de forma remota con Lenovo Remote Workstation Solutions. Esta estación de trabajo de gama ultra alta es perfecta para proyectos avanzados de IA, ajuste de modelos de lenguaje grande y cargas de trabajo extremas de análisis de datos. Las estaciones de trabajo de escritorio ThinkStation P7 y P5 de Lenovoo, impulsadas por procesadores Intel Xeon, están diseñadas específicamente para el desarrollo de IA y la capacitación de cargas de trabajo a escala. Diseñados para satisfacer las necesidades de la gran mayoría de los desarrolladores de IA, estos sistemas ofrecen el rendimiento y la capacidad de expansión necesarios para manejar grandes conjuntos de datos y capacitación de modelos complejos. El ThinkStation P5 admite hasta dos GPU de alto rendimiento, mientras que el P7 lo lleva más lejos con soporte para hasta tres, lo que permite un mayor procesamiento paralelo y resultados más rápidos. Estos sistemas son ideales para desarrolladores que exigen la máxima potencia de cómputo en el escritorio. Para aquellos que trabajan en entornos de estilo más móviles o independientes, las estaciones de trabajo móviles ThinkPad de Lenovoova ofrecen la libertad de desarrollar IA en cualquier lugar, sin compromiso. Dispositivos como el ThinkPad P1 Gen 7 impulsado por Intel Core Ultra admiten hasta 192 GB de memoria del sistema, lo que brinda a los desarrolladores de IA la capacidad de crear prototipos, probar y ejecutar flujos de trabajo de inferencia mientras viajan. Con la combinación correcta de rendimiento, portabilidad y especificaciones adaptadas a los flujos de trabajo de IA, es una máquina de ensueño para desarrolladores, no se requiere una gran dependencia de la nube. Estaciones de trabajo de Lenovo con Anaconda El hardware rápido es solo una parte de la solución para hacer ciencia de datos directamente en su escritorio. Los científicos de datos también necesitan un software que resuelva sus problemas, independientemente de la plataforma que estén utilizando. Lenovo se asocia con Anaconda® Inc., el proveedor líder de la plataforma de IA, aprendizaje automático y ciencia de datos más popular del mundo, para capacitar a las estaciones de trabajo de ciencia de datos de alto rendimiento de Lenovo. Las estaciones de trabajo de Lenovo con Anaconda Navigator ofrecen entornos protegidos “sandbox” para abordar el desarrollo y la implementación de soluciones de IA más complejos. La combinación de Lenovo y Anaconda permite a los científicos de datos y profesionales de IA con innovación de código abierto de vanguardia, al tiempo que ayuda a TI a cumplir con los requisitos de seguridad y presupuesto que exigen sus líderes. Estaciones de Trabajo Casos de Uso para Diferentes Industrias  El poder de las estaciones de trabajo AI de Lenovoova les convierte en una buena opción para una variedad de industrias. Medios y entretenimiento los profesionales los usan para animación y VFX porque los potentes procesadores pueden renderizar gráficos de alta calidad y simulaciones de la vida real. La serie ThinkPad P es especialmente popular entre los editores de video porque puede manejar la edición de video 4K y la clasificación de color. El industrias de arquitectura, ingeniería, construcción y operaciones (AECO) confíe en las estaciones de trabajo para la dinámica de fluidos computacional (CFD) y el análisis de elementos finitos (FEA) en modelado 3D, visualización arquitectónica y CAD. Los arquitectos e ingenieros confían en su alto poder de procesamiento y capacidades gráficas dedicadas para ejecutar programas de diseño sofisticados. Los ingenieros utilizan específicamente las estaciones de trabajo de Lenovo para el diseño de productos, simulaciones mecánicas, pruebas de prototipos y otras tareas que requieren un cálculo significativo. La serie ThinkPad P de Lenovoows con procesadores Intel Ultra está diseñada de forma única para admitir industrias de salud y ciencias de la vida por ayudar a los profesionales a analizar datos complejos de MRI, CT scans y ultrasonidos. Estas estaciones de trabajo también se pueden utilizar en genómica

Leer más »
Scroll al inicio