El Portal de las Tecnologías para la Innovación

Categoría: Big Data y Analítica Avanzada

Desbloquear los secretos de las transiciones de fase en el hardware cuántico

Los investigadores de EPFL han logrado un resultado notable: capturar y estudiar los cambios de fase en el hardware cuántico, lo que podría ser prometedor para las tecnologías de próxima generación como la computación cuántica y los sensores ultrasensibles. Las transiciones de fase, como la congelación de agua en hielo, son una parte familiar de nuestro mundo. Pero en los sistemas cuánticos, pueden comportarse aún más dramáticamente, con propiedades cuánticas como la incertidumbre de Heisenberg que juegan un papel central. Además, varios efectos espurios pueden hacer que los sistemas pierdan o disipen energía para el medio ambiente. Cuando suceden, estas “transiciones de fase disipativas” (DPT) empujan los sistemas cuánticos a nuevos estados. Hay diferentes tipos o “órdenes” de DPT. Los DPT de primer orden son como voltear un interruptor, causando saltos abruptos entre estados. Los DPT de segundo orden son más suaves pero aún transformadores, cambiando una de las características globales de los sistemas, conocida como simetría, de maneras sutiles pero profundas. Los DPT son clave para comprender cómo se comportan los sistemas cuánticos en condiciones de no equilibrio, donde los argumentos basados en la termodinámica a menudo no proporcionan respuestas. Más allá de la pura curiosidad, esto tiene implicaciones prácticas para construir computadoras y sensores cuánticos más robustos. Por ejemplo, los DPT de segundo orden podrían mejorar el almacenamiento de información cuántica, mientras que los DPT de primer orden revelan mecanismos importantes de estabilidad y control del sistema. Teóricamente, se ha predicho que los DPT muestran propiedades específicas, como la desaceleración y la bistabilidad, que ocurren con escalas específicas de ley de potencia. Hasta ahora, observarlos ha sido un gran obstáculo científico —, especialmente los de segundo orden. Pero ahora, un equipo de investigadores ha hecho precisamente eso. Dirigidos por el profesor Pasquale Scarlino en EPFL, desarrollaron un resonador Kerr superconductor, un dispositivo con propiedades cuánticas controlables, y lo diseñaron para experimentar una unidad de dos fotones, que envía pares de fotones al sistema para controlar cuidadosamente su estado cuántico y estudiar cómo transita entre diferentes fases. Al variar sistemáticamente parámetros como la separación y la amplitud de la unidad, pudieron estudiar las transiciones systemis de un estado cuántico a otro. El enfoque les permitió observar tanto un DPT de primer orden como de segundo orden. Para garantizar la precisión, los experimentos se llevaron a cabo a temperaturas cercanas al cero absoluto, reduciendo el ruido de fondo a casi nada. El resonador Kerr fue fundamental porque puede amplificar los efectos cuánticos que a menudo son demasiado sutiles para observar. Debido a que puede responder a señales de dos fotones con extrema sensibilidad, los investigadores pudieron usarlo para explorar transiciones de fase con una precisión sin precedentes, algo que las configuraciones tradicionales simplemente no pueden lograr. La configuración permitió al equipo monitorear el comportamiento de los fotones emitidos por el resonador con detectores ultrasensibles. Mediante el uso de técnicas matemáticas avanzadas, como la conexión con las propiedades espectrales del superoperador Liouvilliano—, una herramienta que modela procesos cuánticos complejos—, los científicos pudieron rastrear y analizar con precisión las transiciones de fase de los sistemas. Para el DPT de segundo orden, el equipo observó un fenómeno llamado “squeezing,” donde las fluctuaciones cuánticas caen a niveles más bajos que el ruido de fondo natural del espacio vacío, lo que indica que el sistema ha alcanzado un estado altamente sensible y transformador. Mientras tanto, el DPT de primer orden mostró distintos ciclos de histéresis, donde el sistema podría existir en dos estados dependiendo de cómo se ajustaron los parámetros. En segundo lugar, encontraron evidencia clara de estados metaestables durante el DPT de primer orden, donde el sistema permaneció temporalmente en un estado estable antes de pasar abruptamente a otro. Este comportamiento, que conduce a una dependencia del estado de systems en su historia anterior conocida como histéresis, muestra cómo los DPT de primer orden involucran fases competitivas. Por último, observaron una «desaceleración crítica» en ambos tipos de transiciones, reproduciendo la escala esperada obtenida de la consideración teórica. Esto demuestra en última instancia la validez de las predicciones teóricas basadas en la teoría liouviliana utilizada por los autores. Cerca de los puntos críticos, la respuesta de systemis se desaceleró significativamente, destacando una característica universal de las transiciones de fase que podrían aprovecharse para mediciones cuánticas más precisas. Comprender los DPT abre nuevas posibilidades para diseñar sistemas cuánticos que sean estables y receptivos. Esto podría revolucionar las tecnologías de la información cuántica, como la corrección de errores en la computación cuántica o el desarrollo de sensores cuánticos ultrasensibles. En términos más generales, esta investigación muestra el poder de la colaboración interdisciplinaria, que combina física experimental, modelos teóricos avanzados e ingeniería de vanguardia para explorar las fronteras de la ciencia. “De hecho, un aspecto muy interesante de este trabajo es que también demuestra cómo la estrecha colaboración entre la teoría y el experimento puede conducir a resultados mucho mayores de lo que cualquiera de los grupos podría haber logrado de forma independiente,” dice Guillaume Beaulieu, el primer autor de los artículos. Otros contribuyentes Financiación Fundación Nacional Suiza para la Ciencia (SNSF) Secretaría de Estado de Educación, Investigación e Innovación (SERI) EPFL Consejo de Investigación de Finlandia Referencias Guillaume Beaulieu, Fabrizio Minganti, Simone Frasca, Vincenzo Savona, Simone Felicetti, Roberto Di Candia, Pasquale Scarlino. Observación de transiciones de fase disipativas de primer y segundo orden en un resonador Kerr impulsado por dos fotones. Nature Communications 10 marzo 2025. DOI: 10.1038/s41467-025-56830-w EPFL News. P. N. Traducido al español

Leer más »

IBM colabora con Astronomer para fortalecer la robustez de Apache Airflow dentro de las empresas

Nos complace anunciar que IBM está trabajando con Astronomer, una plataforma líder administrada de Apache Airflow para ayudar a llevar la orquestación de datos sin problemas a los clientes, a través de nuestro producto OEM, Astronomer with IBM. Esta colaboración ampliará las tecnologías de integración de datos existentes de IBM para trabajar sin problemas el popular proyecto de código abierto Apache Airflow. Esto fortalecerá el posicionamiento de IBM dentro de los equipos de ingeniería nativos de la nube y de código abierto con necesidades de seguridad, gobierno y orquestación de datos de nivel empresarial. Astronomer es una organización con sede en Nueva York que es el impulsor comercial y el principal contribuyente al proyecto Apache Airflow, que es utilizado por más de 15,000 equipos de ingeniería de datos para construir, programar y orquestar tuberías para aplicaciones de análisis e IA. Astronomer fue fundada en 2018 y ha recaudado aproximadamente $300 millones de inversores, incluidos Bain Capital Ventures, JP Morgan Chase y Salesforce Ventures. Orquestación y operaciones de datos simplificados “IBM se complace en anunciar esta iniciativa con Astronomer y su plataforma empresarial líder para el popular Apache Airflow,” dice Scott Brokaw, Vicepresidente de Producto, Integración de Datos de IBM. “Esta colaboración se alinea con nuestro compromiso con el código abierto y tiene como objetivo fortalecer la presencia de IBM entre los equipos modernos de ingeniería de datos y en la nube. Nuestros clientes se beneficiarán de la integración de las soluciones de datos de primer nivel de IBM con el mejor servicio administrado de Astronomer para Apache Airflow, ofreciéndoles lo mejor de ambos mundos Astrónomo con IBM es la plataforma unificada para orquestar y gobernar todos los componentes clave de su pila de datos y aplicaciones, incluidas las cargas de trabajo de IA de generación. Nuestra solución ayuda a garantizar que los datos se entreguen a tiempo, con la velocidad y la escala de sus aplicaciones críticas y la demanda de productos de datos. También abstraemos la plomería manual que los equipos realizan tradicionalmente para implementar Airflow en la producción y a escala dentro de las empresas. Minimice las interrupciones de datos con la orquestación “Todas las empresas están buscando formas de operacionalizar mejor sus datos para obtener una ventaja competitiva, ya sean soluciones de IA y MLOps o análisis avanzados, y una fuerte orquestación de datos es la clave del éxito,” dijo Andy Byron, CEO de Astronomer. “Los equipos de datos de todo el mundo han gravitado a Apache Airflow porque es el estándar de facto para la orquestación de datos, y en Astronomer proporcionamos la mejor manera de ejecutar Airflow. Colaborar con IBM nos permite vincular nuestra experiencia en Airflow con su profundo conocimiento empresarial y su probada nube híbrida y plataformas de gestión de datos impulsadas por IA para que los clientes obtengan más valor de sus datos Astrónomo con IBM estará disponible como un software alojado en el cliente para atender las necesidades de orquestación de datos de nuestros clientes dentro de las industrias y mercados de regulación media a alta. ¿Cuáles son los beneficios del cliente? Los clientes que ejecutan Astronomer con IBM pueden esperar un reducción estimada del 70%en tiempo de inactividad de datos y 20% de ahorro de tiempo para desarrollar, probar y construir nuevas tuberías. Otros beneficios incluyen: Astrónomo con IBM, aprovecha la tecnología líder de gestión de datos de IBM y el soporte estelar con la tecnología líder de flujo de aire administrado de Astronomería. IBM News. Traducido al español

Leer más »

Conecte Carga de Trabajo y Silos de Datos a Su Red a Prueba de Futuro

Reduzca el riesgo y simplifique la gestión de la infraestructura distribuida con redes seguras multicloud que sean ágiles, escalables y flexibles En el panorama digital fragmentado de hoy, las empresas enfrentan un desafío común con sus estrategias multicloud: conectar cargas de trabajo y datos en entornos cada vez más complejos, incluidas nubes públicas, centros de datos de colocación y centros de datos locales. La distribución de aplicaciones y datos modernos en la nube en múltiples entornos crea silos que las redes tradicionales no pueden admitir. Los entornos en silos introducen una interoperabilidad limitada, una gestión inconsistente y desafíos de conectividad. Esto a su vez conduce a problemas de rendimiento, altos costos operativos y riesgos de seguridad. Además, la IA está intensificando la necesidad de una conectividad perfecta. Tanto la capacitación como la inferencia requieren capacidades de transmisión de datos seguras y rápidas para garantizar una baja latencia. A menos que se aborden estos problemas, las redes podrían convertirse en el cuello de botella para ejecutar aplicaciones modernas y distribuidas. ¿Por qué existen la carga de trabajo y los silos de datos? Las empresas están adoptando estrategias multicloud, lo que les permite acceder y utilizar los mejores servicios para ejecutar aplicaciones y almacenar datos. Según el Informe de la Encuesta Multicloud Networking y NaaS de 2024 por Futuriom, el 49% de los gerentes de TI y redes dijeron que están siguiendo una estrategia multicloud. Esta evolución del uso de un único proveedor de servicios en la nube (CSP) a múltiples CSP requiere la distribución fluida de cargas de trabajo y datos entre las nubes y otros entornos de infraestructura. Las empresas necesitan una solución de red que pueda cruzar entre las cargas de trabajo y los datos para mantener sus aplicaciones continuamente conectadas y evitar la creación de silos. La infraestructura de red para la conectividad multicloud se está volviendo más compleja que nunca, por varias razones: Rompiendo silos con redes multicloud Una solución de red multicloud también puede ayudar a las empresas a establecer una conectividad perfecta entre múltiples nubes, incluidas las públicas y privadas, y los centros de datos. En la encuesta de Futuriom, el 71% de los encuestados dijo que es muy importante tener una conectividad de red multicloud perfecta entre el centro de datos empresarial, edge, telecomunicaciones y nube pública, en comparación con el 59% en 2023. Las empresas pueden lograr agilidad operativa integrando servicios de red multicloud como una capa de infraestructura de red crítica mientras mantienen la gobernanza y el control. Conectar aplicaciones y datos distribuidos con redes seguras e inteligentes puede ayudar a las empresas a reducir el riesgo y simplificar la gestión de sus estrategias multicloud e híbridas. Soluciones de red multicloud proporcione un marco unificado y automatizado para conectar diversos entornos de nube. Son fundamentales para las estrategias de nube híbrida y multicloud, proporcionando servicios de red virtualizados definidos por software que enrutan el tráfico entre nubes públicas y privadas y entre nubes y centros de datos locales o de colocación. Estas soluciones ayudan a los equipos a crear redes que pueden cruzar silos y mantener las aplicaciones conectadas constantemente, independientemente de dónde residan las cargas de trabajo. La red Multicloud también sirve como una plataforma para conectar diversos entornos de nube y centros de datos para transportar y administrar datos de forma segura. La eliminación de silos con redes multicloud permite a las empresas resolver casos de uso, como la conexión de aplicaciones en silos en diferentes nubes, lo que permite una integración de datos perfecta entre los recursos y garantiza la recuperación/falla de desastres entre las nubes. La implementación de una solución de red multicloud también ayuda a las empresas: Las cargas de trabajo y los datos de IA intensifican la necesidad de una conectividad perfecta A medida que aumenta la complejidad de las aplicaciones de IA, la conectividad de red debe funcionar dinámicamente, proporcionando grandes cantidades de ancho de banda para duraciones cortas y conectividad de baja latencia a ubicaciones globales. De los administradores de TI y redes encuestados por Futuriom, el 82% dijo que los servicios de IA aumentarán la necesidad de servicios de red multicloud. El diseño de red es crucial en la planificación de la implementación de IA para evitar cuellos de botella en el rendimiento y enfrentar los desafíos de escalabilidad. Las empresas necesitan transportar, proteger y administrar más datos que nunca a través de recursos más diversos y distribuidos. La protección futura de su red para IA comienza determinando cómo: Las organizaciones necesitarán conectividad de red segura, de baja latencia y alta capacidad a sus fuentes de datos de IA distribuidas para garantizar un rendimiento predecible. La red multicloud es un factor crítico de éxito de la IA; es flexible y a prueba de futuro, con la capacidad de adaptarse y cambiar a medida que avanza el proyecto de IA. Arquitectura de referencia para una implementación privada de IA en Platform Equinix Los ecosistemas tradicionales están evolucionando y ahora incluyen nuevos servicios y soluciones relacionados con la IA. Las empresas preocupadas por invertir en hardware y tecnología que estarán desactualizadas rápidamente pueden conectarse con un ecosistema robusto de proveedores de hardware y software de IA probados. La GPU como servicio bajo demanda (GPUaaS) equipa a las empresas con una potencia de cómputo de alto rendimiento para la IA. La red Multicloud permite a las empresas acceder a los ecosistemas de IA de forma segura y rápida. Comenzando con redes multicloud en un entorno neutral para el proveedor La protección futura de su red nunca ha sido más importante. Colocar cargas de trabajo en los mejores entornos y garantizar que los datos sean fácilmente accesibles es solo el comienzo. Sin una conectividad segura y sin interrupciones, sus cargas de trabajo y datos se aislarán en silos. En su lugar, elija una solución de red multicloud que pueda implementar en una plataforma que le brinde acceso a un ecosistema diverso de miles de NSP locales, regionales e internacionales. Estos NSP pueden ayudar con la planificación, implementación, soporte y administración

Leer más »

Cisco IT implementa un centro de datos listo para IA en semanas, mientras escala para el futuro

Cisco IT diseñó una infraestructura lista para IA con cómputo de Cisco, las mejores GPU NVIDIA de su clase y redes de Cisco que admiten capacitación e inferencia de modelos de IA en docenas de casos de uso para equipos de ingeniería y productos de Cisco.  No es ningún secreto que la presión para implementar la IA en todo el negocio presenta desafíos para los equipos de TI. Nos desafía a implementar nuevas tecnologías más rápido que nunca y repensar cómo se construyen los centros de datos para satisfacer las crecientes demandas en computación, redes y almacenamiento. Si bien el ritmo de la innovación y el avance empresarial es estimulante, también puede parecer desalentador.   ¿Cómo construye rápidamente la infraestructura del centro de datos necesaria para impulsar las cargas de trabajo de IA y mantenerse al día con las necesidades comerciales críticas? Esto es exactamente lo que nuestro equipo, Cisco IT, estaba enfrentando.  La pregunta del negocio Nos contactó un equipo de productos eso necesitaba una forma de ejecutar cargas de trabajo de IA que se utilizaría para desarrollar y probar nuevas capacidades de IA para productos Cisco. Lo Es eventualmente apoyaría la capacitación de modelos y la inferencia para múltiples equipos y dormitarns de casos de uso en todo el negocio. Y lo necesitaban hacer rápidamente. Con el necesidad para los equipos de productos para llevar innovaciones a nuestros clientes tan rápido como posible, nosotros tuvo que entregar el nuevo entorno en solo tres meses.   Los requisitos tecnológicos Comenzamos por trazar los requisitos para la nueva infraestructura de IA. Una red sin bloqueos y sin pérdidas era esencial con el tejido de cómputo de IA para garantizar una transmisión de datos confiable, predecible y de alto rendimiento dentro del clúster de IA. Ethernet fue la elección de primera clase. Otros requisitos incluidos:  El plan – con algunos desafíos que superar Con los requisitos establecidos, comenzamos a averiguar dónde se podría construir el clúster. Las instalaciones existentes del centro de datos no fueron diseñadas para soportar cargas de trabajo de IA. Sabíamos que construir desde cero con una actualización completa del centro de datos tomaría 18-24 meses –, lo que no era una opción. Necesitábamos entregar una infraestructura de IA operativa en cuestión de semanas, por lo que aprovechamos una instalación existente con cambios menores en el cableado y la distribución de dispositivos para acomodar.  Nuestras siguientes preocupaciones fueron sobre los datos que se utilizan para entrenar modelos. Dado que algunos de esos datos no se almacenarían localmente en la misma instalación que nuestra infraestructura de IA, decidimos replicar datos de otros centros de datos en nuestros sistemas de almacenamiento de infraestructura de IA para evitar problemas de rendimiento relacionados con la latencia de la red. Nuestro equipo de red tuvo que garantizar la capacidad de red suficiente para manejar esta replicación de datos en la infraestructura de IA. Ahora, llegar a la infraestructura real. Diseñamos el corazón de la infraestructura de IA con cómputo de Cisco, las mejores GPU de su clase de NVIDIA y redes de Cisco. En el lado de la red, construimos una red ethernet de front-end y una red ethernet sin pérdidas de back-end. Con este modelo, confiamos en que podríamos implementar rápidamente capacidades avanzadas de IA en cualquier entorno y continuar agregándolas a medida que trajimos más instalaciones en línea. Productos:  Apoyando un entorno en crecimiento Después de hacer que la infraestructura inicial estuviera disponible, la empresa agregó más casos de uso cada semana y agregamos clústeres de IA adicionales para respaldarlos. Necesitábamos una forma de facilitar la administración, incluida la administración de las configuraciones de los conmutadores y el monitoreo de la pérdida de paquetes. Utilizamos Cisco Nexus Dashboard, que simplificó drásticamente las operaciones y aseguró que pudiéramos crecer y escalar para el futuro. Ya lo estábamos usando en otras partes de las operaciones de nuestro centro de datos, por lo que era fácil extenderlo a nuestra infraestructura de IA y no requería que el equipo aprendiera una herramienta adicional.  Los resultados Nuestro equipo pudo moverse rápido y superar varios obstáculos en el diseño de la solución. Pudimos diseñar e implementar el backend del tejido AI en menos de tres horas e implementar todo el clúster y las telas AI en 3 meses, que fue un 80% más rápido que la reconstrucción alternativa.   Hoy en día, el entorno admite más de 25 casos de uso en todo el negocio, con más añadidos cada semana. Esto incluye: No solo pudimos apoyar las necesidades del negocio hoy, sino que weisre diseñar cómo nuestros centros de datos necesitan evolucionar para el futuro. Estamos construyendo activamente más grupos y compartiremos detalles adicionales sobre nuestro viaje en futuros blogs.La modularidad y flexibilidad de las redes de Cisco calculary la seguridad nos da la confianza de que podemos seguir escalando con el negocio.  Cisco Blog. J. W. y L. W. Traducido al español

Leer más »

Centros de datos all-flash: Impulse sus sistemas de producción con el almacenamiento all-flash convergente OceanStor Dorado de nueva generación

En todo el mundo, los ejecutivos de TI están comenzando a reconocer la necesidad del almacenamiento all-flash en su infraestructura crítica.  Dado que se espera que la inteligencia artificial (IA) y el aprendizaje automático (ML) dominen los sistemas de almacenamiento en los próximos años, las técnicas tradicionales de almacenamiento se han vuelto obsoletas, obligando a muchas empresas a buscar alternativas al almacenamiento híbrido.  En la era de la nube, el almacenamiento all-flash se ha convertido en una infraestructura clave para los centros de datos, ofreciendo la agilidad, la confiabilidad y la escalabilidad necesarias para las cargas de trabajo modernas. Por esta razón, Huawei invierte fuertemente en I+D (164.700 millones de yuanes chinos en 2023) como parte de su misión de crear soluciones que impulsen el crecimiento empresarial para empresas de todos los tamaños. En este blog, analizamos cómo los centros de producción se han migrado a sistemas all-flash para impulsar los servicios críticos para el negocio y cómo Huawei OceanStor Dorado se ha convertido en una opción líder en este espacio. Tendencias de los centros de producción all-flash : El primer paso para mejorar la productividad es actualizar la infraestructura de almacenamiento existente a almacenamiento all-flash de alto rendimiento. El siguiente paso en la transición a centros de datos all-flash es implementar tecnologías de última generación, como discos de estado sólido (SSD), que permiten aprovechar el potencial de las enormes reservas de datos. Las soluciones all-flash para centros de datos ofrecen un excelente rendimiento, eficiencia y durabilidad, lo que las hace ideales para gestionar cargas de trabajo de aprendizaje automático (ML), inteligencia artificial (IA) y computación de alto rendimiento (HPC). Los SSD ofrecen altas velocidades en toda la red, con excelente rendimiento, latencia y operaciones de entrada/salida por segundo (IOPS). Los SSD de gran capacidad escriben datos a un ancho de banda de aproximadamente 3500 MB/s, superando ampliamente a los HDD, que funcionan a 120 MB/s. Al combinarse con excelentes especificaciones de memoria, esta eficiencia mejora el acceso a los datos y la velocidad de recuperación de los sitios de producción y respaldo, lo que permite a las empresas obtener predicciones precisas de la capacidad de los dispositivos en todas las regiones e incluso recuperarse de una posible falla.  La optimización de las operaciones es posible gracias a la red simplificada que ofrecen los conmutadores de alto rendimiento. En lugar de complejas arquitecturas de almacenamiento por niveles, los dispositivos flash admiten configuraciones NAS, SAN y multinube, pero sin silos y con un número significativamente mayor de operaciones de E/S. Los dispositivos flash son cada vez más rentables con cada nueva generación, lo que facilita su escalabilidad horizontal y vertical para satisfacer las demandas de tráfico intenso. Además, incluyen un software de gestión inteligente que proporciona visibilidad global de los datos y de los dispositivos interregionales. Huawei DME utiliza un sistema de archivos global omni-dataverse integrado en Data Fabric, que unifica los sistemas con total visibilidad, capacidad de gestión y disponibilidad de los datos. Los SSD de alta fiabilidad y durabilidad ayudan a reducir los gastos operativos (OPEX). Las principales empresas tecnológicas están implementando clústeres de IA a gran escala que abarcan billones de parámetros, lo que convierte el consumo energético en un problema importante. Dado que los dispositivos flash utilizan menos piezas móviles, son menos propensos a sobrecalentarse, consumen menos energía y requieren menos mantenimiento, lo que reduce los gastos del sistema de refrigeración. Esto tiene un gran impacto en las emisiones de carbono generadas por la producción de electricidad, lo que se traduce en importantes mejoras en la sostenibilidad, ya que las empresas se benefician de un menor consumo de energía, un menor coste total de propiedad (TCO) y una menor huella de carbono.  Puntos clave El almacenamiento all-flash OceanStor Dorado es la serie insignia de Huawei y ofrece una gama de excelentes opciones adaptadas a empresas de diversos tamaños. La arquitectura de malla completa SmartMatrix 4.0 garantiza servicios siempre activos con alta disponibilidad y una fiabilidad del sistema de 7 nueves. El almacenamiento all-flash es fundamental para la recuperación ante desastres, ya que ofrece un excelente ancho de banda de subida y bajada para evitar la pérdida de datos o la inactividad del servicio. En la práctica, esto significa cero tiempo de inactividad y, lo que es más importante, cero pérdida de datos. ¿No nos cree? Lea esta historia de Yapi Kredi, quien utilizó OceanStor Dorado para reducir drásticamente el TCO en un 40 %.  Sea cual sea la opción o el presupuesto, el almacenamiento all-flash no compromete el rendimiento. FlashLink® es un conjunto de algoritmos inteligentes de controlador de disco que se combinan para mejorar la velocidad de procesamiento y la tasa de aciertos, a la vez que desacoplan los planos de datos y control. La plataforma de aceleración de hardware E2E hace precisamente eso: mejora la velocidad de los componentes de hardware mediante hardware, protocolos y un diseño simétrico activo-activo mejorados para alcanzar más de 100 millones de IOPS y una latencia de 0,03 ms. Los sistemas all-flash Huawei OceanStor Dorado están diseñados para integrar las cargas de trabajo críticas en la era de la IA. Al ofrecer una base excelente para los centros de producción, el sistema proporciona un protocolo unificado y una plataforma de operaciones y mantenimiento (O&M) que quintuplica las operaciones y el mantenimiento. Para adaptarse a los servicios emergentes, el sistema utiliza una arquitectura paralela para bloques, archivos y datos de objetos, eliminando la necesidad de múltiples sistemas o cargas de procesamiento adicionales. Centros de datos a prueba de futuro. El portafolio de almacenamiento de datos de Huawei se ve reforzado por la serie All-Flash Convergente OceanStor Dorado de nueva generación, un sistema diseñado para el mundo inteligente de hoy y los datos ilimitados del futuro. La serie All-Flash de Huawei está diseñada para la era digital, con un portafolio de productos de primera calidad que refuerzan los sistemas empresariales con una eficiencia y flexibilidad sin precedentes. Descubre cómo tu negocio puede dar el salto al siguiente nivel aquí . Huawei Blog. G. J. Traducido al español

Leer más »

Aplicación LLM en Gestión del Conocimiento de Comunicación Inalámbrica

Este documento detalla el uso de RAG para diseñar una solución de preguntas y respuestas para bases de conocimiento de comunicación inalámbrica y una solución de evaluación que la acompaña. 1 Desarrollo de LLM En 2005, el uso de grandes modelos n-gram en la traducción automática marcó el comienzo de los modelos de grandes idiomas (LLM). En 2017, se introdujo la estructura de red Transformer, que redefinió el procesamiento del lenguaje natural (PNL) al incorporar un mecanismo de atención que mejoró significativamente el rendimiento del modelo en múltiples tareas. La introducción de las Representaciones de Codificadores Bidireccionales de los modelos Transformers (BERT) en 2018 y 2019 avanzó aún más el desarrollo de modelos de lenguaje pre-entrenados (PLM). BERT utiliza efectivamente la información de contexto tanto de la izquierda como de la derecha a través de un codificador bidireccional, logrando un rendimiento de vanguardia (SOTA) en múltiples tareas de PNL. RoBERta, una edición avanzada de BERT, mejora aún más el rendimiento del modelo ajustando el tamaño de los hiperparámetros y los datos de entrenamiento. El lanzamiento de GPT-3 en 2020 marcó un hito importante en el desarrollo de LLM. GPT-3 mejora la generalización de un LLM y las capacidades de aprendizaje de pocos disparos simplemente aumentando el tamaño del modelo. Además, GPT-3 sobresale en la generación de texto, produciendo muestras de artículos de noticias que son indistinguibles de las obras humanas. En los últimos años, los LLM se han utilizado cada vez más para tareas multimodales, como las tareas híbridas de texto + de imagen, además de las tareas convencionales de procesamiento de texto. Con el rápido avance de la tecnología, los LLM enfrentan nuevos desafíos e intereses de investigación en términos de adaptarse al conocimiento en constante cambio en las aplicaciones del mundo real a través de actualizaciones de conocimiento. La evolución de los LLM implica innovación algorítmica y arquitectónica, así como investigación avanzada sobre capacitación, evaluación y aplicación de modelos, transición de modelos estadísticos simples a modelos complejos de redes neuronales y grandes modelos preentrenados. Se espera que los LLM avancen hacia una mayor explicabilidad, una mayor eficiencia y una integración y procesamiento óptimos de múltiples tipos de datos. 2 Tecnologías LLM esenciales en la Gestión del Conocimiento Los LLM han demostrado un gran potencial en el campo de la gestión del conocimiento debido a sus capacidades avanzadas. Sin embargo, también se enfrentan a varios desafíos importantes. Primero, están capacitados utilizando datos de propósito general de Internet para maximizar la accesibilidad y la aplicabilidad. Esta falta de datos profesionales en el proceso de capacitación conduce a un rendimiento de LLM subóptimo en los campos profesionales. En segundo lugar, los LLM a menudo generan respuestas aparentemente convincentes pero inexactas, conocidas como alucinaciones. Para abordar estos desafíos, la industria ha desarrollado dos soluciones comunes: afinar y recuperar la generación aumentada (RAG). 2.1 Ajuste Fino El ajuste fino es una tecnología de aprendizaje automático que implica el uso de un pequeño volumen de datos específicos de la tarea para volver a capacitar a un LLM pre-entrenado para un escenario de aplicación nuevo o específico. Este proceso implica agregar una o más capas de salida al modelo preentrenado y usar un conjunto de datos diseñado para que la tarea vuelva a entrenar el modelo, lo que le permite comprender y ejecutar mejor la tarea específica. El ajuste fino aprovecha el conocimiento general aprendido por el modelo pre-entrenado como punto de partida, eliminando la necesidad de entrenar un modelo desde cero, lo que puede ser computacionalmente costoso y lento. BERT es un excelente ejemplo de ajuste fino. Primero está preentrenado en una gran cantidad de datos de texto y luego se ajusta para tareas específicas de PNL, lo que resulta en mejoras significativas en el rendimiento. 2.2 TRAPO RAG es un enfoque innovador que combina la memoria parametrizada pre-entrenada, como los LLM, con la memoria no parametrizada, como los índices vectoriales densos de Wikipedia. Recupera dinámicamente información de recursos de conocimiento externos en tareas de generación de lenguaje, mejorando la precisión, diversidad y factualidad del contenido generado. Un modelo RAG típico incluye un LLM como memoria parametrizada y un retriever que accede a memoria no parametrizada, como índices vectoriales densos. 2.3 Ventajas y Desventajas de RAG y Fine-Tuning Comparamos el RAG y el ajuste de seis dimensiones: datos dinámicos, conocimiento externo, personalización de modelos, reducción de alucinaciones, transparencia y experiencia técnica. Tabla 1 Ventajas y desventajas del RAG y el ajuste fino Debido a que RAG demuestra un rendimiento superior en cinco dimensiones, utilizamos RAG en LLM para mejorar el rendimiento de la gestión del conocimiento de comunicación inalámbrica. 3 Solución 3.1 Diseño de Soluciones de Preguntas y Respuestas para Bases de Conocimiento de Comunicación Inalámbrica La solución comprende dos partes: construcción fuera de línea de bases de conocimiento de comunicación inalámbrica y preguntas y respuestas en línea (Q&A). 3.1.1 Construcción Offline de Bases de Conocimiento de Comunicación Inalámbrica La Figura 1 ilustra el proceso de construcción fuera de línea de bases de conocimiento de comunicación inalámbrica. Inicialmente, los usuarios cargan diferentes tipos de documentos, como archivos de código y protocolos 3GPP. Estos documentos cargados se someten a análisis, limpieza y corte y se envían al LLM para generar pares de preguntas y respuestas para cada corte, lo cual es opcional. Los índices vectoriales y los índices de palabras clave se crean para los pares de preguntas y respuestas y los datos de corte sin procesar, y se almacenan en una base de datos vectorial y una base de datos común, respectivamente. La creación de índices vectoriales implica un modelo de incrustación. 3.1.2 Preguntas y respuestas en línea La Figura 1 también ilustra el proceso de preguntas y respuestas en línea. Un usuario introduce una pregunta, y el LLM reconoce la intención del usuario, que es opcional. Según la intención, el LLM selecciona bases de datos de conocimiento de comunicación inalámbrica relevantes o un proceso de manejo. Luego, se realiza la recuperación híbrida para recordar los primeros segmentos de conocimiento K que son

Leer más »

Acelere Apache Spark ML en GPU NVIDIA con Cambio de Código Cero

Acelera lo existente Apache Spark SQL y DataFrame aplicaciones basadas en GPU NVIDIA por más de 9 veces sin requerir un cambio en sus consultas o código fuente. El Acelerador NVIDIA RAPIDS para Apache Spark el plug-in de software fue pionero en una experiencia de usuario de cambio de código cero (UX) para el procesamiento de datos acelerado por GPU. Acelera lo existente Apache Spark SQL y DataFrameaplicaciones basadas en GPU NVIDIA por más de 9 veces sin requerir un cambio en sus consultas o código fuente.     Esto llevó a lo nuevo Spark RAPIDS ML Biblioteca de Python, que puede acelerar las aplicaciones en más de 100x, y también invocado MLlib, biblioteca de aprendizaje automático escalable de Apache Sparkwards. Hasta hace poco, la aceleración de Spark RAPIDS MLias MLlib aún necesitaba un pequeño cambio para que Python usara la implementación acelerada.Específicamente, necesitabas reemplazar pyspark.ml con spark_rapids_ml en las declaraciones de importación de Python para las clases de ML que deseabas acelerar.Por ejemplo, para usar KMeans acelerados en lugar de los KMeans de referencia, tenía que reemplazar la importación pyspark.ml.classication.KMeans con importación spark_rapids_ml.classication.KMeans a lo largo de su código.En el lado positivo, no se necesitaron más cambios de código para usar la versión acelerada de KMeans.   En esta publicación de blog, describimos la nueva funcionalidad en Spark RAPIDS ML desde el 25.02 liberación eso le permite omitir incluso los cambios en la instrucción de importación mencionados anteriormente, para una experiencia de aceleración de cambio de código verdaderamente cero de extremo a extremo tanto en Spark SQL como en DataFrame y en código MLlib. Considere el siguiente código de aplicación simple de PySpark: frompyspark.ml.clustering importKMeansfrompyspark.ml.functions importarray_to_vectordf =spark.read.parquet(«/data/embedding_vectors»)df =df.select(array_to_vector(df.features).alias(«features»))kmeans_estim =( KMeans()   .setK(100)   .setFeaturesCol(«features»)   .setMaxIter(30) )kmeans_model =kmeans_estim.fit(df)transformed =kmeans_model.transform(df)transformed.write.parquet(«/data/embedding_vectors_clusters») Este código lee un archivo de incrustaciones vectoriales, previamente calculado utilizando un modelo de lenguaje de aprendizaje profundo y almacenado en formato de parquet utilizando array tipo.Luego utiliza el algoritmo KMeans en Spark MLlib para agrupar los vectores.    Combinando la nueva funcionalidad de cambio de código cero de Spark RAPIDS ML con el complemento de software RAPIDS Accelerator for Apache Spark, puede acelerar este código PySpark totalmente compatible sin ningún cambio: Incluyendo descompresión y decodificación de parquet al leer en el archivo en read.parquet(), los KMeans agrupando cálculos numéricos en fit() y transform()y la codificación y compresión al guardar los vectores con clusters en otro archivo de parquet en write.parquet().  A continuación, describimos cómo puede activar la ejecución acelerada utilizando nuevas variantes de las formas familiares de iniciar aplicaciones Spark: Interfaces de línea de comandos (CLI), portátiles Jupyter localmente y portátiles Jupyter en servicios Spark alojados en proveedores en la nube. Interfaces de línea de comandos Supongamos que el código de aplicación de ejemplo anterior estaba en un archivo llamado app.py.Convencionalmente, youidd utiliza el conocido Spark CLI spark-submit para lanzar app.py en diferentes tipos de clústeres (local/test, autónomo, hilo, kubernetes, etc.): spark-submit <options> app.py Para acelerar las piezas de MLlib, después de instalar la biblioteca Spark RAPIDS ML a través de la instalación de pip spark-rapids-ml, simplemente puede reemplazar la spark-submit comando con una contraparte CLI acelerada recién incluida (mientras se incluyen las configuraciones y la configuración de ruta de clase, como antes, para la aceleración SQL y DataFrame): spark-rapids-submit <options> app.py Si prefiere ejecutar código similar a app.py interactivamente en un shell PySpark usando el CLI pyspark, también puede acelerar esto, con cero cambios de código, utilizando la CLI de contraparte recién incluida pyspark-rapids para lanzar un shell PySpark acelerado en su lugar. Cuadernos Jupyter: clústeres de Spark en las instalaciones Las aplicaciones de Spark también se ejecutan comúnmente de forma interactiva en portátiles Jupyter que ejecutan núcleos unidos a clústeres de Spark. Como se explica en el Spark RAPIDS ML documentación, para comenzar en una estación de trabajo con una GPU NVIDIA, puede iniciar Jupyter con Spark acelerado en modo local utilizando el pyspark-rapids comando: PYSPARK_DRIVER_PYTHON=jupyter \PYSPARK_DRIVER_PYTHON_OPTS=’notebook –ip=0.0.0.0’\pyspark-rapids –master local[*] <options> Y luego conéctese al servidor de portátiles Jupyter en la URL registrada.Luego podría ejecutar código similar a app.py interactivamente en una o más celdas de cuaderno. Puede agregar el frasco del complemento RAPIDS Accelerated Spark y spark.plugins configuración para aceleración de extremo a extremo. Con configuraciones adecuadas para –master, puede usar el mismo comando para habilitar la aceleración de notebook de cambio de código cero en otras implementaciones de clúster de Spark (como independiente, hilo).  Cuadernos Jupyter: Proveedor en la nube alojado Spark Para el cambio de código cero UX en los portátiles Spark Jupyter alojados en la nube, el Spark RAPIDS ML repos muestra cómo configurar scripts de inicialización y arranque de ejemplo al iniciar clústeres de GPU Spark, para habilitar la aceleración de SQL/Dataframe y la aceleración de MLlib.Se proporcionan ejemplos para Databricks, GCP Dataproc y AWS EMR. Los scripts init inyectan modificaciones simples en los respectivos entornos Spark alojados que dan como resultado que los portátiles Jupyter se inicien con la aceleración de cambio de código cero habilitada. Cómo funciona La aceleración de cambio de código cero de Spark MLlib habilitada por los CLI anteriores y las implementaciones de portátiles Jupyter se alimenta bajo el capó importando o ejecutando el nuevo spark_rapids_ml.install módulo en la biblioteca Spark RAPIDS ML Python.   Este nuevo módulo se basa en gran medida en una funcionalidad similar en el RÁPIDOS cudf.pandas El paquete Python se lanzó en el GTC del año pasado, que trajo un UX acelerado por GPU de cambio de código cero a los usuarios de la popular biblioteca Pandas Data Analysis. Importar o ejecutar el nuevo spark_rapids_ml.install el módulo anula los mecanismos de importación del módulo Pythonhats para redirigir transparentemente las importaciones de pyspark.ml estimadores en código de aplicación a acelerado spark_rapids_ml contrapartes, cuando estén disponibles.Un aspecto difícil es evitar hacer esto cuando las importaciones son de PySpark o Spark RAPIDS ML código en sí, como en estos casos es crucial para importar el real pyspark.ml estimadores. Próximos pasos Puede probar la nueva funcionalidad acelerada Spark MLlib de cambio de código cero, aumentando el acelerador RAPIDS original para Apache Spark, instalando el paquete spark-rapids-ml Python y documentación de referencia en el Spark RAPIDS ML Repo gitHub para cambio de código cero CLI y cuadernos y ejecutando un cambio de código cero script de prueba, también en el repositorio. Recursos relacionados NVIDIA Blog. E. O. Traducido al español

Leer más »

Un nuevo marco de criptografía para estudios genómicos seguros

Desarrollado a partir de la investigación EPFL, en colaboración con MIT y Yale, la combinación de computación segura y algoritmos distribuidos abre una nueva era para las colaboraciones de datos en investigación médica. Los avances en inteligencia artificial generativa y aprendizaje automático, capacitados en conjuntos de datos a gran escala en múltiples instituciones, tienen el potencial de revolucionar la medicina. Sin embargo, los datos son difíciles de recopilar. Está aislado en hospitales individuales, prácticas médicas y clínicas de todo el mundo. Los riesgos de privacidad derivados de la divulgación de datos médicos también son una preocupación seria, por lo que las regulaciones existentes de intercambio de datos han limitado en gran medida el alcance de las colaboraciones de datos para la investigación médica. Existen herramientas criptográficas para la computación segura, pero no son prácticas o no implementan métodos actuales de vanguardia. Ahora, un enfoque desarrollado por EPFL se ha demostrado con éxito a escala y se está implementando en toda Europa. Secure federated genome-wide association studies o SF-GWAS es una combinación de marcos de computación seguros y algoritmos distribuidos que permite estudios eficientes y precisos sobre datos privados en poder de múltiples entidades al tiempo que garantiza la confidencialidad de los datos. Un estudio sobre cinco conjuntos de datos, incluida una cohorte del Biobanco del Reino Unido de 410,000 individuos, ha mostrado una mejora en el orden de magnitud en el tiempo de ejecución en comparación con los métodos anteriores. “En muchos casos no es posible centralizar los datos por razones prácticas o legales o simplemente porque las personas no están dispuestas a compartirlos. Entonces, el objetivo es extraer información sin compartir los datos,” dijo Jean-Pierre Hubaux, Director Académico de EPFLf Centro de Confianza Digital (C4DT), afiliado a la Escuela de Ciencias de la Computación y la Comunicación. “Nos desarrollamos un prototipo hace varios años, pero lo que faltaba era la demostración de que funciona a escala con conjuntos de datos de tamaño real. Esto ahora se ha hecho en colaboración con MIT y Yale con nuestra última investigación que muestra que es posible extraer información de conjuntos de datos que permanecen distribuidos geográficamente, sin pérdida de precisión significativa en términos de resultados; Esto abre una nueva era en términos de colaboraciones de datos, ” continuó. SF-GWAS combina dos conceptos clave. Primero, se necesita un enfoque federado para asegurar la computación, lo que significa que cada conjunto de datos se mantiene en el sitio de origen respectivo. Esto minimiza los costos computacionales al evitar grandes transferencias de datos entre sitios y permite el uso de operaciones criptográficas eficientes que protegen la salida computacional parcial generada en cada sitio. En segundo lugar, introduce un diseño algorítmico eficiente para apoyar la ejecución federada de varias tuberías GWAS de extremo a extremo. “Suena contradictorio, pero nuestro enfoque comparte datos sin compartir,” explicó Hubaux. “Aprovecha la existencia de los conjuntos de datos sin tener que transferirlos y es esencialmente un valor adicional a los datos, una motivación adicional para trabajar juntos sin perder el control.” SF-GWAS ya se ha instalado en cinco hospitales universitarios de Suiza; Actualmente se está implementando en varios hospitales italianos y para redes europeas de cáncer Tune Insight, el spin-off de EPFL liderando este trabajo. La compañía también está en conversaciones con instituciones médicas en otros países. Además de desbloquear la investigación médica a escala para definir y optimizar la política de salud pública, lo que simplemente no es posible en un mundo de silos, Hubaux cree que SF-GWAS tendrá un valioso beneficio secundario. Actualmente, los conjuntos de datos se distribuyen de facto en todo el mundo, sentados en discos duros y cintas aquí y allá, porque tradicionalmente ha sido tan complicado transferir datos. El registro de datos médicos también se aplica de manera diferente en diferentes lugares. Hubaux llama a esto “prehistoric” y dice que, como resultado, los conjuntos de datos están muy subutilizados. “Estamos configurando un sistema de valores para asegurarnos de que los datos futuros sean interoperables, que se registren de la misma manera lugar a lugar, de lo contrario será basura, basura. Es costoso y la transición llevará tiempo, pero hemos desarrollado las herramientas para facilitarlo y hay una evolución en marcha, dijo ” Hubaux. “La voluntad de trabajar a escala es un cambio de cultura y espero que este sea un círculo virtuoso: las personas se sienten alentadas a ser más rigurosas en términos de la forma en que almacenan y estructuran sus datos para garantizar la interoperabilidad porque si no lo hacen, su institución puede ser excluida del resto de la comunidad. Esto es realmente un beneficio secundario – mejor calidad general de salud y datos médicos.” Enlace al documento completo: https://rdcu.be/ea16o EPFL News. T. P. Traducido al español

Leer más »

Apple presenta el M3 Ultra, el nuevo chip de Apple con una potencia extrema

El nuevo chip es hasta 2,6 veces más potente que el M1 Ultra, incluye conexión Thunderbolt 5 y admite más de medio terabyte de memoria unificada, una cifra jamás vista en un ordenador personal CUPERTINO, CALIFORNIA Apple ha presentado hoy el M3 Ultra, el chip de mayor rendimiento jamás creado, con la CPU y la GPU más potentes en un Mac, un Neural Engine con el doble de núcleos y el nivel de memoria unificada más alto en un ordenador personal hasta la fecha. El M3 Ultra también incluye Thunderbolt 5, con más del doble de ancho de banda en cada puerto, para ofrecer conexiones ultrarrápidas y más opciones de ampliación. M3 Ultra está diseñado con la innovadora arquitectura de empaquetado UltraFusion de Apple, que conecta dos chips M3 Max a través de 10.000 señales de alta velocidad para trabajar con baja latencia baja y mayor ancho de banda. Esto permite al sistema funcionar con ambos chips como si fueran uno solo y alcanzar un rendimiento impresionante manteniendo la eficiencia energética líder en el sector de los chips de Apple. El resultado son un total de 184.000 transistores que llevan las revolucionarias prestaciones del nuevo Mac Studio a nuevas cotas. «El chip M3 Ultra es la máxima expresión de nuestra arquitectura de sistema en chip escalable y está pensado específicamente para aquellos usuarios que ejecutan aplicaciones que requieren muchos hilos y ancho de banda», ha dicho Johny Srouji, vicepresidente sénior de Tecnologías de Hardware de Apple. «Con una CPU ultrarrápida, una GPU descomunal, el mayor nivel de memoria unificada jamás visto en un ordenador personal, Thunderbolt 5 y una eficiencia energética líder en el sector, no hay chip que supere al M3 Ultra». Un rendimiento y una eficiencia fuera de serie El M3 Ultra es más potente que cualquier otro chip para Mac, manteniendo la eficiencia energética líder en el sector de los chips de Apple. Incluye una CPU de hasta 32 núcleos (24 de rendimiento y 8 de eficiencia), que permite alcanzar un rendimiento hasta 1,5 veces superior al del M2 Ultra y hasta 1,8 veces superior al del M1 Ultra. También incorpora la GPU más grande en un chip de Apple, con hasta 80 núcleos gráficos, que es hasta el doble de rápida que la del M2 Ultra y hasta 2,6 veces más rápida que la del M1 Ultra.1 La arquitectura gráfica avanzada del M3 Ultra incluye almacenamiento dinámico en caché, además de sombreado de malla por aceleración de hardware y trazado de rayos, para poder crear contenidos de gran complejidad y procesar los juegos con más carga gráfica como si nada. Su avanzado Neural Engine de 32 núcleos es el encargado de desatar la potencia de la inteligencia artificial y el aprendizaje automático, y es el motor que impulsa Apple Intelligence, el sistema de inteligencia personal que integra potentes modelos generativos directamente en el cerebro del nuevo Mac Studio. De hecho, todos los componentes del M3 Ultra están diseñados para exprimir al máximo la inteligencia artificial, incluidos los aceleradores de aprendizaje automático de la CPU, la GPU más potente de Apple, el Neural Engine y los más de 800 GB/s de ancho de banda de memoria unificada. Esto permite a los profesionales que trabajan con inteligencia artificial usar el Mac Studio con M3 Ultra para ejecutar modelos de lenguaje de gran tamaño con más de 600.000 millones de parámetros en el propio dispositivo, lo que convierte el Mac Studio en el ordenador definitivo para la IA. Una memoria inigualable La arquitectura de memoria unificada del M3 Ultra incorpora una memoria con baja latencia y el mayor ancho de banda jamás visto en un ordenador personal. Con un nivel inicial de 96 GB, puede llegar hasta los 512 GB, más de medio terabyte. Semejante cantidad no solo supera la memoria de las tarjetas gráficas profesionales más potentes, sino que también acaba con las limitaciones en las tareas profesionales que necesitan más memoria gráfica, como el renderizado 3D, los efectos visuales o la inteligencia artificial. Conexiones de última generación con Thunderbolt 5 Con el M3 Ultra, el Mac Studio estrena Thunderbolt 5, con velocidades de transferencia de datos de hasta 120 GB/s, más del doble que con Thunderbolt 4. Cada puerto Thunderbolt 5 cuenta con su propio controlador diseñado a medida, integrado directamente en el chip. El resultado es que cada puerto del Mac Studio tiene su propio ancho de banda, en la que es la implementación más avanzada de Thunderbolt 5 en el sector. Los puertos Thunderbolt 5 del Mac Studio suponen toda una revolución para los usuarios profesionales que necesitan velocidades altísimas de transferencia de datos para conectar unidades de almacenamiento externo, disponer de soluciones avanzadas de conexión y carga o estar preparados para lo último en chasis de ampliación. Además, con Thunderbolt 5 se pueden conectar varios sistemas Mac Studio para proyectos que desafían los límites de la creación de contenido y las ciencias de la computación. Tecnologías punteras integradas en el chip En su afán por alcanzar el máximo nivel de rendimiento y eficiencia, el M3 Ultra integra las tecnologías más avanzadas de Apple en el propio chip: Pausar la reproducción del vídeo: DaVinci Resolve en un Mac Studio y un Studio Display El M3 Ultra integra las tecnologías más avanzadas de Apple, como un motor multimedia con componentes de hardware específicos para H.264 y HEVC, y cuatro motores de codificación y decodificación ProRes. Mejor para el medio ambiente La eficiencia energética del M3 Ultra ayuda al nuevo Mac Studio a cumplir la exigente normativa de Apple en esta materia y reduce el consumo energético total del dispositivo a lo largo de su vida útil. Apple ya es una empresa neutra en carbono en todas sus operaciones corporativas mundiales, y cuenta con el ambicioso objetivo de alcanzar la neutralidad en carbono en la totalidad de su huella medioambiental para 2030. Apple News. Traducido al español

Leer más »
Scroll al inicio