El Portal de las Tecnologías para la Innovación

Categoría: Big Data y Analítica Avanzada

NVIDIA Trae Razonamiento Agentic AI a las Empresas con Google Cloud

Los modelos Gemini de Google pronto estarán disponibles en las instalaciones con Google Distributed Cloud ejecutándose con NVIDIA Confidential Computing en la infraestructura de NVIDIA Blackwell. NVIDIA está colaborando con Google Cloud para IA Agentic a las empresas que buscan aprovechar localmente la familia de modelos de IA Google Gemini utilizando el NVIDIA Blackwell HGX y DGX plataformas y NVIDIA Computación Confidencial para la seguridad de los datos. Con el NVIDIA Blackwell plataforma en Google Distributed Cloud, los centros de datos locales pueden mantenerse alineados con los requisitos reglamentarios y las leyes de soberanía de datos al bloquear el acceso a información confidencial, como registros de pacientes, transacciones financieras e información gubernamental clasificada. NVIDIA Confidential Computing también protege el código sensible en los modelos Gemini del acceso no autorizado y las fugas de datos. “Al llevar nuestros modelos Gemini a las instalaciones con el rendimiento innovador de NVIDIA Blackwell y las capacidades informáticas confidenciales, estamos permitiendo a las empresas desbloquear todo el potencial de la IA agentica,” dijo Sachin Gupta, vicepresidente y gerente general de infraestructura y soluciones en Google Cloud. “Esta colaboración ayuda a garantizar que los clientes puedan innovar de forma segura sin comprometer el rendimiento o la facilidad operativa La computación confidencial con NVIDIA Blackwell proporciona a las empresas la garantía técnica de que sus solicitudes de usuario a la interfaz de programación de aplicaciones Gemini models’ —, así como los datos que utilizaron para ajustar — permanecen seguros y no se pueden ver ni modificar. Al mismo tiempo, los propietarios de modelos pueden protegerse contra el acceso no autorizado o la manipulación, proporcionando protección de doble capa que permite a las empresas innovar con los modelos Gemini mientras mantienen la privacidad de los datos. Agentes de IA que Impulsan Nuevas Aplicaciones Empresariales Esta nueva oferta llega cuando la IA agentic está transformando la tecnología empresarial, ofreciendo capacidades de resolución de problemas más avanzadas. A diferencia de los modelos de IA que perciben o generan basados en el conocimiento aprendido, los sistemas de IA agentic pueden razonar, adaptarse y tomar decisiones en entornos dinámicos. Por ejemplo, en el soporte de TI empresarial, mientras que un modelo de IA basado en el conocimiento puede recuperar y presentar guías de solución de problemas, un sistema de IA agentic puede diagnosticar problemas, ejecutar correcciones y escalar problemas complejos de forma autónoma. Del mismo modo, en finanzas, un modelo tradicional de IA podría marcar transacciones potencialmente fraudulentas basadas en patrones, pero un sistema de IA agentic podría ir aún más lejos investigando anomalías y tomando medidas proactivas como bloquear transacciones antes de que ocurran o ajustar las reglas de detección de fraude en tiempo real. El Dilema On-Premises Si bien muchos ya pueden usar los modelos con razonamiento multimodal — integrando texto, imágenes, código y otros tipos de datos para resolver problemas complejos y crear aplicaciones de IA agentic basadas en la nube — aquellos con estrictos requisitos de seguridad o soberanía de datos aún no han podido hacerlo. Con este anuncio, Google Cloud será uno de los primeros proveedores de servicios en la nube en ofrecer capacidades informáticas confidenciales para asegurar las cargas de trabajo de IA agentic en todos los entornos — ya sea en la nube o híbrido. Impulsada por la plataforma NVIDIA HGX B200 con GPU Blackwell y NVIDIA Confidential Computing, esta solución permitirá a los clientes salvaguardar los modelos y datos de IA. Esto permite a los usuarios lograr un rendimiento innovador y eficiencia energética sin comprometer la seguridad de los datos o la integridad del modelo. Observabilidad y Seguridad de la IA para la IA Agéntica La escala de IA agentic en producción requiere una observabilidad y seguridad robustas para garantizar un rendimiento y cumplimiento confiables. Google Cloud anunció hoy un nuevo GKE Inference Gateway creado para optimizar la implementación de cargas de trabajo de inferencia de IA con enrutamiento y escalabilidad avanzados. Al integrarse con NVIDIA Triton Inference Server y NVIDIA NeMo Guardrails, ofrece un equilibrio de carga inteligente que mejora el rendimiento y reduce los costos de servicio al tiempo que permite la seguridad y el gobierno centralizados del modelo. Mirando hacia el futuro, Google Cloud está trabajando para mejorar la observabilidad de las cargas de trabajo de IA agentic mediante la integración Dynamo NVIDIA, una biblioteca de código abierto construida para servir y escalar modelos de IA de razonamiento en fábricas de IA. En Google Cloud Siguiente, asista a la dirección especial de NVIDIAia, explore sesiones, vea demos y hable con expertos de NVIDIA. NVIDIA Blog. A. H. Traducido al español

Leer más »

IBM adquiere Hakkoda Inc., Expandiendo Experiencia en Datos para Impulsar las Transformaciones de IA de los Clientes

 IBM (NYSE: IBM) anunció hoy que ha adquirido Hakkoda Inc., una consultora global líder en datos e IA. Hakkoda ampliará la cartera de servicios de transformación de datos de IBM Consulting, agregando experiencia especializada en plataformas de datos para ayudar a los clientes a preparar sus datos para impulsar las operaciones comerciales impulsadas por IA. Hakkoda tiene capacidades líderes en migración, modernización y monetización de propiedades de datos y es un galardonado socio de Snowflake. Esta adquisición amplifica la capacidad de IBM para satisfacer la creciente demanda de servicios de datos y ayudar a los clientes a construir propiedades de datos empresariales integradas que están optimizadas para la velocidad, el costo y la eficiencia en múltiples casos de uso comercial. Hakkoda también ofrece una sólida cartera de activos generativos impulsados por IA que pueden acelerar los proyectos de modernización de datos. Sus soluciones industriales complementan y se basan en la profunda experiencia de sus consultores en industrias como servicios financieros, sector público y salud y ciencias de la vida. Hakkoda ampliará aún más la capacidad de IBM para brindar experiencia en consultoría e IA a los clientes que utilizan su plataforma de entrega impulsada por IA Ventaja de Consultoría de IBM. «IBM está a la vanguardia de la industria de consultoría con la forma en que estamos sobrealimentando a nuestros consultores con IA», dijo Mohamad Ali, Vicepresidente Senior y Jefe de IBM Consulting. «Con la experiencia en datos de Hakkoda, las asociaciones tecnológicas profundas y el modelo de entrega centrado en activos, IBM estará aún mejor posicionada para ofrecer valor más rápido a los clientes a medida que se transforman con IA.» «Desde el principio, Hakkoda se ha comprometido a estar ‘en la arena’, no observando la mayor transformación de la historia sino dándole forma», dijo Duffield Erik, CEO y cofundador de Hakkoda. «Es por esto que estamos entusiasmados de unirnos a IBM en este momento crítico cuando las organizaciones buscan un socio de confianza para ayudarlos a modernizar sus datos para la era de la IA. La herencia de innovación de IBM, su compromiso con el descubrimiento y las asociaciones profundas con los clientes en sus desafíos más técnicos es un emparejamiento perfecto para llevar la consultoría de datos moderna centrada en la industria de Hakkoda al mercado global.» El gasto global estimado para iniciativas de servicios de inteligencia empresarial se encuentra en $169 mil millones y, con un CAGR de cinco años de alrededor del 13 por ciento, se espera que crezca a más de $243 mil millones para 2028, según IDC1. Para extraer valor de sus datos, los líderes empresariales necesitan una estrategia de migración de datos reflexiva y una plataforma de datos de casos moderna y de usos múltiples en la nube. Como socio de Elite Snowflake, Hakkoda trae cientos de certificaciones básicas y avanzadas de SnowPro. Fueron nombrados el Socio de Servicios de Salud y Ciencias de la Vida de Snowflake 2024 del Año y el Socio de Innovación de Snowflake Americas System Integrator del Año 2023. Hakkoda también es un socio de nivel avanzado de AWS. Hakkoda tiene su sede en Nueva York y trae a cientos de expertos a través los Estados Unidos, América Latina, India, Europa, y el Reino Unido a IBM Consulting. Para obtener más información sobre Hakkoda, visite https://hakkoda.io/. La adquisición se cerró 2 De abril de 2025y los detalles financieros de la transacción no fueron revelados. IBM News. Traducido al español

Leer más »

Tu Compañero de IA

Mientras miro hacia atrás en el increíble impacto que Microsoft ha tenido en sus ahora 50 años de innovación implacable, me inspiro en la simplicidad y el poder de Bill Gates’ ambición audaz hace tantos años: poner una PC en cada escritorio y en cada hogar.  En Microsoft AI weizre impulsado por ese mismo espíritu. Hoy, estamos creando Copilot, un compañero de IA para todos. ¿Qué significa esto? ¿Cómo se ve? ¿Qué hace? La verdad es que no hay una sola respuesta que la capture. Porque se verá y se sentirá un poco diferente para cada uno de nosotros. Un compañero de IA es completamente personal, construido en torno a las necesidades, valores y expectativas individuales. Es por eso que, en última instancia, habrá tantos copilotos diferentes como personas que los usen. Hoy, nos estamos embarcando en el viaje para tomar Copilot de un compañero de IA a tu Compañero de IA. Con su permiso, Copilot ahora recordará de lo que habla, por lo que aprende sus gustos y disgustos y detalles sobre su vida: el nombre de su perro, ese proyecto complicado en el trabajo, lo que lo mantiene motivado para seguir su nueva rutina de ejercicios. Copilot lo entenderá en el contexto de su vida y se mostrará, en sus términos, de la manera correcta en el momento adecuado. Esto es mucho más rico, más dinámico, de apoyo y emergente que cualquier software que hayamos visto antes. Es un nuevo tipo de relación con la tecnología, una nueva era. Por supuesto, weiwre también se centra en los fundamentos: personalidad atractiva, capacidad de búsqueda increíble, tarjetas de respuesta personalizadas, podcasts a medida. Con Deep Research tienes un investigador de clase mundial trabajando junto a ti. Con Shopping, un socio confiable e imparcial, buscando los mejores productos y ofertas. Con Actions, deje que Copilot asuma parte de la carga, desde anotar los boletos del concierto hasta clasificar el viaje a casa. Nuestra nueva aplicación de Windows significa que su computadora finalmente funciona en su nombre. Y ahora, con Copilot Vision en Mobile, Copilot puede ver lo que ve, respondiendo en tiempo real para crear una comprensión compartida de su mundo. Pero el punto importante es que en todo Copilot es más que un AI, lo es tuyo. Recuerda no solo lo que dijiste, sino quién eres. Copilot te ayuda a mantenerte organizado, pensar con claridad, aprender más intuitivamente. Está ahí cuando necesita una respuesta fáctica rápida, un largo debate exploratorio o cuando le apetece simplemente descargar después de un día difícil. Todos los días escuchamos las historias más increíbles sobre las muchas y variadas formas en que las personas disfrutan de Copilot. Entonces, a medida que continuamos nuestro viaje para crear un Copilot para todos, nos centraremos en un objetivo crítico: hacerlo realmente tuyo. Cada uno tendrá su propio estilo único y una combinación de atributos que se adaptan claramente a todos y cada uno de nosotros. Todo el tiempo, nos apegaremos a nuestra promesa central. Usted mantiene el control, usted es el piloto y hace las llamadas y establece los límites. No podemos esperar a que descubras tu Copilot personal. Mustafa Suleyman, Vicepresidente Ejecutivo y CEO de Microsoft AI _________ Hoy, anunciamos un conjunto de nuevas actualizaciones que representan el próximo capítulo de nuestra visión para ofrecer un verdadero compañero de IA — ayudando a que la IA sea más útil al hacerla más personal. Tabla de contenidos Video YouTube Memoria y Personalización La memoria es esencial para crear un verdadero compañero de IA. Con Memory, Copilot puede recordar detalles importantes: su comida favorita, los tipos de películas que disfruta y el cumpleaños de su sobrino y sus intereses. A medida que interactúa con Copilot, toma nota de sus preferencias, crea un perfil de usuario más rico y ofrece soluciones personalizadas, sugerencias proactivas y recordatorios oportunos. Copilot prioriza la seguridad y la privacidad, lo que le brinda control a través del panel de control del usuario y la opción de elegir qué tipos de información recuerda sobre usted u optar por no participar por completo. Mantienes el control. Video YouTube A medida que exploramos la gama completa de lo que significa la verdadera personalización, estamos experimentando con nuevas formas de interactuar con su Copilot. Por ejemplo, ¿qué pasaría si su Copilot tuviera una apariencia y pudiera darle forma y formarlo para que sea lo que quiera? Weirre temprano en este pensamiento, pero pronto tendrá la capacidad de personalizar Copilot e interactuar con su compañero de IA de una manera divertida mientras ofrece asesoramiento y apoyo cuando lo desee. Puedes entablar una conversación con Copilot y ahora tener una apariencia entretenida que es única para ti. Video YouTube Acciones Otro avance clave que hace que Copilot sea un compañero útil de IA es su capacidad para tomar medidas en su nombre. Con Actions, Copilot ahora puede asociarse con usted para completar tareas detrás de escena. Use simples indicaciones de chat para pedirle a Copilot que reserve boletos para eventos, tome reservaciones para cenar o envíe un regalo atento a un amigo y verificará esa tarea de su lista. Copilot Actions trabajará con la mayoría de los sitios web en la web, y estamos particularmente entusiasmados de destacar a nuestros socios de lanzamiento: 1-800-Flowers.com, Booking.com, Expedia, Kayak, OpenTable, Priceline, Tripadvisor, Skyscanner, Viator y Vrbo. Video YouTube Copilot Visión Introdujimos Vision en Copilot para la web a fines del año pasado y ahora lo llevaremos a dispositivos móviles y Windows. Páginas Copilot ahora proporciona una manera de organizar sus pensamientos y contenido desde el caos hasta la calma. Toma todas tus notas dispersas, contenido, investigación — sea lo que sea — y lo coloca en un lienzo que Copilot organiza, simplifica y te ayuda desde tu primer borrador hasta tus ediciones finales. Pages le permite refinar, iterar y mantener la conversación siempre que la necesite. Video YouTube Podcasts Copilot ahora puede generar podcasts impulsados por IA que seleccionan y entregan contenido de audio personalizado en función de sus intereses. Los podcasts le brindan una forma fácil,

Leer más »

IBM prepara funciones digitales para fanáticos impulsadas por IA de Watsonx para el Torneo Masters 2025

IBM Hole Insights regresa por segundo año como parte de la experiencia Track Shots en Masters.com y la app Masters. Insights 2.0, basado en IA, aprovecha las tecnologías de Watsonx, incluyendo Granite LLM, para ofrecer información basada en datos sobre cada tiro realizado en cada hoyo de Augusta National. ARMONK, NY , 4 de abril de 2025 / PRNewswire / — IBM (NYSE: IBM ) y el Masters Tournament anunciaron hoy el regreso de una serie de funciones digitales para los aficionados a la galardonada app del Masters y a Masters.com antes del Torneo de este año. Las capacidades impulsadas por IA de Watsonx —las más recientes de una colaboración de 30 años entre IBM y el Masters— buscan ofrecer una experiencia más personalizada y atractiva a millones de aficionados al golf, tanto nuevos como existentes, de todo el mundo que siguen toda la acción del Masters Tournament. Análisis de tiros más estratégico con Hole Insights 2.0.IBM Hole Insights regresa por segundo año como parte de la experiencia Track Shots en Masters.com y la app Masters. Insights 2.0, basado en IA, aprovecha las tecnologías de Watsonx, incluyendo Granite LLM, para ofrecer información basada en datos sobre cada tiro realizado en cada hoyo de Augusta National. Esto incluye: Este año, la solución se diseñó para proporcionar información más completa y eficaz. Para optimizar la calidad de la información, IBM Consulting perfeccionó Granite y otros LLM con una amplia gama de fuentes, como ubicaciones históricas de tiros, información de expertos en golf, incluyendo caddies de antiguos Torneos de Masters, y datos de torneos que abarcan nueve años y más de 180.000 tiros.  Ejemplo de plataforma digital Masters, que incluye IBM Hole Insights App Masters renovada en Apple Vision Pro.IBM y el Masters vuelven a ofrecer a los aficionados una visión inmersiva de la acción con la app Masters en Apple Vision Pro. La app actualizada de este año ofrece a los aficionados imágenes 3D más nítidas del Augusta National y nuevas funciones como Vídeo a la Carta. Los aficionados también disfrutarán de funciones que regresan, como Hole Insights 2.0 y Narración con IA. Con la aplicación Masters en Apple Vision Pro, los fanáticos pueden mirar diferentes vistas 3D de cada hoyo, explorar los dramáticos cambios de elevación a lo largo del campo e incluso ver múltiples transmisiones en vivo del torneo simultáneamente. Durante más de 30 años, IBM y Augusta National han colaborado para crear experiencias digitales únicas que acercan la belleza, la tradición y la emoción del Masters a millones de aficionados al golf de todo el mundo —afirmó Jonathan Adashek , vicepresidente sénior de Marketing y Comunicaciones—. Esta potente combinación de personas y tecnología, que incluye modelos y agentes de IA de Watsonx, es un caso práctico para empresas de todos los sectores que les muestra cómo pueden aprovechar al máximo sus datos para ofrecer información empresarial práctica y experiencias excepcionales para el cliente. El Masters e IBM llevan casi 30 años colaborando para transformar los datos del Masters en experiencias digitales de primer nivel para los aficionados al golf. Esto incluye el lanzamiento de Masters.com en 1996, AI Highlights, Round in Three Minutes, My Group, Player Insights, AI Narration, Hole Insights y la app Masters para Apple Vision Pro. Las alianzas de IBM con el Masters y otras organizaciones deportivas icónicas, como Scuderia Ferrari HP , Wimbledon , el US Open , ESPN Fantasy Football y UFC , están impulsadas por las mismas soluciones de IA y nube híbrida que utilizan los clientes de IBM en todas las industrias para tomar decisiones comerciales más informadas y basadas en datos. El 89.º Torneo Masters se celebrará del 10 al 13 de abril en el Augusta National Golf Club de Augusta, Georgia. Descubra todas las tecnologías IBM Watson en acción visitando Masters.com  o la aplicación Masters disponible para dispositivos móviles, la App Store de Apple  y la Play Store de Google . IBM News. Traducido al español

Leer más »

Vana está permitiendo a los usuarios poseer una parte de los modelos de IA entrenados en sus datos

Más de 1 millón de personas están contribuyendo con sus datos a la red descentralizada de Vanaana, que comenzó como un proyecto de clase MIT. En febrero de 2024, Reddit llegó a un acuerdo de $60 millones con Google para permitir que el gigante de las búsquedas usara datos en la plataforma para entrenar sus modelos de inteligencia artificial. Notablemente ausentes de las discusiones estaban los usuarios de Reddit, cuyos datos se vendían. El acuerdo reflejaba la realidad de la Internet moderna: Las grandes compañías tecnológicas poseen prácticamente todos nuestros datos en línea y deciden qué hacer con esos datos. Como era de esperar, muchas plataformas monetizan sus datos, y la forma de más rápido crecimiento de lograrlo hoy en día es venderlos a las compañías de IA, que son en sí mismas compañías tecnológicas masivas que usan los datos para entrenar modelos cada vez más potentes. La plataforma descentralizada Vana, que comenzó como un proyecto de clase en el MIT, tiene la misión de devolver el poder a los usuarios. La compañía ha creado una red totalmente propiedad del usuario que permite a las personas cargar sus datos y gobernar cómo se usan. Los desarrolladores de IA pueden presentar a los usuarios ideas para nuevos modelos, y si los usuarios aceptan contribuir con sus datos para la capacitación, obtienen una propiedad proporcional en los modelos. La idea es dar a todos una participación en los sistemas de IA que darán forma cada vez más a nuestra sociedad y al mismo tiempo desbloquearán nuevos grupos de datos para avanzar en la tecnología. “Estos datos son necesarios para crear mejores sistemas de IA,” dice la cofundadora de Vana Anna Kazlauskas ’19. “Weiosve creó un sistema descentralizado para obtener mejores datos — que se encuentra dentro de las grandes compañías tecnológicas de hoy — mientras que todavía permite a los usuarios retener la propiedad final.” De la economía a la cadena de bloques Muchos estudiantes de secundaria tienen fotos de estrellas del pop o atletas en las paredes de sus habitaciones. Kazlauskas tenía una foto del antiguo Estados Unidos. La secretaria del Tesoro, Janet Yellen. Kazlauskas llegó al MIT segura de que se convertiría en economista, pero terminó siendo una de las cinco estudiantes que se unieron al club MIT Bitcoin en 2015, y esa experiencia la llevó al mundo de las blockchains y las criptomonedas. Desde su dormitorio en MacGregor House, comenzó a extraer la criptomoneda Ethereum. Incluso ocasionalmente recorría contenedores de basura del campus en busca de chips de computadora descartados. “Me interesó todo lo relacionado con la informática y las redes,” Kazlauskas dice. “Eso involucró, desde una perspectiva de blockchain, sistemas distribuidos y cómo pueden cambiar el poder económico a individuos, así como inteligencia artificial y econometría Kazlauskas conoció a Art Abal, que entonces asistía a la Universidad de Harvard, en la antigua clase de Media Lab Emergent Ventures, y la pareja decidió trabajar en nuevas formas de obtener datos para entrenar sistemas de IA. “Nuestra pregunta era: ¿Cómo podría tener una gran cantidad de personas que contribuyen a estos sistemas de IA utilizando más de una red distribuida?” Kazlauskas recuerda. Kazlauskas y Abal estaban tratando de abordar el status quo, donde la mayoría de los modelos se entrenan raspando datos públicos en Internet. Las grandes empresas de tecnología a menudo también compran grandes conjuntos de datos de otras empresas. El enfoque founder’ evolucionó a lo largo de los años y fue informado por la experiencia de Kazlauskas’ trabajando en la compañía financiera de blockchain Celo después de la graduación. Pero Kazlauskas acredita su tiempo en el MIT con ayudarla a pensar en estos problemas, y el instructor de Emergent Ventures, Ramesh Raskar, todavía ayuda a Vana a pensar en las preguntas de investigación de IA en la actualidad. “Fue genial tener una oportunidad abierta para construir, hackear y explorar,” Kazlauskas dice. “Creo que el espíritu en el MIT es realmente importante. Se trata solo de construir cosas, ver lo que funciona y continuar iterando.” Hoy en día, Vana aprovecha una ley poco conocida que permite a los usuarios de la mayoría de las grandes plataformas tecnológicas exportar sus datos directamente. Los usuarios pueden cargar esa información en billeteras digitales cifradas en Vana y desembolsarla para entrenar a los modelos como mejor les parezca. Los ingenieros de IA pueden sugerir ideas para nuevos modelos de código abierto, y las personas pueden agrupar sus datos para ayudar a entrenar el modelo. En el mundo blockchain, los grupos de datos se llaman DAO de datos, que significa organización autónoma descentralizada. Los datos también se pueden utilizar para crear modelos y agentes de IA personalizados. En Vana, los datos se utilizan de una manera que preserva la privacidad del usuario porque el sistema no expone la información identificable. Una vez que se crea el modelo, los usuarios mantienen la propiedad de modo que cada vez que se utiliza, son recompensados proporcionalmente en función de cuánto sus datos ayudaron a entrenarlo. “Desde la perspectiva de los desarrolladores, ahora puedes construir estas aplicaciones de salud hiperpersonalizadas que tienen en cuenta exactamente lo que comiste, cómo dormiste, cómo haces ejercicio, dice ” Kazlauskas. “Esas aplicaciones no son posibles hoy debido a esos jardines amurallados de las grandes compañías tecnológicas.” IA de crowdsourcing y propiedad del usuario El año pasado, un ingeniero de aprendizaje automático propuso usar los datos de usuario de Vana para entrenar un modelo de IA que podría generar publicaciones de Reddit. Más de 140,000 usuarios de Vana contribuyeron con sus datos de Reddit, que contenían publicaciones, comentarios, mensajes y más. Los usuarios decidieron los términos en los que se podía usar el modelo, y mantuvieron la propiedad del modelo después de su creación. Vana has enabled similar initiatives with user-contributed data from the social media platform X; sleep data from sources like Oura rings; and more. There are also collaborations that combine data pools to create broader AI applications. “Let’s say users have Spotify data, Reddit data, and fashion data,” Kazlauskas explains. “Usually,

Leer más »

Acelerar los Escaneos de Parquet Apache en Apache Spark con GPU

A medida que los tamaños de los datos han crecido en empresas de todas las industrias, Parquet Apache se ha convertido en un formato prominente para almacenar datos.  Apache Parquet es un formato de almacenamiento columnar diseñado para un procesamiento de datos eficiente a escala. Al organizar los datos por columnas en lugar de filas, Parquet permite consultas y análisis de alto rendimiento, ya que solo puede leer las columnas necesarias para una consulta en lugar de escanear filas completas de datos. El diseño de datos eficiente de Parquet, lo ha convertido en una opción popular en el ecosistema de análisis moderno, específicamente con las cargas de trabajo de Apache Spark. El RAPIDS Accelerator para Apache Spark construido sobre cuDF admite Parquet como formato de datos para leer y escribir datos de manera acelerada en GPU. Para muchas cargas de trabajo de Spark a gran escala donde los tamaños de entrada de datos están en terabytes, tener escaneos de parquet eficientes es fundamental para lograr un buen rendimiento en tiempo de ejecución. En esta publicación, discutimos cómo mitigar las limitaciones de ocupación causadas por usos de registro más altos y compartir resultados de referencia.  Formato de datos de parquet Apache El formato de archivo Parquet permite almacenar los datos en formato columnar utilizando trozos de columna ensamblados en grupos de filas. Los metadatos son distintos de los datos para permitir la división de columnas en varios archivos según sea necesario (Figura 1). El formato Parquet admite una variedad de tipos de datos. Los metadatos especifican cómo deben interpretarse estos tipos, lo que permite que estos tipos representen tipos lógicos más complejos, como marcas de tiempo, cadenas, decimales, etc.  También puede usar metadatos para especificar estructuras más complejas, como tipos anidados y listas. Los datos se pueden codificar en una variedad de formatos diferentes, como valores simples, diccionarios, codificación de longitud de ejecución, empaque de bits y más. – BOOLEAN: 1 bit boolean- INT32: 32 bit signed ints- INT64: 64 bit signed ints- INT96: 96 bit signed ints- FLOAT: IEEE 32-bit floating point values- DOUBLE: IEEE 64-bit floating point values- BYTE_ARRAY: arbitrarily long byte arrays- FIXED_LEN_BYTE_ARRAY: fixed length byte arrays Parquet sobre limitaciones de ocupación de GPU Antes de la RAPIDS Accelerator para Apache Spark, la implementación anterior de los escaneos de parquet fue un núcleo cuDF monolítico que admitía todos los tipos de columnas de parquet en un solo conjunto de código de procesamiento.  A medida que la adopción de Spark en GPU aumentó para los clientes con datos de Parquet, se invirtió más tiempo en comprender las características de rendimiento de los escaneos de Parquet dado el componente crítico del rendimiento que representaba. Hay varios recursos generales que tienen en cuenta la eficiencia con la que un kernel puede operar: A medida que analizamos los escaneos de parquet, observamos que la ocupación general de la GPU era menor de lo deseado debido a los límites de registro. El uso del registro está determinado por cómo el compilador CUDA genera código basado en la lógica del kernel más la gestión de datos.  Para el núcleo monolítico de Parquet, la complejidad para admitir todos los tipos de columnas creó un núcleo grande y complejo con alta memoria compartida y uso de registro. Si bien un solo núcleo monolítico puede haber consolidado el código juntos, su complejidad limitó los posibles tipos de optimizaciones y dio como resultado limitaciones de rendimiento a escala.  La Figura 2 representa el bucle de procesamiento de datos de Parquet en la GPU. Cada uno de los bloques es una cantidad grande y compleja de código del kernel, que puede tener sus propios requisitos de memoria compartida. Muchos de los bloques dependen del tipo, lo que conduce a un núcleo hinchado cargado en la memoria. Específicamente, una de las limitaciones era cómo se decodificaban los bloques de parquet dentro de las urdimbres. Había una dependencia en serie para que las urdimbres esperaran a que las urdimbres ordenadas previamente se completaran antes de procesar sus bloques de datos. Esto permitió que diferentes partes del proceso de decodificación ocurrieran en diferentes deformaciones, pero creó una dependencia ineficiente para el trabajo que se realizará en la GPU.  Pasar a un algoritmo de decodificación de todo el bloque fue crítico para el rendimiento, pero habría aumentado el recuento de registros y la ocupación limitada aún más debido a su intercambio de datos agregado y la complejidad de sincronización.  Microkernels de parquet en cuDF Para mitigar las limitaciones de ocupación causadas por usos de registro más altos, probamos una idea inicial de un núcleo más pequeño para preprocesar datos de tipo de lista en Parquet. Separamos un fragmento de código del núcleo monolítico en un núcleo autónomo y los resultados fueron impresionantes. Los puntos de referencia generales mostraron tiempos de ejecución más rápidos y los rastros de GPU demostraron una mejor ocupación. Después de eso, probamos el mismo enfoque para diferentes tipos de columnas. Los microkernels para varios tipos utilizaron plantillas C++ para reutilizar las capacidades. Esto simplificó el código para el mantenimiento y la depuración por tipo. El enfoque de microkernel de Parquet aprovecha la optimización del tiempo de compilación para pasar solo por las rutas de código necesarias para procesar un tipo determinado. En lugar de un núcleo monolítico que contiene todas las rutas de código posibles, puede generar muchos microkernels individuales que contienen solo el código necesario para esa ruta.  Esto se puede hacer usando if constexpr en el momento de la compilación, de modo que el código se lea normalmente, pero no incluya ninguna ruta de código que nunca se tome para una combinación particular de atributos de datos (cadenas o ancho fijo, listas o listas no, etc.). Aquí hay un ejemplo simple para procesar columnas de tipo de ancho fijo. Puede ver que la mayoría del procesamiento no es necesario y se omite en el nuevo enfoque de microkernel. Solo se necesita la copia de datos para este tipo. Para resolver el cuello de botella entre las deformaciones, los nuevos microkernels permitieron procesar bloques enteros en cada

Leer más »

Simplificación de la Gestión Periférica para la Era AI PC

Dell Pro Docks simplifica la TI con soluciones de acoplamiento seguras y manejables para el PC AI. Con cuatro nuevos muelles y potentes herramientas de administración. No hace mucho tiempo, administrar dispositivos en un entorno corporativo era sencillo. Los equipos de TI solo tenían que manejar algunas configuraciones de escritorio esenciales. Hoy en día, el panorama de TI es más dinámico y complejo que nunca. Las empresas modernas enfrentan desafíos como la supervisión de PC con IA, la gestión de diversos periféricos y la satisfacción de las demandas de actualizaciones sin interrupciones con una seguridad sólida. En Dell, prosperamos abordando la complejidad de frente. Es por eso que estamos orgullosos de presentar a la nueva familia de Dell Pro Docks –, una línea de primera industria de los muelles inteligentes más poderosos¹ manejable² y secure³. La alineación presenta cuatro nuevos muelles: Dell Pro Dock WD25, Dell Pro Smart Dock SD25 Dell Pro Thunderbolt 4 Smart Dock SD25TB4 y Dell Pro Thunderbolt 5 Smart Dock SD25TB5 (disponible en julio de 2025).  Estos muelles están emparejados con una potente plataforma de gestión periférica, incluyendo el Consola de administración de dispositivos Dell y Dell Display y Peripheral Manager. Juntos, agilizan los flujos de trabajo, ahorran tiempo, reducen la complejidad y ayudan a las empresas a desbloquear todo el potencial de su tecnología. Transformación de la Gestión del Espacio de Trabajo con Dell Pro Docks El aumento de las PC habilitadas para IA y el cambio a Windows 11 están elevando las demandas de los equipos de TI. Las empresas necesitan herramientas para manejar las cargas de trabajo de IA al tiempo que reducen los desafíos operativos. La gestión de múltiples ecosistemas, la garantía de actualizaciones oportunas y el mantenimiento de la seguridad en todas las plataformas siguen siendo obstáculos importantes. Dell Pro Docks se creó para resolver estos desafíos en función de las ideas de los clientes del mundo real. Con características como actualizaciones remotas de firmware a través de la Consola de Administración de Dispositivos de Dell, los equipos de TI obtienen herramientas proactivas para minimizar las interrupciones. Ya no necesitan una PC de usuario para estas actualizaciones, lo que hace que la administración sea más eficiente. ¿Qué establece Dell Pro Docks Apart? Con potencia inigualable y amplia compatibilidad, el primer muelle Thunderbolt 5 de la industria ofrece una potencia innovadora de 300W. Es compatible incluso con las cargas de trabajo de IA más exigentes. Cada Dell Pro Dock funciona con PC Dell y no Dell, lo que los convierte en una opción valiosa para entornos de dispositivos mixtos. Dellones listo para el futuro Thunderbolt 5 la tecnología permite un rendimiento increíble del dispositivo. El Dell Pro Thunderbolt 5 Smart Dock admite hasta cuatro pantallas 4K a 120Hz. Cada base en esta línea ofrece soporte nativo para múltiples pantallas de alta resolución, velocidades de red y USB más rápidas y una gama de opciones de puertos. Gestión de dispositivos sin problemas también define el Dell Pro Smart Dock, Dell Pro Thunderbolt 4 Smart Dock y Dell Pro Thunderbolt 5 Smart Dock. Todo se puede administrar de forma remota a través de la nueva Consola de Administración de Dispositivos Dell basada en la nube. Diseñado para desbloquear la eficiencia de los equipos, esta característica no requiere una conexión de PC o software adicional en dispositivos users’. Protección de datos está integrado en los diseños de Dellinks. Esta cartera incluye el muelles inteligentes más seguros de la industria³. Las características como el cifrado basado en hardware resistente a la manipulación y la protección Wi-Fi ayudan a mantener seguros los datos confidenciales. Dell también se centra en sostenibilidad en la tecnología. Cada muelle utiliza hasta 65%4 materiales reciclados post-consumo y viene con envases hechos de 100%5 contenido reciclado o renovable. El Dell Pro Dock reduce el uso de energía en espera hasta 72%6, apoyar a las empresas en el logro de los objetivos de sostenibilidad. Revolucionando la Gestión Periférica para Equipos de TI Herramientas como el Consola de administración de dispositivos Dell y Dell Display y Peripheral Manager dé a los equipos de TI un control completo sobre sus flotas periféricas. Estas herramientas aprovechan toda la potencia de Dell Pro Docks y optimizan su rendimiento. Basado en la nube Consola de administración de dispositivos Dell permite al personal de TI supervisar muelles, pantallas, teclados, ratones y más desde una única interfaz intuitiva. Es la solución de gestión de PC y periféricos más holística de la industria7, ahorrar tiempo, mejorar el cumplimiento y garantizar la salud de la flota. Por ejemplo, actualizar un muelle manualmente toma 15 minutos. Con la consola de Dellinks, los equipos de TI pueden actualización de 1.000 muelles en solo unos pocos clics. Esto se traduce en ahorro de más de 250 horas o 30 días hábiles, mejorando drásticamente la productividad sin agregar complejidad6. El Dell Display y Peripheral Manager complementa esta consola. Es la única aplicación que personaliza y administra la mayoría de las categorías de accesorios para PC8. Sus características personalizables permiten a los usuarios ajustar la configuración para mayor comodidad, crear accesos directos y aumentar la productividad. Mientras tanto, el personal de TI puede controlar y actualizar los dispositivos desde el back-end. Juntos, Dell Device Management Console y Dell Display and Peripheral Manager crean una experiencia perfecta. Mejoran la productividad de los empleados y transforman la forma en que las organizaciones administran sus espacios de trabajo. Los Espacios de Trabajo Futuros Empiezan Aquí Para las empresas que adoptan PC con IA, las apuestas son más altas que nunca. Las cargas de trabajo de IA requieren una infraestructura sólida, una gestión optimizada y herramientas para maximizar la productividad del usuario. Los muelles Dell Pro y las soluciones de gestión de espacios de trabajo satisfacen estas demandas al tiempo que allanan el camino para lugares de trabajo más inteligentes. Ya sea alimentando cargas de trabajo intensivas de IA o simplificando la administración de miles de dispositivos, Dell ofrece una línea confiable de dispositivos y software premium. Ofrecen un rendimiento excepcional con una usabilidad incomparable. Comience su transición hoy mismo con Dell Pro Docks y nuestras soluciones integrales de gestión de espacios de trabajo. Precios y Disponibilidad 1,7 Basado en el análisis interno de Dell, noviembre de 20242,6 Basado en el análisis interno de

Leer más »

Bharti Airtel y Nokia amplían la colaboración de la red central para acelerar la nueva prestación de servicios 5G

 La solución ayudará a integrar sin problemas las tecnologías 5G y 4G en un solo conjunto de servidores Espoo, Finlandia – Nokia y Bharti Airtel están ampliando su asociación con el despliegue de soluciones de acceso inalámbrico fijo y basadas en dispositivos Packet Core de Nokia para proporcionar una mejor experiencia de red para la creciente base de clientes 4G/5G de Airtella. La solución ayudará a integrar sin problemas las tecnologías 5G y 4G en un solo conjunto de servidores. Nokiaans FWA proporcionará capacidades adicionales para banda ancha doméstica y servicios de aplicaciones críticas para la empresa. Airtel utilizará el marco de automatización de Nokia para realizar el lanzamiento de servicio sin contacto y la gestión eficiente del ciclo de vida de las funciones de red básicas para mejorar su capacidad de ofrecer nuevos servicios más rápido y reducir los costos operativos de la red. Usando Nokia convergieron Núcleo del Paquete solución para la preparación 5G independiente (SA), Airtel continuará su evolución hacia 5G avanzado y simplificará su arquitectura de red para satisfacer la creciente necesidad de datos al tiempo que reduce los costos operativos de la red. Esto ayudará a Airtel a optimizar su huella de hardware y reducir su costo por bit mediante la utilización de pasarelas Packet Core basadas en dispositivos, manteniendo el resto de los elementos de red en una arquitectura nativa de la nube. El lanzamiento cubre la automatización de la red en un acuerdo de varios años que abarca la mayoría de las regiones de servicio de Airtel en todo el país. La colaboración implica el avance de redes autónomas mediante la utilización de GenaI para la orquestación y la garantía del servicio. “La innovadora arquitectura de implementación Packet Core de Nokia permite cambios críticos en la calidad y confiabilidad de nuestra red para satisfacer el crecimiento en rápido aumento de los requisitos de datos de los clientes. Este lanzamiento demuestra aún más nuestro éxito de larga data en la colaboración conjunta para fortalecer la experiencia general del cliente de Airtel,” dijo Randeep Sekhon, CTO de Airtel. “Nokia y Airtel tienen una asociación de larga data y nos complace reforzar su preparación para 5G SA. El uso por parte de Airtella de los Nokia de Packet Core para construir una mayor agilidad y confiabilidad de la red demuestra cómo estamos ayudando a los clientes a resolver problemas y promoviendo la posición de liderazgo de los Nokia en el espacio Core, en India y en todo el mundo, dijo Raghav Sahgal, presidente de Cloud and Network Services en Nokia. La solución de NokiaN ofrece una configuración preintegrada y modular basada en servidor para una mayor flexibilidad para admitir una gama más amplia de modelos de implementación empresarial y operativa. Esto permite a Airtel dirigirse mejor a nuevos clientes y crear nuevas fuentes de ingresos. La solución Packet Core para Fixed Wireless Access de NokiaNayers permite una capacidad adicional para servicios de banda ancha doméstica y aplicaciones críticas para la empresa para la entrega de ancho de banda y capacidad extremos a los clientes. Nokia tiene una amplia huella central en la red de Bharti Airtelle y ya ofrece varias otras tecnologías principales, incluyendo VoLTE (Voz sobre LTE), HSS (Servidor de Suscriptor de Hogar), HLR (Registro de Ubicación de Hogar), UDM (Gestión de Datos Unificados) y VoNR (Voz sobre Nueva Radio), junto con MANO (Gestión Automatizada y Orquestación). NOKIA News. Traducido al español

Leer más »

Huawei presenta la Solución PEN Xingmai de Próxima Generación, Acelerando la Actualización Digital e Inteligente de las Industrias

En la Huawei China Partner Conference 2025, Huawei lanzó su solución Xingmai Passive Ethernet Network (PEN) de próxima generación con cuatro características destacadas: 10GE exclusivo, arquitectura unificada, seguridad robusta y operaciones y mantenimiento inteligentes (O&M). Esta solución a prueba de futuro es ideal para industrias que buscan una base de red sólida y confiable para acelerar la transformación digital e inteligente. A medida que los terminales de IA y las aplicaciones de IA se generalizan, las empresas de todos los tamaños están acelerando su viaje digital e inteligente. En este proceso, las empresas están buscando nuevas soluciones de red para un mayor ancho de banda y una O&M más fácil, y también persiguen una red de campus a prueba de futuro que se puede actualizar rápidamente para la escalabilidad del servicio. Las soluciones de red óptica pasiva convencionales no pueden satisfacer tales necesidades. Ahí es donde entra la solución Xingmai PEN de Huawei. Al eliminar la necesidad de división óptica, la solución Xingmai PEN de Huawei logra 10GE totalmente óptico en la sala, ancho de banda simétrico de enlace ascendente y enlace descendente, y una evolución suave a 800GE en el futuro. Además, la solución Xingmai PEN de Huawei utiliza el protocolo Ethernet en toda la red para evitar la conversión del protocolo, simplificando la administración en un O& unificadoPlataforma M y reducción de los costos de O&M en toda la red. Estos rasgos hacen que la solución de Huawei sea ideal para escenarios con salas densas en industrias como la educación y la atención médica. La solución Xingmai PEN de Huawei es una excelente opción para que todas las industrias aceleren su viaje digital e inteligente al ofrecer cuatro características convincentes de la siguiente manera: 10GE Exclusivo para garantizar el ancho de banda: En la solución de Huawei, el interruptor central PEN proporciona un ancho de banda central de 160GE, que es el doble del promedio de la industria. Un solo dispositivo puede escalar para proporcionar 96 puertos 10GE, lo que permite 10GE totalmente óptico a la habitación. Este alto rendimiento ayuda a crear un entorno de red de oficina, enseñanza e investigación de alta velocidad y sin problemas. arquitectura unificada para redes pasivas simplificadas: Se construye una arquitectura de red unificada basada en protocolos Ethernet maduros, reduciendo los requisitos de habilidades técnicas y eliminando la necesidad de reaprendizaje por parte del personal de O&M. Además, el diseño de red pasiva está libre de habitaciones de voltaje extra bajo (ELV), eliminando radicalmente los riesgos de incendio. seguridad robusta y ahorro de energía: Se utilizan múltiples algoritmos de autenticación y mecanismos de protección de confiabilidad para evitar suplantación de identidad y acceso no autorizado y detectar y localizar rápidamente fallas en los módulos ópticos en segundos. Todos estos protegen la seguridad de la red del campus. Además, una unidad remota (RU) consume menos de 1 W de potencia por puerto. Esta capacidad de eficiencia energética, combinada con algoritmos dinámicos de ahorro de energía, ahorra más del 30% de la energía de la red, logrando resultados ecológicos y bajos en carbono. & M inteligente para operaciones simplificadas: Las RU son plug-and-play y gestionadas centralmente, reduciendo el número de nodos administrados en un 80%. El mapa digital de la red permite la configuración automática de la red del campus con un solo clic y facilita una optimización precisa en escenarios específicos, mejorando en gran medida la entrega y la eficiencia de O&M de socios y clientes. Más allá de esto, O&M impulsado por IA permite a una persona administrar un campus con más de 10,000 usuarios. «La ola digital e inteligente está barriendo industrias en todo el mundo. Una base de red de alta calidad se ha convertido en un motor clave para la transformación y actualización empresarial. En este contexto, es imperativo actualizar las redes de campus empresariales para potenciar sus actualizaciones digitales e inteligentes e inspirar más innovación para el futuro», dijo Chen Zhiwei, Vicepresidente del Dominio de Red de Campus de la Línea de Productos de Comunicación de Datos de Huawei. «La solución Xingmai PEN de Huawei satisface esta necesidad al combinar las ventajas de las tecnologías Ethernet probadas en campo y la arquitectura óptica pasiva. Con características sobresalientes como arquitectura unificada, 10GE exclusivo y ahorro de energía, la innovadora solución de Huawei ayuda a los clientes en educación, atención médica yy otras industrias para marcar el comienzo de una nueva generación de redes de campus Ethernet de alta calidad. « A medida que las tecnologías de comunicación de datos avanzan día a día, la actualización digital e inteligente se ha vuelto inevitable en todas las industrias. De cara al futuro, Huawei continuará sumergiéndose profundamente y potenciando la actualización digital e inteligente de todas las industrias a través de soluciones de red innovadoras. Huawei también colaborará aún más con clientes y socios en todo el mundo para construir redes de campus de 10 Gbps de alta calidad a escala. Huawei News. Traducido al español

Leer más »
Scroll al inicio