El Portal de las Tecnologías para la Innovación

Categoría: Big Data y Analítica Avanzada

Roboflow Ayuda a Desbloquear la Visión por Computadora para Cada Tipo de Constructor de IA

Noventa por ciento la información transmitida al cerebro humano es visual. La importancia de la vista en la comprensión del mundo hace visión por computadora esencial para los sistemas de IA. Al simplificar el desarrollo de la visión por computadora, la startup Roboflow ayuda a cerrar la brecha entre la IA y las personas que buscan aprovecharla. Con la confianza de más de un millón de desarrolladores y la mitad de las compañías Fortune 100, la misión de Roboflowlow es hacer que el mundo sea programable a través de la visión por computadora. Roboflow Universe es el hogar de la mayor colección de conjuntos de datos y modelos de visión por computadora de código abierto. El cofundador y CEO Joseph Nelson se unió al podcast NVIDIA AI para discutir cómo Roboflow permite a los usuarios en la fabricación, la atención médica y la automoción resolver problemas complejos con la IA visual. Un miembro de la NVIDIA Incepción programa para startups de vanguardia, Roboflow agiliza la capacitación y la implementación de modelos, ayudando a las organizaciones a extraer valor de las imágenes y el video visión por computadora. Por ejemplo, utilizando la tecnología, las compañías automotrices pueden mejorar la eficiencia de la producción, y los investigadores científicos pueden identificar poblaciones de células microscópicas. Sobre $50 billones en PIB mundial depende de la aplicación de IA a problemas en entornos industriales, y NVIDIA está trabajando con Roboflow para entregar esas soluciones. Nelson también comparte ideas de su viaje empresarial, enfatizando la perseverancia, la adaptabilidad y la comunidad en la construcción de una empresa impulsada por la misión. La tecnología impactante no se trata solo de innovación, dice. Se trata de hacer que las herramientas poderosas sean accesibles para las personas que resuelven problemas reales. Mirando hacia el futuro, Nelson destaca el potencial de la IA multimodal, donde la visión se integra con otros tipos de datos para desbloquear nuevas posibilidades, y la importancia de ejecutar modelos en el borde, especialmente en video en tiempo real. Obtenga más información sobre los últimos avances en agentes visuales y computación de borde en GTC NVIDIA, una conferencia global de IA que tendrá lugar del 17-21 de marzo en San José, California. Sellos de Tiempo 2:03 – Nelson explica que Roboflowlows tiene como objetivo hacer que el mundo sea programable a través de la visión por computadora. 7:26 – Aplicaciones del mundo real de visión por computadora para mejorar la eficiencia de fabricación, el control de calidad y la seguridad de los trabajadores. 22:15 – Cómo la multimodalilidad permite que la IA sea más inteligente. 33:01 – Lecciones aprendidas y perspectivas sobre liderazgo, trabajo impulsado por la misión y lo que se necesita para escalar una empresa con éxito. 29:43 – Teasing Roboflow hace próximos anuncios en GTC. Usted También Podría Me Gusta… Cómo los Modelos de la Fundación Mundial Avanzarán la IA Física Con NVIDIAias Ming-Yu Liu Los modelos de IA que pueden simular y predecir con precisión los resultados en entornos físicos del mundo real permitirán la próxima generación de sistemas de IA física. Ming-Yu Liu, vicepresidente de investigación de NVIDIA y miembro de IEEE, explica la importancia de modelos de fundación mundial — poderosas redes neuronales que pueden simular entornos físicos. Snowflakeakes Baris Gultekin en Desbloquear el Valor de los Datos con Modelos de Lenguaje Grande Snowflake está utilizando IA para ayudar a las empresas a transformar datos en ideas y aplicaciones. Baris Gultekin, jefe de IA en Snowflake, explica cómo la plataforma AI Data Cloud de la compañía separa el almacenamiento de datos del cómputo, permitiendo a las organizaciones de todo el mundo conectarse a través de la tecnología en la nube y trabajar en una plataforma unificada. NVIDIAays Annamali Chockalingam en el ascenso de los LLM Los LLM están en el centro de atención, capaces de tareas como generación, resumen, traducción, instrucción y chat. Annamalai Chockalingam, gerente senior de producto de marketing para desarrolladores en NVIDIA, analiza cómo una combinación de estas modalidades y acciones puede crear aplicaciones para resolver cualquier problema. Nvidia Blog. N. K. Traducido al español

Leer más »

Brújula, Mapa y Vehículo: Tres Herramientas para un Movimiento Suave

El éxito, incluso de los proyectos de TI a gran escala, puede depender de mucho más que la preparación técnica y el presupuesto para darle luz verde. El movimiento de un SAP existente ERP system to SAP S/4HANA Cloud Private Edition es uno que requiere una preparación y ejecución cuidadosas. Para que esta transición sea lo más fluida y segura posible, SAP proporciona una amplia gama de herramientas para admitir cada fase de la migración de ERP en la nube. Aquí, se destacan tres herramientas críticas que pueden ayudar a preparar sistemas, mantener operaciones y ejecutar una migración con precisión. Pero recuerde, esto es solo una instantánea de la cartera completa que aparece en la guía gratuita, “Mapeo de su viaje a SAP S/4HANA Cloud Private Edition.” La aplicación Custom Code Migration: Para preparación con claridad Antes de embarcarse en cualquier viaje, es esencial saber dónde estás comenzando desde—y hacer un balance de tu situación actual. La aplicación SAP Fiori “Custom Code Migration” puede actuar como una guía, ayudando a los equipos de TI a evaluar sus sistemas existentes y objetos de código personalizados con precisión. Puede identificar qué elementos están obsoletos, cuáles requieren adaptación y cuáles pueden pasar sin problemas.Obtenga un ERP en la nube personalizado que se adapte a la transformación única de su organización El código personalizado a menudo refleja años de ajustes — útiles en su tiempo, pero no siempre eficientes para los sistemas modernos. Al eliminar la complejidad innecesaria, esta aplicación puede garantizar que su migración a la nube comience con un núcleo delgado y optimizado. Puede proporcionar claridad, ayudando a los líderes de TI a tomar decisiones seguras sobre qué llevar adelante y qué dejar atrás. La aplicación Custom Code Migration funciona de la mano con el conjunto de herramientas SAP Readiness Check, que puede proporcionar un análisis completo del sistema antes de la migración. Al combinar ambos, las organizaciones pueden obtener una imagen completa de su panorama existente, lo que ayuda a garantizar que el código personalizado, la compatibilidad del sistema y las adaptaciones necesarias se tengan en cuenta en la estrategia de transición. Esta preparación inicial ayuda a establecer el tono para una transición más suave, haciendo que el proceso de migración sea más estratégico y menos reactivo. Cada migración exitosa a la nube necesita tres cosas: una brújula para establecer la dirección, un mapa para navegar por el paisaje y un vehículo para llevarlo a su destino. Estas herramientas de SAP pueden proporcionar exactamente esa — guía, conexión y ejecución para su viaje a SAP S/4HANA Cloud. SAP Integration Suite: Para una conexión perfecta Una migración nunca se trata puramente de lo nuevo. Se trata de mantener conexiones críticas a medida que se transforma. SAP Integration Suite puede permitir una integración consistente y confiable a través de sistemas heredados, plataformas en la nube y soluciones de terceros, asegurando la continuidad operativa durante cualquier transición. Etex, un líder mundial en materiales de construcción, es solo un ejemplo de cómo esta suite puede marcar la diferencia. Con operaciones en 45 países, la firma belga necesitaba unificar sus sistemas durante su migración a SAP S/4HANA. SAP Integration Suite entregó conectores preconstruidos, herramientas de código bajo y API robustas que optimizaron las integraciones y crearon un ecosistema digital cohesivo . Esto no solo aseguró operaciones diarias fluidas, sino que también preparó el escenario para un crecimiento global escalable. SAP mejora continuamente la suite con nuevas características y actualizaciones para mantener el ritmo de la tecnología en evolución. Este enfoque centrado en el cliente ayuda a minimizar el esfuerzo y la complejidad para las empresas que hacen la transición a SAP S/4HANA, ayudándoles a beneficiarse de las últimas innovaciones en integración. Además, SAP Integration Suite es totalmente compatible con la estrategia central limpia, reduciendo las modificaciones del sistema y complementando las herramientas de migración y conversión de datos de SAP para permitir una transición más ágil y eficiente. Para los líderes de TI, SAP Integration Suite también puede ofrecer funcionalidad— y tranquilidad. Al simplificar y asegurar las integraciones, ayuda a respaldar tanto la migración inmediata como la evolución futura de los procesos comerciales. Cabina de migración SAP S/4HANA: Para ejecución de precisión De manera similar significativa cuando se trata de migración de datos es la precisión. La cabina de migración de SAP S/4HANA ayuda a garantizar que los datos críticos se transfieran de manera precisa y eficiente, trabajando para minimizar los riesgos y el tiempo de inactividad durante la transición. La cabina puede proporcionar plantillas predefinidas y un proceso estructurado para migrar datos heredados a SAP S/4HANA Cloud Private Edition. Al reducir la complejidad de la transferencia de datos, ayuda a garantizar que los equipos de TI puedan centrarse en la preparación y la confiabilidad, sabiendo que su información crítica para el negocio es segura. La cabina de migración SAP S/4HANA es una de las varias herramientas disponibles para la migración de datos, principalmente adecuada para implementaciones de greenfield. Para las conversiones de sistemas o implementaciones brownfield, la herramienta Software Update Manager es la clave, mientras que SAP Business Transformation Center puede admitir transiciones de datos selectivas. Elegir el enfoque correcto depende de la estrategia de migración y los requisitos comerciales de una organización. La migración de datos es uno de los pasos más cruciales en el viaje de transición, que reúne todos los esfuerzos de preparación e integración. Sin embargo, la migración exitosa no termina aquí—datos y la validación de procesos siguen para garantizar que todo funcione como se esperaba, allanando el camino para una base sólida para la innovación y el crecimiento futuros. Un cinturón de herramientas de utilidad espera Como se mencionó, la cartera de SAPs no termina allí. La sección final de “Mapping your journey to SAP S/4HANA Cloud Private Edition” destaca 15 herramientas esenciales diseñadas para ayudar a evaluar, planificar, implementar y monitorear su migración. Desde SAP Readiness Check hasta SAP Data Services y las herramientas de desarrollo de ABAP, estas soluciones pueden ofrecer soporte adicional para ayudar a garantizar que cada fase de su

Leer más »

Nuevo Chip Ocelot Hace Zancadas en la Computación Cuántica

Basado en «qubits de gato», la tecnología proporciona una nueva forma de reducir los errores cuánticos Los científicos del AWS Center for Quantum Computing en el campus de Caltech han dado un salto adelante al descubrir cómo suprimir los errores en las computadoras cuánticas, un problema molesto que sigue siendo el mayor obstáculo para construir las máquinas del futuro. Las computadoras cuánticas, que se basan en las propiedades aparentemente mágicas del reino cuántico, son prometedoras para su uso en muchos campos diferentes, como la medicina, la ciencia de los materiales, la criptografía y la física fundamental. Pero mientras que las computadoras cuánticas de hoy en día pueden ser útiles para estudiar áreas de nicho de la física, una computadora cuántica de propósito general capaz de resolver problemas más avanzados aún no es posible debido a su sensibilidad inherente al ruido. Las vibraciones, el calor, la interferencia electromagnética de los teléfonos celulares y las redes Wi-Fi, o incluso los rayos cósmicos y la radiación del espacio exterior, pueden eliminar los qubits— bits cuánticos, fuera de su estado cuántico. Como resultado, las computadoras cuánticas cometen muchos más errores que sus contrapartes informáticas clásicas. Reportando en la edición del 26 de febrero de la revista Naturaleza, un equipo de científicos de AWS y Caltech demuestran un nueva arquitectura de chip cuántico para suprimir errores utilizando un tipo de qubit conocido como qubit cat. Los qubits de gato se propusieron por primera vez en 2001 y, desde entonces, los investigadores los han desarrollado y refinado. Ahora, el equipo de AWS ha reunido el primer chip qubit cat escalable que se puede utilizar para reducir de manera eficiente los errores cuánticos. Llamado Ocelote, el nuevo chip de computación cuántica lleva el nombre del gato salvaje manchado, al tiempo que da un guiño a la tecnología interna de «oscilador» que subyace a los qubits de gato. «Para que las computadoras cuánticas tengan éxito, necesitamos que las tasas de error sean aproximadamente mil millones de veces mejores de lo que son hoy en día», dice Oskar Pintor (PhD ’01), John G Braun Profesor de Física Aplicada y Física en Caltech y jefe de hardware cuántico en AWS. «Las tasas de error han estado bajando aproximadamente un factor de dos cada dos años. A este ritmo, nos llevaría 70 años llegar a donde tenemos que estar. En cambio, estamos desarrollando una nueva arquitectura de chips que puede llevarnos allí más rápido. Dicho esto, este es un bloque de construcción temprano. Todavía tenemos mucho trabajo por hacer.» Los Qubits se basan en 1s y 0s como los de las computadoras clásicas, pero los 1s y 0s están en un estado de superposición. Eso significa que pueden asumir cualquier combinación de 1 y 0 simultáneamente. También significa que son frágiles y pueden caer fácilmente fuera de la superposición. «Lo que hace que los qubits sean poderosos también los hace sensibles a los errores cuánticos», dice Painter. Los sistemas informáticos digitales clásicos tienen una forma directa de manejar errores. Básicamente, los diseñadores de estos sistemas utilizan bits redundantes adicionales para proteger los datos de errores. Por ejemplo, un solo bit de información se replica en tres bits, de modo que cualquier bit tiene dos socios de respaldo. Si uno de esos bits tiene un error (vuelve de 1 a 0 o de 0 a 1), y los otros dos no se han volteado, un código simple—en este caso, lo que se llama un código de repetición de tres bits—se puede usar para detectar el error y restaurar el bit impar. Debido a la complejidad de la superposición que se encuentra en los qubits, pueden tener dos tipos de errores: volteos de bits, como en los sistemas digitales clásicos, y volteos de fase, en los que los estados de qubit de 1 y 0 se vuelven fuera de fase (o fuera de sincronización) entre sí. Los investigadores han desarrollado muchas estrategias para manejar ambos tipos de errores en los sistemas cuánticos, pero los métodos requieren qubits para tener un número significativo de socios de respaldo. De hecho, las tecnologías actuales de qubit pueden requerir miles de qubits adicionales para proporcionar el nivel deseado de protección contra errores. Esto sería como un medio de comunicación que emplea un enorme edificio de verificadores de hechos para verificar la precisión de sus artículos en lugar de solo un pequeño equipo. La sobrecarga para las computadoras cuánticas es excesiva y difícil de manejar. «Estamos en una búsqueda a largo plazo para construir una computadora cuántica útil para hacer cosas que incluso las mejores supercomputadoras no pueden hacer, pero ampliarlas es un gran desafío», dice el coautor del estudio Fernando BrandaoBren Profesor de Física Teórica en Caltech y director de ciencias aplicadas en AWS. «Entonces, estamos probando nuevos enfoques para la corrección de errores que reducirán los gastos generales.» El nuevo esquema del equipo se basa en un tipo de qubit formado a partir de circuitos superconductores hechos de osciladores de microondas, en los que los estados 1 y 0 que representan el qubit se definen como dos amplitudes diferentes de oscilación a gran escala. Esto hace que los estados qubit sean muy estables e impermeables a los errores de volteo de bits. «Puedes pensar en los dos estados oscilantes como el de un niño en un columpio, que se balancea a grandes amplitudes, pero se balancea hacia la izquierda o hacia la derecha. Un viento puede subir y empujar el columpio, pero la amplitud de la oscilación es tan grande que no puede cambiar rápidamente de una dirección de balanceo a la otra», explica Painter. De hecho, el nombre «gato» qubits se refiere a la capacidad de estos qubits para asumir dos estados muy grandes, o macroscópicos, al mismo tiempo—al igual que el famoso gato en el experimento mental de Erwin Schrödinger, que puede estar vivo y muerto simultáneamente. Con los qubits de gato que han reducido drásticamente los errores de volteo de bits, los únicos errores que quedan por corregir son los errores de volteo de fase. Y corregir solo un tipo

Leer más »

Telenor Construye la Primera Fábrica de IA de Noruega, Ofreciendo un Procesamiento de Datos Sostenible y Soberano

El primer servicio en la nube de IA sostenible y seguro de Noruega demuestra cómo los países pueden mantener la soberanía de los datos mientras avanzan computación verde iniciativas. Construido en 170 años como proveedor de telecomunicaciones, Telenor abrió la primera fábrica de IA de Noruega en noviembre. La instalación permite a las organizaciones procesar datos confidenciales de forma segura en suelo noruego mientras priorizan la responsabilidad ambiental. El Director de Innovación de Telenoror y Jefe de la Fábrica de IA, Kaaren Hilsen, se unió al Podcast de IA de NVIDIA para discutir el rápido desarrollo de las fábricas de IA, ya que pasó del concepto a la realidad en menos de un año. Ahora sirve a clientes en todas las industrias, incluida la logística y los servicios públicos, y ofrece servicios sostenibles y seguros IA soberana — donde las naciones poseen la producción de su propia inteligencia. El compromiso de Telenoror con la sostenibilidad es evidente en sus planes para construir un centro de datos en Oslo que funcione con energía renovable y reutilice el exceso de calor para la calefacción urbana en edificios residenciales cercanos. La infraestructura de IA soberana ayuda a las naciones a administrar datos confidenciales y avanzar en los objetivos de sostenibilidad. Como dijo Hilsen, la fábrica de IA no se trata solo de construir infraestructura — se trata de “ayudar a avanzar a la sociedad,” de manera responsable y sostenible. Hilsen compartirá más ideas en NVIDIA GTC, la conferencia líder mundial de IA, en una sesión titulada, “Acelerando las Fábricas Soberanas de IA: Perspectivas de los Estudios de Caso de Telco.” Explora la alineación de sesiones de telecomunicaciones en GTC y obtenga más información sobre cómo se convierten las empresas de telecomunicaciones fábricas soberanas de IA. En la tercera encuesta anual de profesionales de telecomunicaciones de NVIDIA, el 84% de los encuestados tiene la intención de ofrecer soluciones de IA generativas a sus clientes, principalmente como software como servicio (52%) y como plataforma de desarrollo, incluidos los servicios de computación (35%). Aprende más en el informe completo. Sellos de Tiempo 01:39 – Hilsen detalla sus 25 años de experiencia en la industria de las telecomunicaciones y su enfoque reciente en la innovación sostenible. 07:39 – Cómo la fábrica de IA pasó del concepto a la realidad en menos de un año. 13:09 – Exploración de cómo los clientes están utilizando la fábrica de IA para el procesamiento de datos confidenciales. 16:50 – La importancia de la seguridad y la creación de confianza con los clientes. Usted También Podría Me Gustar…  La Tecnovación Empodera a las Niñas en la IA, Haciendo que la Educación en IA sea Más Inclusiva y Participativa Tara Chklovski, fundadora y CEO de la organización de educación tecnológica Technovation, y Anshita Saini, alumna de Technovation y miembro del personal técnico de OpenAI, exploran cómo la organización sin fines de lucro empodera a las niñas en todo el mundo a través de la educación tecnológica. Discuten cómo Technovation está preparando a la próxima generación de mujeres líderes en IA y tecnología, y Saini habla sobre Wiser AI, su nueva iniciativa para apoyar voces subrepresentadas en inteligencia artificial. NVIDIA acompaña a Josh Parker en How AI and Accelerated Computing Drive Sustainability La IA no se trata solo de construir máquinas más inteligentes. Se trata de construir un mundo más verde. La IA y la computación acelerada están ayudando a las industrias a enfrentar algunos de los desafíos ambientales más difíciles del mundo. Joshua Parker, director senior de sostenibilidad corporativa de NVIDIA, explica cómo estas tecnologías están impulsando una nueva era de eficiencia energética. Snowflakeakes Baris Gultekin en Desbloquear el Valor de los Datos con Modelos de Lenguaje Grande Snowflake está utilizando IA para ayudar a las empresas a transformar datos en ideas y aplicaciones. Baris Gultekin, jefe de IA en Snowflake, explica cómo la plataforma AI Data Cloud de la compañía separa el almacenamiento de datos del cómputo, permitiendo a las organizaciones de todo el mundo conectarse a través de la tecnología en la nube y trabajar en una plataforma unificada.

Leer más »

CUDA Acelerado: Cómo las Bibliotecas CUDA Refuerzan la Ciberseguridad con la IA

La tecnología de ciberseguridad impulsada por la computación acelerada de NVIDIA y las redes de alta velocidad está transformando la forma en que las organizaciones protegen sus datos, sistemas y operaciones. Nota del editor: Este es el siguiente tema en nuestro nuevo CUDA Serie de noticias aceleradas, que muestra las últimas bibliotecas de software, microservicios NVIDIA NIM y herramientas que ayudan a los desarrolladores, fabricantes de software y empresas a utilizar GPU para acelerar sus aplicaciones. Las medidas tradicionales de ciberseguridad están resultando insuficientes para abordar las amenazas cibernéticas emergentes, como el malware, el ransomware, el phishing y los ataques de acceso a datos. Además, las futuras computadoras cuánticas representan un riesgo de seguridad para los datos actuales a través de ‘harvest ahora, descifran las estrategias de ataque later’. La tecnología de ciberseguridad impulsada por la computación acelerada de NVIDIA y las redes de alta velocidad está transformando la forma en que las organizaciones protegen sus datos, sistemas y operaciones. Estas tecnologías avanzadas no solo mejoran la seguridad, sino que también impulsan la eficiencia operativa, la escalabilidad y el crecimiento empresarial. Ciberseguridad Acelerada impulsada por IA La ciberseguridad moderna depende en gran medida de la IA para el análisis predictivo y la mitigación automatizada de amenazas. Las GPU NVIDIA son esenciales para entrenar e implementar modelos de IA debido a su excepcional poder computacional. Ofrecen: Detección y Respuesta de Amenazas en Tiempo Real Las GPU sobresalen en el procesamiento paralelo, lo que las hace ideales para manejar las demandas computacionales masivas de tareas de ciberseguridad en tiempo real, como la detección de intrusiones, el análisis de malware y la detección de anomalías. Combinándolos con marcos de software de red de alto rendimiento como DOCA NVIDIA y NVIDIA Morfeo, las empresas pueden: Esta capacidad es particularmente beneficiosa para industrias como las finanzas y la atención médica, donde incluso unos pocos segundos de tiempo de inactividad pueden resultar en pérdidas o riesgos significativos para la seguridad pública. Leer el Libro blanco de seguridad de NVIDIA AI Enterprise para aprender más. Escalabilidad para Necesidades de Ciberseguridad de Infraestructura en Crecimiento A medida que las empresas crecen y adoptan más dispositivos conectados y servicios basados en la nube, el volumen de tráfico de red aumenta exponencialmente. Los sistemas tradicionales basados en CPU a menudo luchan por mantenerse al día con estas demandas. Las GPU y el software de red de alta velocidad proporcionan una escalabilidad masiva, capaz de manejar el procesamiento de datos a gran escala sin esfuerzo, ya sea en las instalaciones o en la nube. Por ejemplo, las soluciones de ciberseguridad de NVIDIAia pueden ayudar tecnologías de ciberseguridad a prueba de futuro y mejorar la rentabilidad a través del control centralizado. Seguridad de Datos Mejorada en Entornos Distribuidos Con el trabajo remoto convirtiéndose en la norma, las empresas deben proteger los datos confidenciales en un número creciente de ubicaciones distribuidas. Los sistemas informáticos distribuidos mejoran la resiliencia general de la infraestructura de ciberseguridad al proporcionar redundancia y tolerancia a fallas, reducción del tiempo de inactividad y protección de datos para un funcionamiento continuo y una interrupción mínima, incluso durante los ataques cibernéticos. El software de gestión de datos y redes de alta velocidad de NVIDIAia, junto con las soluciones de ciberseguridad impulsadas por GPU, ofrece una protección constante con actualizaciones automatizadas, cifrado mejorado y zonas de amenazas aisladas. Esto es especialmente crucial para las industrias que manejan datos confidenciales de los clientes, como el comercio minorista o el comercio electrónico, donde las infracciones pueden dañar gravemente la reputación de la marca. Obtenga más información sobre Tecnologías de computación en la nube GPU NVIDIAia. Cumplimiento Regulatorio Mejorado  Los marcos regulatorios como GDPR, HIPAA, PCI DSS y SOC 2 requieren que las empresas implementen medidas de seguridad estrictas. Las soluciones de ciberseguridad basadas en GPU y el software de red de alta velocidad facilitan el cumplimiento al garantizar la integridad de los datos, proporcionar pistas de auditoría y reducir la exposición al riesgo. Aceleración de la Criptografía Post-Cuántica Las computadoras cuánticas suficientemente grandes pueden descifrar el algoritmo de cifrado Rivest-Shamir-Adleman (RSA) que sustenta las soluciones de seguridad de datos actuales. A pesar de que estos dispositivos aún no se han construido, las agencias gubernamentales de todo el mundo recomiendan el uso de algoritmos de criptografía post-cuántica (PQC) para proteger contra los atacantes que podrían acumular datos confidenciales para el descifrado en el futuro. Los algoritmos PQC se basan en operaciones matemáticas más sofisticadas que RSA, que se espera que sean seguras contra ataques incluso por futuras computadoras cuánticas. El Instituto Nacional de Estándares y Tecnología (NISTA) ha estandarizado una serie de algoritmos de PQC y ha recomendado que las organizaciones comiencen a eliminar gradualmente los métodos de cifrado existentes para 2030 — y hagan la transición por completo a PQC para 2035. La adopción generalizada de PQC requiere un fácil acceso a implementaciones altamente eficientes y flexibles de estos algoritmos complejos. CuPQC NVIDIA acelera los algoritmos de PQC más populares, otorgando a las empresas un alto rendimiento de datos confidenciales para mantenerse seguras ahora y en el futuro. Esencialidad de Invertir en Infraestructura Moderna de Ciberseguridad La integración de la tecnología de ciberseguridad impulsada por GPU con software de red de alta velocidad representa un cambio de paradigma en la forma en que las empresas abordan la protección digital. Al adoptar estas soluciones avanzadas, las empresas pueden mantenerse a la vanguardia de las amenazas cibernéticas en evolución mientras desbloquean nuevas oportunidades de crecimiento en una economía cada vez más digital. Ya sea para proteger los datos confidenciales de los clientes o para garantizar operaciones ininterrumpidas a través de redes globales, invertir en una infraestructura moderna de ciberseguridad ya no es opcional sino esencial. NVIDIA proporciona más 400 Bibliotecas para una variedad de casos de uso, incluida la construcción de infraestructura de ciberseguridad. Se siguen agregando nuevas actualizaciones a la hoja de ruta de la plataforma CUDA. Las GPUs pueden simplemente acelerar el software escrito para CPUs de propósito general. Se necesitan bibliotecas, solucionadores y herramientas de software de algoritmos especializados para acelerar cargas de trabajo específicas,

Leer más »

IBM presenta Content Assistant impulsado por IA para encontrar rápidamente información enterrada dentro de los documentos

Es hora de revolucionar la forma en que administra, busca y descubre información. Cuando la información crítica es difícil de encontrar, se pierde un tiempo valioso buscando respuestas y se retrasan las decisiones importantes. Estos problemas pueden tener graves consecuencias.  Es hora de revolucionar la forma en que administra, busca y descubre información. Nos complace anunciar el lanzamiento de IBM Content Assistant, un poderoso conjunto de capacidades que utiliza IA generativa para ayudar a nuestros clientes a encontrar rápidamente información que de otro modo estaría enterrada en sus documentos. Proporciona trazabilidad y transparencia integradas, lo que facilita ver qué documentos y extractos se utilizaron para proporcionar la información. Con IBM Content Assistant, las respuestas y los resúmenes están a su alcance, liberando un tiempo valioso. Hemos visto una gran cantidad de emoción e interés de nuestros clientes durante la vista previa, y ahora estamos listos para revelarlo para todos. Beneficios clave de IBM Content Assistant 3 razones por las que usar IBM Content Assistant 1. Transparencia que necesita para liderar con confianza Lo que distingue a IBM Content Assistant de otros asistentes de IA es su sólida seguridad y transparencia. Content Assistant no te dejará preguntándote cómo generó su respuesta. En cambio, proporcionamos visibilidad completa en los documentos utilizados para generar nuestras respuestas.  También se adhiere a cualquier control de acceso que haya configurado, lo que le permite usarlo con confianza, incluso con sus documentos más confidenciales. Entendemos que la información proporcionada es crítica para su negocio. Por eso ofrecemos transparencia y trazabilidad integradas, lo que le permite tomar decisiones rápidas e informadas. Con IBM Content Assistant, puede confiar en las ideas que recibe y ver exactamente de dónde provienen. 2. Gobernanza y seguridad en la que puede confiar No dejamos la gobernanza y la seguridad al azar.  Nuestro Asistente de Contenido de IBM se basa en una base de los estrictos principios éticos de IA de IBM, proporcionando un gobierno integral de extremo a extremo y asegurando que su contenido sea seguro y confiable. 3. Implementación rápida y fácil con ROI inmediato Tener toda la información necesaria disponible a su alcance le permite tomar decisiones de manera rápida y eficiente. Esto, a su vez, libera a su equipo para centrarse en tareas de alta prioridad que impulsan el crecimiento del negocio. Comience con IBM Content Assistant y ponga fin a sentirse a la deriva entre un vasto océano de documentos. Para obtener más información sobre IBM Content Assistant, visite nuestro sitio aquí. IBM News. Traducido al español

Leer más »

Qualcomm e IBM Scale Enterprise-grade Generative AI de Edge a Cloud

 A través de esta colaboración, las compañías planean integrar watsonx.governance para soluciones de IA generativas impulsadas por las plataformas Qualcomm Technologies’ y permitir el soporte para los modelos IBM de Granite a través de Qualcomm® AI Inference Suite y Qualcomm® AI Hub. Destacados:  Antes del MWC Barcelona 2025, Qualcomm Technologies, Inc. e IBM anunciaron una colaboración ampliada para impulsar soluciones de inteligencia artificial generativa (IA) de nivel empresarial en dispositivos de borde y en la nube diseñados para permitir una mayor inmediatez, privacidad, confiabilidad, personalización y menor costo y consumo de energía. A través de esta colaboración, las compañías planean integrar watsonx.governance para soluciones de IA generativas impulsadas por las plataformas Qualcomm Technologies’ y permitir el soporte para los modelos IBM de Granite a través de Qualcomm® AI Inference Suite y Qualcomm® AI Hub. «En Qualcomm Technologies, estamos entusiasmados de unir fuerzas con IBM para ofrecer soluciones de IA generativas de vanguardia y de nivel empresarial para dispositivos a través del borde y la nube, dijo Durga Malladi, vicepresidente senior y gerente general de planificación tecnológica y soluciones de borde de Qualcomm Technologies, Inc. “Esta colaboración permite a las empresas implementar soluciones de IA que no solo son rápidas y personalizadas, sino que también vienen con capacidades sólidas de gobernanza, monitoreo y toma de decisiones, con la capacidad de mejorar la confiabilidad general de la IA desde el borde hasta la nube.» «Profundizar nuestra colaboración con Qualcomm Technologies fortalece nuestra capacidad de llevar la IA generativa de nivel empresarial desde la nube al límite, dijo Ritika Gunnar, gerente general de datos e IA de IBM. “Al optimizar los modelos watsonx.governance y Granite de IBM para su uso con las plataformas Snapdragon y Qualcomm Dragonwing, estamos ayudando a las empresas a capitalizar el poder transformador de la IA sin importar dónde residan los datos. Es un gran ejemplo del poder de la asociación.” Las plataformas Qualcomm son compatibles con IBM watsonx.governance y Granite Models Expandiendo sobre un anuncio en CES, Qualcomm Technologies e IBM planean ejecutar modelos watsonx.govenance, Granite Guardian 8B y Granite 3.1 8B en un diseño de referencia Snapdragon® 8 Elite y la Qualcomm Dragonwing™ AI On-Prem Appliance Solution con Qualcomm AI Inference Suite. Estos modelos funcionan en conjunto para proporcionar soluciones de IA generativas de extremo a extremo que se ejecutan en el borde y que contienen barandillas para controlar las implementaciones y operaciones del modelo, monitorear y mejorar la toma de decisiones. A través de esta colaboración, Qualcomm Technologies e IBM están combinando inferencia en el dispositivo, baja potencia y características de privacidad con el rendimiento de watsonx para ayudar a abordar la seguridad, la eficiencia, la confiabilidad y la gobernanza de las soluciones de IA para empresas. Qualcomm AI Hub + IBM Granite Models Qualcomm Technologies ha optimizado los modelos de lenguaje insignia de IBM de Granite 3.1, IBM de tercera generación de Granite, para Qualcomm AI Hub para ayudar a los desarrolladores y empresas a aprovechar todo el potencial de la IA en el borde. Las compañías ampliarán la colaboración de Qualcomm AI Hub e IBM watsonx para incluir barandillas de gobernanza y responsabilidad para modelos en el dispositivo a través de las capacidades de gobierno de watsonx. Para obtener más información sobre esta nueva implementación, visite Blog de desarrolladores de Qualcomm. Qualcomm Cloud AI Accelerators + Red Hat OpenShift La familia de aceleradores Qualcomm® Cloud AI ahora está certificada y disponible para Red Hat OpenShift, la plataforma de aplicaciones de nube híbrida líder en la industria impulsada por Kubernetes.  La certificación facilita la implementación a escala del conjunto de aplicaciones de software de IBM, incluido watsonx, utilizando soluciones de hardware basadas en Qualcomm Cloud AI. Para obtener más información sobre las innovaciones y demostraciones de Qualcomm Technologies’ e IBM de AI, visite el stand de Qualcomm en el MWC Barcelona (Punto #3E10, Pabellón 3, Fira Gran Via). Qualcomm News. Traducido al español

Leer más »

Thunderbolt Compartir: Uso de Múltiples PC para Manejar Flujos de Trabajo Exigentes

El nuevo software Intel permite a los usuarios compartir sin esfuerzo archivos, pantallas y periféricos comunes entre PC con Windows para un flujo de trabajo más rápido y fluido. Thunderbolt Share Cambia el Juego para Transmitir y Capturar Thunderbolt Share permite a los usuarios con una PC con licencia Thunderbolt Share o periférico conectar dos PC para un control perfecto de ambas computadoras, compartir pantalla, compartir archivos y audio sincronizado. En esta demostración, vea cómo Thunderbolt Share – con un solo cable Thunderbolt – se aprovecha para convertir una computadora portátil en un dispositivo dedicado de captura y transmisión de juegos, liberando recursos valiosos en la PC principal para juegos (Crédito: Intel Corporation) La rápida adopción de la inteligencia artificial ha aumentado significativamente la demanda de desarrolladores que pueden crear nuevos programas y aplicaciones impulsados por IA. Pero procesar, analizar o entrenar con grandes cantidades de datos puede tensar incluso un potente ancho de banda de PC, lo que dificulta la multitarea con otras aplicaciones que funcionan en segundo plano. Es un punto de dolor que se puede resolver conectando dos computadoras. Inteli Thunderbolt™ Compartir el software permite a los usuarios conectar fácilmente dos PC con Windows® para compartir pantallas y controlar con un solo teclado, mouse y almacenamiento. Usando un puerto Thunderbolt™ 4 o Thunderbolt™ 5 existente para PC, un solo cable proporciona cómputo seguro de alta velocidad y baja latencia para compartir archivos y compartir pantallas. Una de las PC o accesorios debe tener licencia Thunderbolt Share. “AI usa modelos de lenguaje, y esos modelos son enormes. Así que tal vez estás trabajando y ajustando un modelo, pero luego necesitas enviarlo a otra PC para probarlo. Toda esta idea de desarrolladores e IA y mover cantidades masivas de datos es enorme para Thunderbolt Share,” dijo Lyle Warnke, ingeniero técnico de marketing de Intel. “No tiene que repasar mi red Wi-Fi, que es lenta, o la nube, que es aún más lenta, o usar una unidad externa, que lleva tiempo y no es muy eficiente. Esto es privado. No voy a la nube, nadie verá mis datos porque simplemente va de una PC a otra a través de un cable.” La mayoría de las computadoras, Windows y Apple, están equipadas con un puerto Thunderbolt. Se ve igual que un puerto USB-C y está designado por un símbolo de rayo. Si bien se puede usar como un puerto USB-C, que generalmente tiene una velocidad de ancho de banda de 10 gigabits por segundo para transferir información, el uso de un cable Thunderbolt aumenta la velocidad de 4x a un ancho de banda de 40 gigabits por segundo o de 8x a un ancho de banda de 80 gigabits por segundo con Thunderbolt 5. El software Thunderbolt Share se puede descargar e instalar en PC con Windows con puertos Thunderbolt 4 o Thunderbolt 5. El software verifica que al menos un PC o accesorio Thunderbolt, como un dock, monitor o almacenamiento, tenga licencia Thunderbolt Share por parte del fabricante, luego permite que las PC conectadas compartan recursos. Las primeras PC y muelles con licencia están disponibles ahora, con más en 2025. En el CES 2025, las capacidades de pantalla compartida de Thunderbolt Shareals se exhibieron con una computadora portátil conectada directamente a través de un cable y puerto Thunderbolt a una poderosa computadora de escritorio que reproducía Marvel Rivals. El escritorio manejó la pesada tarea de ejecutar el juego, mientras que la computadora portátil administró la carga de trabajo de transmisión utilizando Thunderbolt Share y OBS (Open Broadcaster Software). Ambos fueron controlados en una pantalla. (Crédito: Intel Corporation) En el CES 2025, las capacidades de pantalla compartida de Thunderbolt Shareals se exhibieron con una computadora portátil conectada directamente a través de un cable y puerto Thunderbolt a una poderosa computadora de escritorio que reproducía Marvel Rivals. El escritorio manejó la pesada tarea de ejecutar el juego, mientras que la computadora portátil administró la carga de trabajo de transmisión utilizando Thunderbolt Share y OBS (Open Broadcaster Software). Ambos fueron controlados en una pantalla. (Crédito: Intel Corporation) Una computadora portátil alimentada por un procesador Intel Core Ultra serie 200 muestra los puertos Thunderbolt 4 en CES 2025 en Las Vegas en enero de 2025. (Crédito: Intel Corporation) Una computadora portátil alimentada por un procesador Intel Core Ultra serie 200 muestra los puertos Thunderbolt 4 en CES 2025 en Las Vegas en enero de 2025. (Crédito: Intel Corporation) (~17 MB) Más Empleos Requieren Más Que Una Computadora Usar múltiples computadoras es más común de lo que muchos piensan. Pero antes de la introducción de Thunderbolt Share en 2024, no había un método fácil para conectar dos PC con Windows directamente con un cable. “Esta es la parte de productividad que vemos para los usuarios comerciales que es tan buena,” Warnke dijo. “Tal vez tengo una computadora de escritorio y está haciendo mis cosas financieras, pero tengo mi computadora portátil que está haciendo correo electrónico y PowerPoint, pero solo quiero usar el área de monitor de escritorio.” Los jugadores entusiastas y los creadores profesionales a menudo usan dos o tres computadoras para obtener más flexibilidad, reducir la tensión del sistema y la capacidad de dedicar máquinas a tareas específicas. Cuantas más computadoras se usen, mejor será el flujo de trabajo y menos cuellos de botella. Por ejemplo, un artista visual tendrá un escritorio potente para tareas intensivas como edición de video, creación de video AI, renderizado 3D o diseño gráfico. Esas aplicaciones toman la mayor parte del ancho de banda de los escritorios para funcionar sin problemas. Es probable que ese creador también tenga una computadora portátil para la portabilidad al asistir a reuniones de clientes, presentaciones o sesiones en el lugar. Y podrían tener una tercera PC más antigua en uso como servidor dedicado. Ben Hacker, gerente general de Intel Client Connectivity Division, lo explica de esta manera: “Si soy un creador, tengo una computadora portátil y una computadora de escritorio que ejecutan simultáneamente múltiples aplicaciones; mi computadora portátil puede estar ejecutando aplicaciones diferentes a mi computadora

Leer más »

IO Remoto de Alto Rendimiento con NVIDIA KviKIO

Las cargas de trabajo que procesan grandes cantidades de datos, especialmente las que se ejecutan en la nube, a menudo utilizan un servicio de almacenamiento de objetos (S3, Google Cloud Storage, Azure Blob Storage, etc.) como fuente de datos.  Los servicios de almacenamiento de objetos pueden almacenar y servir grandes cantidades de datos, pero obtener el mejor rendimiento puede requerir adaptar su carga de trabajo a cómo se comportan los almacenes de objetos remotos. Esta publicación es para usuarios de RAPIDS que desean leer o escribir datos en el almacenamiento de objetos lo más rápido posible para que IO no bloquee su carga de trabajo. Parte de su conocimiento sobre cómo se comportan los sistemas de archivos locales se traduce en almacenes de objetos remotos, pero son fundamentalmente diferentes. Probablemente la mayor diferencia entre los dos, al menos para las cargas de trabajo de análisis de datos, es que las operaciones de lectura y escritura en el almacenamiento de objetos tienen latencia más alta y más variable. Cada servicio de almacenamiento tiene su propio conjunto de mejores prácticas y pautas de rendimiento (AWS, Azure). Aquí, weizll dar algunas pautas generales que se centran en las cargas de trabajo de análisis de datos. Ubicación Colocar sus nodos de cómputo cerca del servicio de almacenamiento (idealmente, en la misma región de la nube) le dará la red más rápida y confiable entre las máquinas que ejecutan su carga de trabajo y las máquinas que sirven los datos. Y, al final del día, la transferencia estará limitada por la velocidad de la luz, por lo que minimizar la distancia física no duele. Formato de archivo  “Los formatos de archivo Cloud-native” se han desarrollado para funcionar bien con el almacenamiento de objetos. Estos formatos de archivo generalmente proporcionan un acceso rápido y fácil a los metadatos (que incluye información de alto nivel como los nombres de columna o los tipos de datos, e información de nivel inferior como dónde se encuentran los subconjuntos de datos específicos del archivo). Parquet Apache, Zarr, y GeoTIFF Optimizado en la Nube son algunos ejemplos de formatos de archivo nativos de la nube para varios tipos de datos. Porque los servicios de almacenamiento de objetos generalmente admiten solicitudes de rango, clientes (como cuDF) puede leer los metadatos y luego descargar solo los datos que realmente necesitas. Por ejemplo, cuDF puede leer solo unas pocas columnas de un archivo de parquet con muchas columnas, o un cliente de Zarr puede leer un solo fragmento de una gran matriz n-dimensional. Estas lecturas se realizan en solo unas pocas solicitudes HTTP, y sin necesidad de descargar un montón de datos extraños que simplemente se filtran. Tamaño del archivo Debido a que cada operación de lectura requiere (al menos) una petición HTTP, weedd prefiere amortizar la sobrecarga de cada petición HTTP sobre un número razonablemente grande de bytes. Si controla el proceso de escritura de datos, querrá asegurarse de que los archivos sean lo suficientemente grandes como para que sus tareas de procesamiento posteriores obtengan un buen rendimiento. El valor óptimo depende de su carga de trabajo, pero en algún lugar de las docenas a cientos de MB es común para los archivos de parquet (ver más abajo para algunos ejemplos específicos). Dicho esto, deberá tener cuidado con la forma en que el tamaño del archivo interactúa con la siguiente herramienta de nuestro kit: concurrencia. Concurrencia El uso de concurrencia para descargar múltiples blobs (o múltiples piezas de un solo blob) al mismo tiempo es esencial para obtener un buen rendimiento de un servicio de almacenamiento remoto. Ya que es un remoto servicio, su proceso va a pasar algún tiempo (quizás mucho tiempo) esperando no hacer nada. Esta espera abarca el tiempo entre el momento en que se envía la solicitud HTTP y la respuesta recibida. Durante este tiempo, esperamos a que la red lleve la solicitud, el servicio de almacenamiento la procese y envíe la respuesta, y la red lleve la respuesta (posiblemente grande). Mientras que partes de esa escala de ciclo de solicitud/respuesta con la cantidad de datos involucrados, otras partes son solo gastos generales fijos. Los servicios de almacenamiento de objetos están diseñados para manejar muchas solicitudes concurrentes. Podemos combinar eso con el hecho de que cada solicitud implica algún tiempo esperando no hacer nada, para hacer muchas solicitudes concurrentes para aumentar nuestro rendimiento general. En Python, esto se haría típicamente usando un piscina de hilo: pool =concurrent.futures.ThreadPoolExecutor()futures =pool.map(request_chunk, chunks) O con asincio: tasks =[request_chunk_async(chunk) forchunk inchunks]awaitasyncio.gather(*tasks) Podemos tener muchas lecturas esperando sin hacer nada al mismo tiempo, lo que mejora nuestro rendimiento. Debido a que cada hilo/tarea no está haciendo nada en su mayoría, está bien tener más hilos/tareas de las que su máquina tiene núcleos. Dadas las suficientes solicitudes concurrentes, eventualmente saturará su servicio de almacenamiento, que tiene algunas solicitudes por segundo y objetivos de ancho de banda que intenta cumplir. Pero esos objetivos son altos; por lo general, necesitará muchas máquinas para saturar el servicio de almacenamiento y debería lograr un rendimiento muy alto. Bibliotecas Todo lo anterior se aplica esencialmente a cualquier biblioteca que haga IO remoto desde un servicio de almacenamiento de objetos. En el contexto de RAPIDS, NVIDIA KviKIO es notable porque Como se mencionó en el Anuncio de lanzamiento de RADIDS 24.12, KvikIO puede lograr un rendimiento impresionante al leer desde S3. Echemos un vistazo a algunos puntos de referencia para ver cómo funciona. Puntos de referencia Cuando lee un archivo, KvikIO divide esa lectura en lecturas más pequeñas de kvikio.defaults.task_size bytes. Hace esas solicitudes de lectura en paralelo usando un grupo de hilos con kvikio.defaults.num_threads trabajadores. Estos pueden controlarse utilizando las variables de entorno KVIKIO_TASK_SIZE y KVIKIO_NTHREADS, o a través de Python con: with kvikio.defaults.set_num_threads(num_threads), kvikio.defaults.set_task_size(size):    … Ver Configuración de tiempo de ejecución para más. Este gráfico muestra el rendimiento, en megabits por segundo, de leer una gota de 1 GB S3 a g4dn instancia EC2 en la misma región para varios tamaños de la agrupación de hilos (más alto es mejor). Menos hilos (menos de cuatro) logran un rendimiento más bajo y tardan más en leer el archivo. Más subprocesos (64, 128, 256) logran un mayor rendimiento al paralelizar las solicitudes al

Leer más »
Scroll al inicio