El Portal de las Tecnologías para la Innovación

Categoría: Nube e Infraestructura como Servicio

Construyendo un Sistema Simple de Recuperación de Información Multimodal Basado en VLM con NVIDIA NIM

En el mundo actual basado en datos, la capacidad de recuperar información precisa incluso de cantidades modestas de datos es vital para los desarrolladores que buscan soluciones optimizadas y efectivas para implementaciones rápidas, creación de prototipos o experimentación.  Uno de los desafíos clave en la recuperación de información es administrar las diversas modalidades en conjuntos de datos no estructurados, incluidos texto, archivos PDF, imágenes, tablas, audio, video, etc.  Los modelos multimodales de IA abordan este desafío procesando simultáneamente múltiples modalidades de datos, generando una salida cohesiva y completa en diferentes formas. NIM NVIDIA los microservicios simplifican el despliegue seguro y confiable de la IA modelos de fundación para el lenguaje, visión por computadora, habla, biología y más.  Los microservicios NIM se pueden implementar en la infraestructura acelerada por NVIDIA en cualquier lugar y exponer las API estándar de la industria para una rápida integración con aplicaciones y marcos de desarrollo de IA populares, incluidos LangChain y LlamaIndex. Esta publicación te ayuda a comenzar a construir un modelo de lenguaje de visión (VLM) basado, multimodal, sistema de recuperación de información capaz de responder a consultas complejas que involucran texto, imágenes y tablas. Lo guiamos a través de la implementación de una aplicación utilizando LangGraph, el estado del arte llama-3.2-90b-visión-instruct VLM, el optimizado mistral-pequeño-24B-instruct modelo de lenguaje grande (LLM) y NVIDIA NIM para implementación.   Este método de construcción de sistemas simples de recuperación de información ofrece varias ventajas sobre los tradicionales. El último microservicio VLM NIM permite una mejor comprensión contextual mediante el procesamiento de documentos visuales largos y complejos sin sacrificar la coherencia. La integración de Llamadas a herramientas de LangChaina permite al sistema crear herramientas, seleccionar y utilizar dinámicamente herramientas externas y mejorar la precisión de la extracción e interpretación de datos de diversas fuentes.  Este sistema es bueno para aplicaciones empresariales porque genera salidas estructuradas, asegurando consistencia y confiabilidad en las respuestas. Para obtener más información sobre los pasos de implementación de este sistema, consulte el /NVIDIA/GenerativeAIExamples Repo gitHub. Una simple tubería de recuperación multimodal HTML El sistema consta de las siguientes tuberías:  Ambas tuberías integran NVIDIA NIM y LangGraph para procesar y comprender texto, imágenes, visualizaciones complejas y tablas de manera efectiva. Tubería de ingestión y preprocesamiento de datos Esta etapa analiza documentos para procesar texto, imágenes y tablas por separado. Las tablas se convierten primero en imágenes, y las imágenes son procesadas por el punto final de la API de microservicio NIM alojado en NVIDIA para que el VLM llama-3.2-90b-vision-instruct genere texto descriptivo.  A continuación, en el paso de reconstrucción del documento, el texto descriptivo se fusiona con el texto original del documento, luego se resume en un LLM con modelado de contexto largo capacidad. En esta implementación, llama-3.2-90b-vision-instruct también se usa como LLM, aunque también se pueden implementar otros LLM como mistral-small-24b-instruct.  Finalmente, el texto completo, los resúmenes, las imágenes y sus descripciones se almacenan en una base de datos NoSQL, junto con identificadores de documentos únicos. LLM con modelado de contexto largo puede procesar documentos completos sin fragmentación, mejorando la comprensión del documento en una sola pasada y capturando relaciones y matices en tramos más largos de texto, lo que lleva a una recuperación de información más precisa.  Por el contrario, los modelos tradicionales pueden manejar entradas de hasta unos pocos miles de tokens, lo que requiere que los documentos largos se dividan en trozos más pequeños para que quepan dentro de la ventana de contexto de las modelaciones. Este proceso de procesamiento puede alterar la coherencia y el contexto, lo que dificulta la recuperación precisa y la clasificación de la información relevante.  Sin embargo, el modelado de contexto largo presenta desafíos relacionados con la escalabilidad y el costo, que deben tenerse en cuenta al negociar con mayor precisión. tubería QA Todos los resúmenes de documentos y sus identificadores se compilan en un mensaje grande. Cuando se envía una consulta, a LLM con modelado de contexto largo (mistral-small-24b-instruct en este caso) procesa la pregunta, evalúa la relevancia de cada resumen para la consulta y devuelve los identificadores de los documentos más relevantes. A continuación, los documentos más relevantes se introducen en un LLM con un contexto largo (mistral-small-24b-instruct). El modelo genera una respuesta a la consulta basada en el contenido textual. Si el modelo identifica que una imagen puede contener información pertinente basada en su texto descriptivo, se activa un paso adicional: la imagen original y la pregunta de los usuarios se envían al VLM (llama-3.2-90b-vision-instruct), que puede proporcionar una respuesta basada en el contenido visual real.  Finalmente, el sistema combina ideas textuales y visuales para ofrecer una respuesta integral. Las salidas estructuradas aseguran que los datos devueltos por el modelo se ajusten a un formato predefinido, lo que facilita la extracción de información específica y la realización de operaciones posteriores. Por el contrario, las salidas no estructuradas o variables pueden introducir ambigüedades y dificultades para analizar las respuestas de los modelos, lo que dificulta la automatización y la integración con otros sistemas.  La generación de datos estructurados a partir de modelos generalmente requiere instrucciones cuidadosamente diseñadas para guiar al modelo a responder en un formato particular, como JSON. Sin embargo, garantizar una adherencia constante a esta estructura puede ser un desafío debido a la tendencia natural de models’ a generar texto de forma libre.  NVIDIA NIM ahora es compatible de forma nativa capacidades para generar salidas estructuradas. Esto significa que puede confiar en las funcionalidades integradas para asegurarse de que las respuestas de las modelaciones estén formateadas de manera consistente, lo que reduce la necesidad de una ingeniería rápida compleja. Integración de NVIDIA NIM con LangGraph  NVIDIA NIM ofrece una compatibilidad perfecta con marcos populares y los últimos modelos de IA para sus aplicaciones. La implementación de la tubería integra NVIDIA NIM con LangGraph, un marco para construir aplicaciones agentic para determinar el flujo de control, que ha sido ampliamente adoptado por la comunidad de desarrolladores. Para orquestar el flujo de trabajo de esta tubería, el gráfico consta principalmente de dos nodos:  Nodo asistente  El nodo asistente es un agente primario que opera de acuerdo con el flujo de trabajo descrito en la Figura 3. El código

Leer más »

IBM Expande la Familia de Modelos de Granito con Nueva IA Multi-Modal y Razonamiento Construida para la Empresa

– Granite 3.2 – pequeños modelos de IA que ofrecen capacidades de razonamiento, visión y barandilla con una licencia amigable para el desarrollador – Modelos actualizados de series de tiempo Granite que ofrecen pronósticos de largo alcance con menos de 10M parámetros ARMONK, N.Y., 26 De febrero de 2025 /PRNewswire/ — IBM (NYSE: IBM) hoy debutó la próxima generación de su familia Granite big language model (LLM), Granite 3.2, en un esfuerzo continuo por ofrecer IA empresarial pequeña, eficiente y práctica para el impacto en el mundo real. Todos los modelos Granite 3.2 están disponibles bajo la licencia permisiva Apache 2.0 en Hugging Face. Los modelos seleccionados están disponibles hoy en IBM watsonx.ai, Ollama, Replicate y LM Studio, y se esperan pronto en RHEL AI 1.5 –, brindando capacidades avanzadas a las empresas y la comunidad de código abierto. Los puntos destacados incluyen: La estrategia de IBM para ofrecer modelos de IA más pequeños y especializados para empresas continúa demostrando eficacia en las pruebas, con el Granite 3.1 8B modelo que recientemente produjo altas calificaciones en la precisión en el Salesforce LLM Benchmark para CRM. La familia de modelos Granite cuenta con el apoyo de un sólido ecosistema de socios, incluidas las principales compañías de software que incorporan los LLM en sus tecnologías. «En CrushBank, hemos visto de primera mano cómo los modelos de IA abiertos y eficientes de IBM ofrecen un valor real para la IA empresarial –, ofreciendo el equilibrio adecuado de rendimiento, rentabilidad y escalabilidad», dijo Tan David, CTO, CrushBank. «Granite 3.2 lo lleva más allá con nuevas capacidades de razonamiento, y estamos entusiasmados de explorarlos en la construcción de nuevas soluciones agentic.» Granite 3.2 es un paso importante en la evolución de la cartera y la estrategia de IBM para ofrecer IA pequeña y práctica para las empresas. Si bien los enfoques de cadena de pensamiento para el razonamiento son poderosos, requieren un poder de cómputo sustancial que no es necesario para cada tarea. Es por eso que IBM ha introducido la capacidad de activar o desactivar la cadena de pensamiento programáticamente. Para tareas más simples, el modelo puede funcionar sin razonamiento para reducir la sobrecarga de cómputo innecesaria. Además, otras técnicas de razonamiento como el escalado de inferencia han demostrado que el Granito 3.2 8B el modelo puede igualar o exceder el rendimiento de modelos mucho más grandes en puntos de referencia de razonamiento matemático estándar. La evolución de métodos como la escala de inferencia sigue siendo un área clave de enfoque para los equipos de investigación de IBM.4 Junto con los modelos de instrucciones, visión y barandilla Granite 3.2, IBM está lanzando la próxima generación de sus modelos TinyTimeMixers (TTM) (sub 10M parámetros), con capacidades para pronósticos a más largo plazo hasta dos años en el futuro. Estos crean herramientas poderosas en el análisis de tendencias a largo plazo, incluidas las tendencias financieras y económicas, el pronóstico de la demanda de la cadena de suministro y la planificación de inventario estacional en el comercio minorista. «La próxima era de la IA se trata de eficiencia, integración e impacto en el mundo real – donde las empresas pueden lograr resultados poderosos sin un gasto excesivo en computación», dijo Raghavan Sriram, VP, IBM AI Research. «Los últimos desarrollos de Granite de IBM centrados en soluciones abiertas demuestran otro paso adelante para hacer que la IA sea más accesible, rentable y valiosa para las empresas modernas.» Para obtener más información sobre Granite 3.2, lea esto artículo técnico. IBM News. Traducido al español

Leer más »

Los ERP en la nube seguirán creciendo en 2025 impulsados por la IA

Con un mercado proyectado a alcanzar los 147 mil millones de dólares y un 60% de empresas utilizando IA embebida en sus sistemas, los ERP en la nube consolidan su papel como eje de la transformación digital. SAP Cloud ERP lidera esta evolución con innovaciones como Joule en español y alianzas estratégicas con hyperscalers. En un panorama empresarial en el que la digitalización es imprescindible, las organizaciones están adoptando soluciones tecnológicas avanzadas para potenciar su productividad, eficiencia e innovación. Entre estas herramientas, los ERP en la nube destacan como una de las opciones de mayor crecimiento y adopción, transformando profundamente la manera en que las empresas operan y toman decisiones estratégicas.  El mercado global de ERP está experimentando una notable expansión. Según datos de HG Insights, se espera que alcance un valor de 147.7 mil millones de dólares en 2025, con más de 3.8 millones de empresas invirtiendo en estas soluciones en todo el mundo. Este crecimiento refleja cómo los ERP en la nube se han convertido en el eje central de las estrategias tecnológicas empresariales.  La influencia de tecnologías disruptivas La cuarta revolución industrial, marcada por tecnologías avanzadas como la inteligencia artificial (IA), el aprendizaje automático y el Internet de las Cosas (IoT), está redefiniendo el ecosistema de los ERP. Según el análisis de Research and Markets, estas tecnologías están ampliando las capacidades de procesamiento de datos y automatización, ofreciendo a las empresas información más precisa sobre sus operaciones y comportamientos de los clientes. Estas innovaciones permiten optimizar la gestión de la cadena de suministro, mejorar las relaciones con los clientes y asignar recursos de manera más efectiva.  En Ecuador, Corporación el Rosado, empresa con más de 80 años de presencia en el mercado y que actualmente es la cadena de supermercados, jugueterías, cines, tiendas departamentales y ferreterías más grande del país, es un ejemplo del tipo de transformación que las organizaciones pueden impulsar de la mano de las soluciones de ERP en la nube. A través de la plataforma RISE with SAP, la organización busca crecer, innovar y mantenerse a la vanguardia en un entorno empresarial cada vez más cambiante y competitivo.  Además, con la adquisición de esta plataforma en la nube la compañía podrá: reducir costos gracias a la consolidación de sistemas y procesos en una única plataforma, mejorar su eficiencia ya que podrá automatizar y optimizar sus procesos empresariales y tendrá la posibilidad aprovechar las últimas tecnologías y tendencias del mercado como la Inteligencia Artificial y el análisis avanzado de datos. En Ecuador y en el mundo, las soluciones de SAP se posicionan como líderes del mercado, apostando por la innovación y mejoras que marcarán tendencia en los próximos años e incluyendo estas nuevas tecnologías como la base de nuevos desarrollos que seguirán impulsando la productividad de las organizaciones.   Para 2025, se proyecta que el 60% de las empresas que implementen ERP en la nube integrarán soluciones con IA embebida, según Gartner. Estas herramientas permitirán una toma de decisiones más rápida y precisa, así como una personalización avanzada de procesos empresariales. Roberto Astralaga, SAP Cloud ERP Team Leader, señala que “la inteligencia artificial integrada está transformando el núcleo de los ERP, convirtiéndolos en plataformas capaces de anticiparse a las necesidades empresariales y ofrecer soluciones en tiempo real.”  Una de las novedades más esperadas es la actualización de Joule, el asistente digital que ahora evoluciona sus capacidades habilitando agentes en cada proceso dentro del ERP, permitiéndole tomar decisiones informadas en tiempo real, reduciendo los procesos manuales y los riesgos asociados. Adicionalmente, estará disponible en español para finales de 2025. Según un estudio de IDC, adoptar inteligencia artificial en los procesos de ERP, permitirá un 21% de mejora en productividad para los usuarios finales. SAP también está trabajando en estrecha colaboración con hyperscalers para generar más casos de valor por industria. Estas alianzas estratégicas permitirán a las empresas beneficiarse de la escalabilidad y la flexibilidad de la infraestructura en la nube, al tiempo que aprovechan las capacidades específicas de cada industria. Analistas de IDC proyectan que esta colaboración podría resultar en un aumento del 45% en la generación de casos de éxito por industria, lo que reforzaría la posición de SAP como líder en soluciones ERP en la nube. Las tendencias y proyecciones para 2025 subrayan el papel fundamental de los ERP en la nube como motores de transformación digital. Con innovaciones como la IA embebida, la localización de plataformas analíticas y alianzas estratégicas, SAP Cloud ERP lidera la evolución tecnológica en un entorno empresarial en constante cambio.  Como concluye Roberto Astralaga, “SAP Cloud ERP no solo está preparado para satisfacer las demandas actuales del mercado, sino para anticiparse al futuro, ofreciendo herramientas que potencien a las empresas y transformen industrias enteras”. SAP News. Traducido al español

Leer más »

Ecosistema Logra Avance de Eficiencia de Energía en Xeon 6 con E-Cores

Los procesadores Intel Xeon 6 con núcleos eficientes logran una velocidad de adopción del ecosistema sin precedentes por parte de los socios de soluciones centrales 5G líderes en la industria. Qué hay Nuevo: Intel mostró hoy cómo los procesadores Intel® Xeon® 6 con núcleos eficientes (E-cores) han acelerado drásticamente la adopción del tiempo de comercialización para las soluciones de la compañía en colaboración con el ecosistema. Desde la introducción del producto en junio de 2024, los socios de soluciones básicas de 5G han validado de forma independiente una mejora del rendimiento de 3.2×13.8x rendimiento por vatio aumento2 y, en colaboración con Intel® Infrastructure Power Manager lanzado en el MWC 2024, una reducción del 60% en el consumo de energía en tiempo de ejecución3. “A medida que las redes centrales 5G continúan desarrollándose utilizando procesadores Intel Xeon, que se implementan en la gran mayoría de las redes 5G en todo el mundo, la eficiencia de la infraestructura, el ahorro de energía y el rendimiento sin compromisos son criterios esenciales para los proveedores de servicios de comunicación (CoSP). Intel se complace en anunciar que nuestros socios de soluciones básicas 5G han acelerado la adopción de Intel Xeon 6 con núcleos electrónicos y están transmitiendo inmediatamente estos beneficios a sus clientes. Además, con Intel Infrastructure Power Manager, nuestros socios tienen una solución de software en tiempo de ejecución que muestra un tremendo progreso en la reducción de la potencia del servidor en entornos CoSP en infraestructura existente y nueva –Alex Quach, vicepresidente de Intel y gerente general de Wireline y Core Network Division Por Qué Importa: Acortar el tiempo de comercialización es invaluable para los CoSP que buscan adoptar las plataformas más nuevas para obtener mayores beneficios de consumo de energía y reducir sus huellas de infraestructura mientras mantienen un nivel máximo de rendimiento. Todos estos representan los principales desafíos que enfrentan los CoSP a medida que modernizan las redes. Cómo Trabajan Mejor Juntos: Históricamente, el ecosistema de soluciones centrales 5G virtualizadas se ha basado en la certificación de software de soluciones en nuevas plataformas de procesadores para aumentar el rendimiento y la eficiencia energética.  Con el Intel Infrastructure Power Manager, los proveedores de soluciones pueden aprovechar el software de Intel para aprovechar al máximo los beneficios que los procesadores Intel Xeon aportan para reducir el consumo de energía en tiempo real. De esta manera, las mejoras de rendimiento y eficiencia energética de las nuevas introducciones de hardware se aumentan con capacidades adicionales significativas de ahorro de energía del software fácil de implementar. En Computex en Taipei, Taiwán, el 4 de junio de 2024, Intel lanzó los procesadores Intel Xeon 6 con núcleos eficientes (Núcleos E), que usan menos energía y ocupan menos espacio en la infraestructura envejecida en comparación con las generaciones anteriores. Estos procesadores Intel Xeon 6 con núcleos electrónicos liberan espacio para nuevos proyectos innovadores de IA. (Crédito: Intel Corporation) (~2 MB) Acerca de las innovaciones de CPU:Las plataformas Xeon de Intel establecen el estándar en el núcleo nativo de la nube 5G, proporcionando un costo total de propiedad (TCO) superior y una gestión integral de la energía. Los principales fabricantes de equipos de telecomunicaciones y proveedores de software independientes confían en los procesadores y la arquitectura Intel Xeon para optimizar y liberar ahorros de energía probados para un futuro más sostenible. Grupo BT: BT Group es el proveedor líder de telecomunicaciones fijas y móviles del Reino Unido y productos, soluciones y servicios digitales seguros relacionados. Su objetivo es acelerar el crecimiento a través de tecnología responsable, inclusiva y sostenible. La estrecha colaboración de BT Group con Intel ofrece una infraestructura 5G diferenciada que es de alto rendimiento, optimizada en costos y eficiente en el consumo de energía. La compañía dice que espera aprovechar las capacidades de Intel Xeon 6 con núcleos electrónicos para permitir servicios innovadores para sus clientes, al tiempo que reduce la huella energética de la red. Tecnologías Dell: El Dell PowerEdge R670 con procesadores Intel Xeon 6 con núcleos electrónicos ofrece un servidor de cómputo denso y refrigerado por aire diseñado para mejorar el rendimiento de las redes centrales 5G. Dell Technologies colaboró con Intel para mejorar significativamente el tiempo de comercialización de los proveedores de servicios de comunicaciones, al tiempo que ayudó a los operadores a reducir el costo y la huella de la infraestructura. Ericsson: Ericsson Cloud Native Infrastructure Solution (CNIS) permite servidores basados en procesadores Intel Xeon 6 con núcleos electrónicos como una solución verificada por el sistema para toda la cartera de aplicaciones principales 5G de modo dual de Ericsson. Los productos principales de paquetes de Ericssons con demandas de alto tráfico serán las aplicaciones líderes para usarlo. Esto ayuda a los proveedores de servicios de comunicación a reducir el TCO para la banda ancha móvil y las implementaciones inalámbricas fijas que exigen un alto rendimiento y rendimiento del tráfico. La estrecha colaboración entre Intel y Ericsson ha ayudado a reducir significativamente la introducción de nuevas tecnologías de años a meses, y las optimizaciones de software de Ericssons han producido una mejora de 3.8x en el rendimiento por vatio2 frente a las configuraciones implementadas actuales de CoSPs’. Hewlett Packard Enterprise: Hewlett Packard Enterprise mantiene su enfoque en proporcionar plataformas de telecomunicaciones de clase mundial y ha acelerado sus ciclos de validación para ofrecer HPE ProLiant Compute Gen 12 basado en procesadores Intel Xeon 6 con núcleos electrónicos. Estos servidores de alto rendimiento consumen menos energía por bit que las generaciones anteriores y permitirán a los operadores continuar abordando el crecimiento de la red al tiempo que reducen su huella de carbono, mejorando la seguridad y simplificando las operaciones. NEC: NEC proporciona una mejora significativa en el rendimiento por vatio y una mayor densidad de suscriptores para el núcleo convergente 4G/5G y UPF con procesadores Intel Xeon 6 con núcleos electrónicos. NEC continuará contribuyendo a lograr la neutralidad de carbono a través de la colaboración con Intel. Nokia: Nokia muestra su solución más eficiente de energía para 5G Packet Core utilizando procesadores Intel Xeon 6 con núcleos electrónicos, logrando una reducción del 60% en

Leer más »

Lenovo Ofrece Flexibilidad, Rendimiento y Diseño Inigualables con los Nuevos Servidores ThinkSystem V4 Desarrollados por Procesadores Intel Xeon 6

Las nuevas soluciones de infraestructura aceleran la modernización del centro de datos con un rendimiento de cómputo hasta 6.1x más alto que las CPU de generación anterior y 2x Las nuevas soluciones de infraestructura aceleran la modernización del centro de datos con un rendimiento de cómputo hasta 6,1 veces mayor que las CPU de la generación anterior y un ancho de banda de memoria 2x para abordar cualquier carga de trabajo de IA  24 De febrero de 2025 – Hoy, Lenovo anunció tres nuevas soluciones de infraestructura, impulsadas por procesadores Intel Xeon 6, diseñadas para modernizar y elevar los centros de datos de cualquier tamaño a potencias habilitadas para IA. Las soluciones incluyen servidores Lenovo ThinkSystem V4 de próxima generación que ofrecen un rendimiento innovador y una versatilidad excepcional para manejar cualquier carga de trabajo al tiempo que permiten potentes capacidades de IA en diseños compactos y de alta densidad. Ya sea que se implemente en el borde, co-ubique o aproveche una nube híbrida, Lenovo ofrece la combinación correcta de soluciones que desbloquean la inteligencia sin problemas y llevan la IA a donde sea necesario.   Los nuevos servidores ThinkSystem de Lenovo están diseñados específicamente para ejecutar la más amplia gama de cargas de trabajo, incluida la – más intensiva en computación, desde el comercio algorítmico hasta el servicio web, la astrofísica hasta el correo electrónico y CRM a CAE. Las organizaciones pueden optimizar la administración y aumentar la productividad con los nuevos sistemas, logrando un rendimiento de cómputo hasta 6.1 veces mayor que las CPU de la generación anterior1 con Intel Xeon 6 con núcleos P y hasta 2 veces el ancho de banda de memoria2 cuando se utiliza la nueva tecnología MRDIMM, para escalar y acelerar la IA en todas partes.   Los sistemas también están diseñados para ayudar a superar las limitaciones de potencia críticas al tiempo que ofrecen un mayor rendimiento para permitir una IA intensiva en computación. A través de la continua innovación de refrigeración líquida Lenovo Neptune, Lenovo está desbloqueando una nueva era de diseño de centro de datos más eficiente que redefine el uso de energía para TI. La refrigeración por agua Lenovo Neptune aumenta la eficiencia térmica en 3.5x, lo que reduce el consumo de energía utilizado para enfriar equipos de TI al tiempo que aumenta su potencia de procesamiento 3. Con una mayor densidad y eficiencia, los nuevos servidores Lenovo ThinkSystem V4 con Intel Xeon 6 con E-Cores permiten una consolidación de rack de hasta 3:1 de infraestructura de 5 años, liberando espacio y energía para nuevos proyectos de IA4.   “Lenovo está reimaginando lo que es posible en el centro de datos al ofrecer soluciones de infraestructura inteligentes y versátiles que simplifican y aceleran la modernización de TI, dijo Scott Tease, Vicepresidente de Productos de Lenovo Infrastructure Solutions Group. “Los nuevos servidores Lenovo ThinkSystem V4 representan la próxima generación de rendimiento e innovación, logrando un mayor cómputo con menos consumo de energía y entregando una administración impulsada por IA que permite a las empresas una implementación de IA rápida y protegida en cualquier entorno. Con Intel, permitiremos a nuestros clientes escalar de manera más inteligente y evolucionar más rápido para lograr una transformación impulsada por IA.”  Flexibilidad y Rendimiento sin Compromiso  Con más núcleos, ancho de banda de memoria y aceleración de IA en todos los núcleos, los servidores Lenovo ThinkSystem V4 con Intel Xeon 6 con núcleos P ofrecen un rendimiento y eficiencia excepcionales para abordar los mayores desafíos en IA en la más amplia gama de cargas de trabajo intensivas en computación. Los servidores también están diseñados específicamente para la confiabilidad y adaptabilidad en diversos entornos, como los servicios de colocación, que son críticos para las organizaciones que desean implementar IA privada de alto rendimiento pero carecen de la huella del centro de datos o la infraestructura para la refrigeración líquida. Las características mejoradas de seguridad física y del sistema también garantizan que los datos estén mejor protegidos, sin importar dónde se encuentren, incluida una nueva opción de bisel de bloqueo que protege los activos físicos en entornos remotos. Los nuevos servidores Lenovo ThinkSystem V4 incluyen:    Las soluciones Lenovo ThinkSystem V4 también extienden el enfriamiento líquido Lenovo Neptune desde la CPU a la memoria con el nuevo Módulo Complejo de Computación Núcleo Neptuno, admite cargas de trabajo más rápidas con velocidades de ventilador reducidas, un funcionamiento más silencioso y un menor consumo de energía.  Los fanáticos pueden consumir hasta el 18% de la energía utilizada por los servidores. El nuevo módulo Neptune está diseñado específicamente para reducir los requisitos de flujo de aire, produciendo velocidades de ventilador y consumo de energía más bajos, al tiempo que mantiene las piezas más frías para mejorar la salud y la vida útil del sistema. El módulo también expande el enfriamiento a cuatro GPU SW en el nuevo ThinkSystem SR650a.   Gestión impulsada por IA para una IA más Inteligente en Todas Partes    Las empresas pueden implementar con confianza aplicaciones de IA complejas con administración integrada de sistemas Lenovo que ahorra tiempo y recursos valiosos en toda la cartera ThinkSystem V4. Sirviendo como un comando central, XClarity One proporciona una interfaz de usuario intuitiva que garantiza una implementación rápida, eficiente y protegida de un sistema a mil. El nuevo Enterprise Remote Control integrado permite el acceso remoto y la gestión de la infraestructura empresarial sin importar dónde exista. Además, los nuevos análisis impulsados por IA ofrecen Análisis de Fallos Predictivos (PFA) de Server SSD en XClarity One, lo que ayuda a eliminar el tiempo de inactividad al identificar posibles problemas con los DIMM antes de que fallen. Finalmente, XClarity One ahora ofrece un Directorio Federado que administra centralmente el acceso al sistema en múltiples aplicaciones a través de un registro y una cuenta unificados.  Lenovo continúa empujando los límites de la innovación con soluciones de IA potentes, flexibles y responsables que traen la nueva era de innovación impulsada por IA a todos.  Desde la informática de vanguardia hasta los centros de datos a gran escala, la tecnología de Lenovoova permite a

Leer más »

Broadcom Amplía el Liderazgo de la Industria PCIe con la Cartera de Generación 6 de Fin a Fin para Infraestructura de IA

Plataforma de Desarrollo de Interop Ahora en Producción; Interruptor de Alto Puerto y Retimador Probado con Éxito para Interop y Cumplimiento PALO ALTO, California., Febrero. 25, 2025 (GLOBE NEWSWIRE) — Broadcom Inc.(NASDAQ:AVGO) anunció hoy la disponibilidad de su cartera PCIe Gen 6 de extremo a extremo. Broadcom ha ampliado aún más su liderazgo PCIe multigeneracional al permitir el acceso temprano a su PCIe Gen 6 Plataforma de Desarrollo Interop(IDP), que simplifica la interoperabilidad y el diseño del sistema con sus avanzadas capacidades de telemetría y diagnóstico. Broadcom, en colaboración con Micron y Teledyne LeCroyél también probó con éxito su conmutador y retimer de alto puerto para la interoperabilidad y la habilitación de cumplimiento para potenciar las soluciones de infraestructura de IA abiertas. “El compromiso de Broadcom con el ecosistema abierto se ha fortalecido a lo largo de seis generaciones y ahora nos complace ofrecer nuestros nuevos productos PCIe Gen 6 a los clientes de acceso temprano, dijo” Jas Tremblay, vicepresidente y gerente general, Grupo de Soluciones de Centros de Datos, Broadcom. “La transición de PCIe Gen 5 a Gen 6 ha sido monumental dada la necesidad acelerada de bloques de construcción confiables y confiables en los sistemas de IA de próxima generación. El conmutador PCIe Gen 6, el retimer y el IDP de Broadcomals capacitarán a nuestros socios para implementar con éxito clusters de IA abiertos y escalables.” “los interruptores y retimeros PCIe 6 son bloques de construcción críticos de alto rendimiento necesarios para alimentar soluciones avanzadas de IA. El enfoque basado en estándares, si se complementa hábilmente con una arquitectura ingeniosa y una interoperabilidad perfecta, allana el camino para una infraestructura de IA abierta y escalable, dijo” Patrick Moorheadfundador, director ejecutivo y analista jefe, Moor Insights & Strategy. “Broadcom está demostrando que está liderando la transición de PCIe 5 a PCIe 6 a escala con su enfoque único de hacer que su plataforma de desarrollo de interoperabilidad esté disponible temprano y trabajar con socios líderes del ecosistema para ofrecer una cartera PCIe 6 robusta, completamente probada y compatible La industria de la IA, incluidos los hiperescaladores y los ODM/OEM del sistema, ahora está diseñando soluciones de rack de IA de próxima generación basadas en la cartera de conectividad Broadcom PCIe Gen 6. La cartera de conectividad de Broadcom utiliza su SerDes interno, que también se utiliza en XPU personalizadas. Además, las características de diseño incluyen alcance extendido, menor disipación de potencia y gestión simplificada de interop y de extremo a extremo. Juntos, esto garantiza que el ecosistema de infraestructura de IA abierta esté impulsado por soluciones de interconexión escalables y eficientes en energía. Colaborando con líderes de la industria PCIe como Micron y Teledyne LeCroypara una habilitación y prueba tempranas, Broadcom asegura a los clientes bloques de construcción PCIe Gen 6 totalmente validados para satisfacer las rigurosas demandas de las plataformas y cargas de trabajo de IA. Para obtener más información sobre las soluciones PCIe Gen 6 de Broadcomals, haga clic en aquí. Broadcom News. Traducido al español

Leer más »

IBM Adquirirá DataStax, Profundizando las Capacidades de Watsonx y Abordando las Necesidades Generativas de Datos de IA para la Empresa

La adquisición planificada promueve el compromiso de IBM con la innovación de código abierto; ayuda a los clientes a acceder a datos empresariales no explotados y no estructurados para maximizar el impacto de la IA generativa ARMONK, N.Y., 25 De febrero de 2025 /PRNewswire/– IBM (NYSE: IBM) anuncia hoy su intención de adquirir DataStax, un proveedor de soluciones de IA y datos. La tecnología de DataStax mejorará la cartera de productos watsonx de IBM acelerando el uso de IA generativa, ayudando a las empresas a desbloquear el valor de grandes cantidades de datos no estructurados. La adquisición también se basa en el compromiso de IBM con la IA de código abierto. DataStax es el creador de AstraDB y DataStax Enterprise, NoSQL y capacidades de bases de datos vectoriales impulsadas por Apache Cassandra®; y Langflow, la herramienta de código abierto y la comunidad para el desarrollo de aplicaciones de IA de bajo código. IBM continuará apoyando, participando e innovando con las comunidades de código abierto Apache Cassandra®, Langflow, Apache Pulsar™ y OpenSearch en las que participa DataStax. El compromiso de larga data de IBM con la IA de código abierto incluye los modelos de fundación IBM Granite de código abierto e Instruct Lab, un enfoque revolucionario para avanzar en la verdadera innovación de código abierto en torno a los LLM. Aprovechamiento de datos no estructurados para la empresa Las empresas están luchando por aprovechar datos valiosos y no estructurados de todo su negocio, lo cual es fundamental para impulsar la IA generativa. Sin herramientas para ingerir y administrar adecuadamente estos datos sin explotar, los costosos proyectos de IA generativa no podrán ofrecer todo su potencial. Incluso el 70% de las empresas con iniciativas de IA generativas de alto rendimiento experimentan dificultades relacionadas con los datos según para McKinsey, y se estima que solo el uno por ciento de los datos empresariales está representado en los modelos de IA actuales.  IBM es líder en ayudar a los clientes a escalar la IA generativa y transformar su negocio utilizando datos empresariales. La adquisición de DataStax mejora estos esfuerzos. Su base de datos vectorial se destaca por aprovechar los datos empresariales no estructurados y acelerar su tiempo de valor, y Langflow proporciona un entorno de diseño gráfico y de bajo código y orquestación de componentes para aplicaciones de IA generativas que facilitan la colaboración entre diversos conjuntos de habilidades. «Las empresas no pueden darse cuenta de todo el potencial de la IA generativa sin la infraestructura adecuada – herramientas y tecnologías de código abierto que empoderan a los desarrolladores, aprovechan los datos no estructurados y proporcionan una base sólida para las aplicaciones de IA», dice Nirmal Dinesh, Vicepresidente Senior, IBM Software. «DataStax posee una profunda competencia en esta área y comparte el compromiso implacable de IBM para simplificar y escalar la IA generativa para la empresa.»     «Las empresas quieren ofrecer IA de producción rápidamente, pero todavía están luchando para desbloquear el valor de sus datos para impulsar las aplicaciones y los agentes de IA», dice Chet Kapoor, Presidente y CEO de DataStax. «Los productos de DataStax resuelven este problema, acelerando la promesa de AI con la escalabilidad, seguridad y precisión que los desarrolladores y las empresas necesitan. Hemos dicho durante mucho tiempo que no hay IA sin datos, y estamos entusiasmados de ejecutar esta visión con IBM.»  Los cientos de clientes de DataStax incluyen FedEx, Capital One, The Home Depot y Verizon. DataStax fue fundada en 2010 y tiene su sede en Santa Clara, CA.  Los detalles financieros de la transacción no fueron revelados.  Se espera que la adquisición se cierre en el segundo trimestre de 2025, sujeto a las condiciones de cierre habituales y las aprobaciones regulatorias.  IBM News. Traducido al español

Leer más »

Cuando la computación cuántica se encuentra con el mundo real

La computación cuántica podría ser una de las grandes revoluciones tecnológicas de las próximas décadas. En EPFL, los científicos están a la vanguardia del aprovechamiento de las tecnologías cuánticas para abordar los problemas del mundo real, alineando sus esfuerzos con los Objetivos de Desarrollo Sostenible de la ONU. Hace un siglo, se establecieron los fundamentos teóricos de la mecánica cuántica. En los 80’, los científicos se dieron cuenta de que la mecánica cuántica no solo era una descripción precisa de los fenómenos naturales, sino que también podía conducir a desarrollos tecnológicos revolucionarios, el más emocionante de los cuales es la computación cuántica. Aprovechando fenómenos inherentemente cuánticos como la superposición (propiedad que permite que los sistemas cuánticos actúen como si estuvieran en múltiples estados al mismo tiempo hasta que se midan) y el entrelazamiento (propiedad que permite el intercambio de información cuántica entre dos partículas a distancia), las computadoras cuánticas podrían resolver problemas computacionales que las computadoras clásicas no pueden. Esta ventaja permite el desarrollo de nuevos algoritmos para abordar problemas que de otro modo seguirían siendo inescrutables. Todos los casos de uso en los que trabajamos aplican métodos y herramientas de computación cuántica al medio ambiente, los alimentos, el transporte, la energía y la medicina en los países en desarrollo.Vincenzo Savona, Director Académico del Centro EPFL para Ciencia e Ingeniería Cuántica La computación cuántica todavía está en sus albores, y hay muchos desafíos aún por resolver antes de que sea práctica. Una de las principales áreas de investigación tiene como objetivo diseñar nuevos dispositivos cuánticos o mejorar los existentes, para mejorar el rendimiento y el tamaño de las computadoras cuánticas. Los científicos también buscan mitigar y corregir los errores cuánticos, ya que evitan que el sistema retenga sus propiedades cuánticas, interrumpiendo cómo funcionan las computadoras cuánticas y haciéndolas poco prácticas. Otra área de enfoque es la creación de nuevos algoritmos cuánticos que puedan resolver “problemas de ” del mundo real. Los investigadores de EPFL ya están apuntando a algunos problemas del mundo real con proyectos pioneros para desarrollar aplicaciones de computación cuántica que aborden los Objetivos de Desarrollo Sostenible (ODS) de la ONU. “Todos los casos de uso en los que trabajamos aplican métodos y herramientas de computación cuántica al medio ambiente, los alimentos, el transporte, la energía y la medicina en los países en desarrollo,” explica Vincenzo Savona, Profesor Asociado en el Laboratorio de Física Teórica de Nanosistemas (LTPN) y Director Académico de la Centro EPFL para Ciencia e Ingeniería Cuántica (QSE). Estos casos de uso representan un esfuerzo de colaboración que reúne a la academia, las empresas privadas y los formuladores de políticas. Ventajas cuánticas con objetivos específicos Aunque todavía estamos lejos de un despliegue completo de sistemas cuánticos, las capacidades de computación cuántica son potencialmente ventajosas en áreas específicas. Como propuso el físico Richard Feynman en la década de 1980, la simulación de sistemas de mecánica cuántica podría ser una de las aplicaciones más impactantes. “Con las computadoras cuánticas, podríamos simular átomos, moléculas y materiales, proporcionando una descripción más precisa de las propiedades de la materia, explica Savona. Por ejemplo, una comprensión más profunda de la estructura electrónica de la materia puede ayudar en el desarrollo de nuevas moléculas con aplicaciones en medicina y biología. La optimización de problemas complejos es otra área donde las computadoras cuánticas podrían tener una ventaja significativa, particularmente en áreas relacionadas con el medio ambiente, la industria, la logística, el transporte y la cadena de suministro. Por ejemplo, podrían ayudar a encontrar la ruta más eficiente para los camiones de reparto entre dos puntos, reduciendo el consumo de combustible y las emisiones. Las computadoras cuánticas también podrían permitir una mejor asignación de recursos médicos en el sistema de salud o ayudar a distribuir energía de manera eficiente a través de las redes eléctricas. Otro ejemplo práctico es la optimización de la estructura de los materiales, lo que lleva a propiedades mejoradas como la resistencia y la conductividad. “Estos son problemas que, en general, las computadoras clásicas no pueden abordar de manera eficiente,” dice Savona. La computación cuántica también abre perspectivas prometedoras cuando se combina con otras tecnologías como la IA. Los sistemas cuánticos, con su capacidad incomparable para manejar cálculos complejos, pueden capacitar a la IA para abordar problemas actualmente fuera del alcance de las computadoras clásicas. Se pueden usar para entrenar redes neuronales de manera más eficiente, dando a luz al floreciente campo del aprendizaje automático cuántico. A su vez, la IA y el aprendizaje automático se utilizan para simular las propiedades de los sistemas cuánticos complejos. La conexión entre la computación cuántica y la IA representa el paradigma futuro de la computación avanzada. Abordar los ODS concretos con la computación cuántica “Los ODS abarcan muchos objetivos ya centrales para nuestro trabajo en salud, educación, innovación y sostenibilidad ambiental, entre otros,” explica Marcel Salathé, codirector académico de la Centro de IA EPFL. “Gracias a la experiencia de EPFLF en IA y ciencias cuánticas, estamos apoyando directamente a ONG y organizaciones internacionales, ayudándoles a alcanzar sus objetivos A través de la asociación de QSE Centerpades con el Geneva Science and Diplomacy Anticipator (GESDA) y el Open Quantum Institute (OQI), organizado por el CERN, los investigadores de EPFL están explorando cómo las tecnologías cuánticas podrían abordar problemas específicos que afectan a los países en desarrollo y que son altamente relevantes para los ODS. Usted se sorprendería de lo mucho que los gobiernos locales apoyan estas iniciativas cuando ven que podemos introducir una solución que puede mejorar sus vidas.Savona Vincenzo Devis Tuia, Profesor Asociado de Laboratorio de Ciencia Computacional Ambiental y Observación de la Tierra en la EPFL, utiliza el aprendizaje automático y desarrolla herramientas para comprender el medio ambiente. Si bien las tecnologías cuánticas pueden ayudar a resolver problemas reales, enfatiza que la participación de la población local es fundamental. “Necesitamos codesarrollar tecnologías en colaboración con científicos locales y permitirles poseer sus datos y flujos de trabajo,” dice el investigador. “Te sorprendería lo mucho que los gobiernos locales apoyan estas iniciativas cuando ven que podemos introducir una solución que

Leer más »
Scroll al inicio