El Portal de las Tecnologías para la Innovación

Categoría: Big Data y Analítica Avanzada

Broadcom anuncia tecnología de óptica coempaquetada (CPO) de tercera generación con capacidad de 200G/carril

Los hitos clave de los socios con conmutadores CPO demuestran la preparación del ecosistema para las redes de escalamiento vertical y horizontal de IA de próxima generación PALO ALTO, California.,15 de mayo de 2025 (GLOBE NEWSWIRE) –Broadcom Inc.(NASDAQ: AVGO) anunció hoy avances significativos en su tecnología de óptica coempaquetada (CPO) con el lanzamiento de su línea de productos CPO de tercera generación de 200G por carril (200G/carril). Además del avance de 200G/carril, Broadcom demostró la madurez de sus productos y ecosistema CPO de segunda generación de 100G/carril, destacando mejoras clave en los procesos OSAT, diseños térmicos, procedimientos de manejo, enrutamiento de fibra y rendimiento general. Una creciente lista de socios industriales anunciados públicamente subraya aún más la preparación de la plataforma CPO de Broadcom, lo que permite la escalabilidad horizontal y vertical de aplicaciones de IA para grandes implementaciones de IA. El legado de Broadcom en CPO El liderazgo de Broadcom en CPO comenzó en 2021 con su Tomahawk 4 de primera generación.HumboldtEl chipset, que permite un ciclo de aprendizaje temprano en toda la cadena de suministro de CPO, se adelanta a la industria. Este chipset pionero introdujo innovaciones clave, como motores ópticos integrados de alta densidad, acoplamiento de borde y conectores de fibra desmontables. Basándose en este éxito, el chipset Tomahawk 5-Bailly (TH5-Bailly) de segunda generación se convirtió en la primera solución CPO de producción en serie de la industria. Como parte de la producción del TH5-Bailly, Broadcom se centró en pruebas automatizadas y procesos de fabricación escalables, sentando las bases para la producción a gran escala de futuras generaciones. La implementación de la línea de productos CPO de 100G/línea de Broadcom ha permitido a la empresa adquirir una experiencia inigualable en el diseño de sistemas CPO, integrando a la perfección componentes ópticos y eléctricos para maximizar el rendimiento y ofrecer las interconexiones ópticas de menor consumo de la industria. Hoy, con el anuncio de la línea de productos CPO 200G/carril de tercera generación, junto con el compromiso de desarrollar una solución 400G/carril de cuarta generación, Broadcom continúa liderando la industria en la entrega de interconexiones ópticas de menor potencia y mayor densidad de ancho de banda. Un ecosistema de CPO en rápido desarrollo El liderazgo de Broadcom en CPO se basa no solo en sus innovadores ASIC de conmutación y tecnología de motores ópticos, sino también en un ecosistema integral de componentes ópticos pasivos, interconexiones y socios de soluciones de sistemas. Con su línea de productos CPO de 100G/línea, Broadcom ha demostrado su capacidad para escalar su tecnología, satisfaciendo las crecientes demandas de la IA basada en inferencia y dando soporte a la próxima generación de aplicaciones impulsadas por IA. “Broadcom ha dedicado años a perfeccionar sus soluciones de plataforma CPO, como lo demuestra la madurez de nuestros productos de segunda generación de 100G/línea y la preparación del ecosistema”, afirmó Near Margalit, Ph. D., vicepresidente y director general de la División de Sistemas Ópticos de Broadcom . “Con nuestras soluciones CPO de tercera generación de 200G/línea, volvemos a marcar la pauta para la próxima generación de interconexiones de IA. Nuestro compromiso de ofrecer un rendimiento, una eficiencia energética y una escalabilidad líderes en la industria ayudará a nuestros clientes a satisfacer las demandas de la infraestructura de IA actual, que evoluciona rápidamente”. Hitos clave de los socios hacia la implementación masiva Los avances de Broadcom en tecnología CPO están respaldados por el creciente número de asociaciones clave anunciadas públicamente en todo el ecosistema, ya que varios colaboradores importantes anunciaron hitos significativos esta semana: Estos hitos de los socios demuestran el progreso continuo en la construcción de un ecosistema CPO completo y totalmente integrado que permite la próxima generación de soluciones de redes de IA. CPO de 3.ª generación: Desbloqueo de sistemas CPO de 200 G/carril La tecnología CPO de 200G/carril de Broadcom está diseñada para redes de escalamiento vertical y horizontal de alta radix de próxima generación, que exigirán la misma fiabilidad y eficiencia energética que las interconexiones de cobre. Esta capacidad es crucial para habilitar dominios de escalamiento vertical que superen los 512 nodos, a la vez que aborda los desafíos de ancho de banda, potencia y latencia asociados con el aumento de tamaño de los parámetros del modelo de cimentación de próxima generación. Las soluciones Gen 3 de Broadcom están diseñadas para abordar interconexiones de escalamiento vertical, donde problemas como fluctuaciones de enlace e interrupciones operativas pueden afectar significativamente la capacidad de la industria para lograr el menor costo por token. La hoja de ruta Gen 3 y Gen 4 de Broadcom incluye una estrecha colaboración con socios del ecosistema para optimizar la integración de las soluciones CPO, garantizando que cumplan con los exigentes requisitos de los centros de datos de hiperescala y las cargas de trabajo de IA. Además, Broadcom mantiene su compromiso con los estándares abiertos y la optimización a nivel de sistema, esenciales para el éxito y la evolución continuos de nuestra tecnología CPO. Para obtener más información sobre la tecnología CPO de Broadcom y los últimos avances, haga clic aquí : www.broadcom.com/cpo Citas de apoyo “Corning ha estado colaborando con Broadcom durante varios años para garantizar que sus necesidades de conectividad CPO puedan satisfacerse con un alto grado de rendimiento y confiabilidad a medida que los centros de datos habilitados para IA continúan escalando”, dijo Mike O’Day, vicepresidente sénior y gerente general deComunicaciones ópticas de Corning“Estamos ofreciendo una solución de conectividad óptica que permite niveles sin precedentes de velocidades ópticas y concentraciones de ancho de banda con menores consumos de energía y costos.Corning“Esperamos seguir colaborando con Broadcom en sus implementaciones de Bailly, así como innovar hacia sistemas CPO de 200G por carril de próxima generación”. “Nos entusiasma lanzar al mercado este conmutador CPO de vanguardia, que permite a los centros de datos lograr una eficiencia y un rendimiento aún mayores”, afirmó Wangson Wang, director general de la unidad de negocio de Infraestructura de Redes de Datos de Delta. “Nuestro objetivo es respaldar la próxima generación de infraestructura de red con soluciones innovadoras que ofrecen una velocidad inigualable,

Leer más »

Se prevé que el número de centros de datos públicos crezca un 50% en los próximos cinco años hasta alcanzar los 8.400 en 2030.

Los centros de datos proporcionan la potencia de la computación en la nube que hace que la inteligencia artificial funcione.   La conectividad de redes, ya sea dentro y entre centros de datos, o desde las aplicaciones hasta el usuario final, será fundamental para aprovechar el potencial de la IA.  Obtenga más información en nuestras páginas de redes de centros de datos NOKIA News. Traducido al español

Leer más »

Intel y Shell impulsan la refrigeración por inmersión en centros de datos basados ​​en Xeon

Una solución de enfriamiento por inmersión certificada por Intel, pionera en la industria, ofrece a los clientes de centros de datos un camino claro hacia un enfriamiento sustentable y eficiente en la era de la IA. A medida que la IA y la computación de alto rendimiento (HPC) aumentan la necesidad de una infraestructura robusta para centros de datos, los operadores de TI buscan soluciones de refrigeración térmica más eficientes, escalables y sostenibles. La refrigeración líquida es cada vez más popular y, según el  Grupo Dell’Oro , se prevé que represente el 36 % de los ingresos por gestión térmica de centros de datos para 2028. Sin embargo, la adopción y proliferación de la refrigeración líquida por inmersión, conocida por su rendimiento superior, se ha visto obstaculizada por la falta de soluciones de inmersión certificadas, probadas y de fácil implementación. En colaboración con Shell Global Solutions (US) Inc., Intel aborda este desafío validando una solución de inmersión total para centros de datos con hardware de Supermicro y Submer. Esta solución pionera, certificada por Intel Data Center para refrigeración por inmersión, establece un nuevo estándar en la industria 1  en eficiencia de refrigeración y rendimiento a largo plazo con la primera solución de inmersión para procesadores Intel® Xeon® de 4.ª y 5.ª generación. Tras exhaustivas pruebas y una rigurosa validación por parte del Laboratorio de Desarrollo Avanzado de Centros de Datos de Intel, esta solución combina la potencia de los procesadores Intel Xeon con la experiencia de pioneros en refrigeración por inmersión monofásica. Permite a los centros de datos implementar una infraestructura de alto rendimiento comprobada con la confianza de que resistirá las exigencias de la IA moderna y las cargas de trabajo de computación de alto rendimiento. Con esta certificación, Intel ofrece una Cláusula de Garantía de Inmersión Monofásica para Procesadores Xeon que confirma la confianza en la durabilidad, la eficiencia y la compatibilidad de la infraestructura de TI refrigerada por inmersión con los fluidos de refrigeración por inmersión Shell. Intel y Shell están explorando futuras oportunidades de colaboración para certificar los procesadores de última generación de Intel para su uso con fluidos Shell. “A medida que la demanda de los centros de datos continúa creciendo, las soluciones Intel Data Center Certified para refrigeración por inmersión desempeñarán un papel crucial en la creación de una infraestructura informática escalable y energéticamente eficiente”, afirmó Karin Eibschitz Segal, vicepresidenta corporativa y directora general interina del Grupo de Centros de Datos de Intel. “Este hito sienta las bases para la innovación y la colaboración futuras, garantizando que los centros de datos tengan acceso a tecnología de refrigeración fiable, validada y lista para implementar”. “La certificación y la validación son fundamentales en esta colaboración, ya que garantizan que los operadores de centros de datos tengan acceso a soluciones probadas de alto rendimiento en las que pueden confiar”, afirmó la Dra. Selda Gunsel, NAE, directora de tecnología y vicepresidenta ejecutiva de tecnología de Shell. “Juntos demostramos que es posible omitir la fase de prueba de concepto y acceder directamente a soluciones preevaluadas que han demostrado ofrecer un rendimiento mejorado, mayor eficiencia energética y un menor impacto ambiental, con el respaldo de las opciones de certificación y garantía completas pioneras en la industria de Intel”. Intel News. Traducido al español

Leer más »

La IA predictiva no es magia: permite una defensa contra DDoS basada en datos a escala

Cuando se habla de inteligencia artificial (IA) predictiva, es fácil imaginar escenas de películas como «Minority Report», donde los precognitivos predicen crímenes futuros con una precisión asombrosa.  Pero la IA predictiva en ciberseguridad no se trata de premoniciones mágicas. Se trata, en cambio, de comprender con claridad lo que ocurre bajo la superficie: ver a través de las capas de complejidad digital para revelar señales sutiles pero críticas de problemas antes de que las amenazas se materialicen por completo. Piense en la IA predictiva como una lente que resalta anomalías ocultas en flujos masivos de datos de red, identificando indicadores de posibles ataques mucho antes de que los sistemas tradicionales puedan reaccionar. A diferencia de los enfoques de seguridad reactiva que solo responden después de que se inicia un ataque, la IA predictiva observa proactivamente los datos de la red, lo que permite intervenir antes de que se produzcan interrupciones, de forma similar a la capacidad de Neo para percibir patrones en el código de «Matrix» en lugar de reaccionar sin pensar. Deepfield Defender ha adoptado este enfoque proactivo para la protección contra DDoS desde sus inicios. Mediante modelos de aprendizaje automático diseñados para telemetría a escala de internet, Defender no solo filtra flujos masivos de tráfico de red, sino que también enriquece esos datos con Deepfield Secure Genome® para comprender el contexto más amplio: quién y qué está detrás del tráfico, no solo su apariencia. Esta visión más profunda le permite detectar desviaciones tempranas del comportamiento esperado y descubrir amenazas ocultas que, de otro modo, podrían pasar desapercibidas. Una ventaja importante del enfoque predictivo de Defender es su capacidad para reducir los falsos positivos. Los métodos de seguridad tradicionales suelen identificar erróneamente picos de actividad legítimos en la red como amenazas, lo que provoca interrupciones innecesarias, como la evacuación de un teatro porque la gente hacía fila para el estreno. Sin embargo, Deepfield Defender evalúa simultáneamente múltiples dimensiones de los datos (origen del tráfico, comportamientos históricos, patrones establecidos), lo que proporciona una perspectiva clara y matizada. Esto garantiza que las amenazas reales se identifiquen y neutralicen con precisión, permitiendo que el tráfico de usuarios legítimos continúe sin interrupciones. La mejora continua es otra clave del éxito de Deepfield Defender, impulsada por la Alianza Global contra Amenazas DDoS (GDTA). Esta iniciativa colaborativa reúne a proveedores de servicios y operadores de la nube de todo el mundo para compartir datos anónimos y casi en tiempo real sobre ataques DDoS. Al contribuir y acceder a la telemetría e inteligencia de amenazas compartidas, los miembros de la GDTA mejoran colectivamente su capacidad para detectar y mitigar amenazas eficazmente. Cada nueva información obtenida a través de la GDTA se incorpora inmediatamente a los modelos de Defender, lo que mejora su capacidad para anticipar y bloquear eficazmente los métodos de ataque emergentes. Este ciclo de retroalimentación continuo es crucial, ya que los atacantes DDoS evolucionan constantemente sus tácticas. Sin embargo, gracias a la información colaborativa de GDTA, Deepfield Defender se mantiene a la vanguardia, aprendiendo rápidamente de los patrones globales de amenazas. Esta adaptación continua garantiza que los modelos predictivos de Defender se mantengan precisos y eficaces, incluso contra ataques sofisticados y en constante evolución. La IA predictiva no es adivinación mística; es cuestión de claridad, contexto e iteración constante. Nokia Deepfield Defender no se basa en bolas de cristal ni visiones cinematográficas del futuro. Filtra la señal del ruido, comprendiendo no solo cómo se comporta el tráfico, sino también qué lo envía y por qué. En el mundo de la protección DDoS, ese tipo de conocimiento es lo que distingue una reacción de pánico de una defensa precisa. Y cuando se trata de ver a través del ruido, al igual que Neo, Defender es «el indicado» que necesitas de tu lado. Para obtener más información, consulte nuestra lista de reproducción de videos “Seguridad DDoS con Nokia Deepfield” o venga a ver Deepfield Defender y nuestra solución de seguridad DDoS en acción en los próximos eventos de SReXperts : el primero en 2025 se realizará del 3 al 5 de junio de 2025 en Tarragona, España . NOKIA Blog. J. M. Traducido al español

Leer más »

Soberanía de datos e IA: ¿Por qué necesita una infraestructura distribuida?

El panorama regulatorio en rápida evolución requiere una gestión rigurosa de los datos y la infraestructura adecuada implementada en los lugares adecuados. El volumen de datos que las empresas necesitan gestionar crece exponencialmente, a la vez que las regulaciones sobre la ubicación, la residencia y la soberanía de los datos se multiplican en jurisdicciones de todo el mundo. Las empresas deben estar atentas a las políticas nacionales y regionales, en constante evolución, sobre quién puede acceder a datos específicos; cómo se recopilan, procesan y almacenan; y desde dónde se acceden o adónde se transfieren. La situación se vuelve cada día más compleja. Una gobernanza de datos eficaz es esencial para garantizar la transparencia de la IA y el cumplimiento de las normativas emergentes. Esto implica considerar los requisitos para acceder a los datos y saber exactamente qué ruta seguirán hasta su destino. Antes de establecer políticas de gobernanza de datos, las empresas deben comprender las leyes locales y cómo estas afectan dónde pueden generar, recopilar y almacenar datos. Según las conclusiones de la encuesta sobre el estado de la IA de McKinsey, el 70 % de los encuestados afirmó haber experimentado dificultades con los datos, incluyendo la definición de procesos para la gobernanza de datos. [1] La gestión de datos se ve aún más complicada por la enorme cantidad de datos que las empresas obtienen para entrenar sus modelos de IA. No solo deben asegurarse de que sus datos no sean utilizados por modelos de IA inadecuados, sino también de que utilicen los datos correctos en los lugares adecuados. Para cumplir con las leyes y regulaciones globales sobre soberanía de datos, las empresas también deben considerar cuidadosamente dónde almacenarán sus datos de IA. Una infraestructura distribuida y una estrategia de datos de IA con visión de futuro pueden ayudar a las empresas a comprender y gestionar las complejidades de la soberanía de datos en un mundo impulsado por la IA. Entendiendo la soberanía de los datos La soberanía de datos se refiere a que los datos recopilados o almacenados en una localidad, país o región específica estén sujetos a las leyes y regulaciones de la entidad responsable. Muchas jurisdicciones han creado y están implementando normas sobre cómo se accede, almacena, procesa y transfiere la información dentro de sus fronteras. Los datos almacenados dentro de fronteras específicas se rigen por el marco legal de esa jurisdicción, independientemente de la ubicación o propiedad de la sede de la empresa. Por ejemplo, una empresa con sede en California que recopila datos de personas o empresas en varios países debe cumplir con las leyes de soberanía y localización de datos de cada país, incluso si la empresa está en EE. UU. Algunas leyes establecen condiciones para las transferencias transfronterizas, mientras que otras las prohíben por completo. Por ejemplo, en algunas jurisdicciones, las empresas deben demostrar un requisito legal para transferir los datos, conservar una copia local de los datos por motivos de cumplimiento normativo, o ambas cosas. Otras regulaciones regulan si las empresas pueden acceder a los datos almacenados en una región, generar información y luego exportarla a la sede central para su posterior análisis o entrenamiento de modelos. Los subconjuntos de la soberanía de datos, como la localización y la residencia de datos, se relacionan con las leyes y normativas que rigen aspectos de la gestión de datos. La residencia de datos se refiere a la ubicación física (geográfica) donde una empresa almacena sus datos. Las empresas pueden seleccionar una región específica para el cumplimiento normativo, la seguridad o la optimización del rendimiento. Sin embargo, muchos sectores, como el financiero, el sanitario y el gubernamental, pueden estar obligados a almacenar datos en jurisdicciones específicas para cumplir con las leyes locales. Es importante tener en cuenta que almacenar datos en un país determinado no implica necesariamente que se rijan únicamente por las leyes de dicho país. Las empresas pueden estar sujetas a obligaciones legales extranjeras según su país de constitución o acuerdos contractuales. Además, una entidad reguladora puede aplicar requisitos estrictos de seguridad de datos, control de acceso y localización, lo que podría incluir el control del acceso a los datos por parte de usuarios o empresas con sede fuera de sus fronteras. Algunas leyes también otorgan a las agencias gubernamentales acceso a los datos sin el consentimiento del titular. Hacer que el cumplimiento de la soberanía de datos sea una parte esencial de sus estrategias de IA puede ayudar a las empresas a incorporar y priorizar el monitoreo continuo de leyes nuevas o cambiantes. Cómo la soberanía de los datos influye en las decisiones sobre infraestructura de IA Las empresas deben adaptar sus prácticas de gestión de datos para garantizar el cumplimiento normativo y contar con la infraestructura de IA adecuada en las ubicaciones correctas. Comprender todo su patrimonio de datos (qué datos posee, de dónde provienen y cómo están estructurados) puede revelar el riesgo de privacidad o regulatorio asociado a ellos. Luego está la cuestión de dónde almacenar los datos. Si bien elegir un proveedor de nube pública puede parecer conveniente, a menudo implica renunciar a cierto nivel de control, como saber exactamente dónde se almacenan los datos. Es importante destacar que las empresas no pueden confiar en que los proveedores de nube apliquen los requisitos de soberanía de datos en su nombre. Conocer la ubicación geográfica exacta de la infraestructura en cuestión es crucial para garantizar que se ajuste a las normas de soberanía de datos pertinentes. Expandirse desde un único proveedor de nube o incorporar infraestructura privada puede ser conveniente para evitar la dependencia de un proveedor y los costos relacionados con los datos. Piense en qué sucedería si su proveedor de nube necesitara conmutar por error de una nube en Londres a otra en Ámsterdam. ¿La ruta de red iría directamente de Francia a los Países Bajos o atravesaría otros países, lo que introduciría regulaciones adicionales sobre la soberanía de datos? Si los datos que transmite están altamente regulados, sería especialmente importante tener visibilidad de la infraestructura subyacente, y normalmente solo puede obtener

Leer más »

Agentic AI has an unstructured data problem: IBM is unveiling a solution

At Think this week, IBM is radically simplifying the data-for-AI stack. IBM is previewing the major evolution of watsonx.data, which can help organizations make their data AI-ready and provide an open, hybrid data foundation and enterprise-ready structured and unstructured data management. The result? Forty percent more accurate AI than conventional RAG, according to testing with IBM watsonx.data.1 Products and features expected to debut in June include: Watsonx.data integration and watsonx.data intelligence will be available as standalone products, and select capabilities will also be available through watsonx.data—maximizing client choice and modularity. To complement these products, IBM recently announced its intent to acquire DataStax, which excels at harnessing unstructured data for generative AI. With DataStax, clients can access additional vector search capabilities. Based on internal testing comparing the answer correctness of AI model outputs using watsonx.data Premium Edition retrieval layer to vector-only RAG on three common use cases with IBM proprietary datasets using the same set of selected open source commodity inferencing, judging and embedding models and additional variables. Results can vary. The context for this major evolution Enterprises are facing a major barrier to accurate and performant generative AI— especially agentic AI. But the barrier is not what most business leaders think. The problem is not inference costs or the elusive “perfect” model. The problem is data. Organizations need trusted, company-specific data for agentic AI to truly create value—the unstructured data inside emails, documents, presentations, and videos. It is estimated that in 2022, 90% of data generated by enterprises was unstructured, but IBM projects only 1% is accounted for in LLMs. Unstructured data can be immensely difficult to harness. It is highly distributed and dynamic, locked inside diverse formats, lacks neat labels, and often needs additional context to fully interpret. Conventional Retrieval-Augmented Generation (RAG) is ineffective at extracting its value and cannot properly combine unstructured and structured data. Meanwhile, a range of disconnected tools can make the data-for-AI stack complex and cumbersome. Enterprises juggle data warehouses, data lakes, and data governance and data integration tools. The data stack can feel as disorienting as the unstructured data it is supposed to manage. Many organizations are not addressing the root problem. They are focused solely on the generative AI application layer, rather than the essential data layer underneath. Until organizations fix their data foundation, AI agents and other generative AI initiatives will fail to deliver their full potential. Helping organizations to make their data AI-ready IBM’s new capabilities will enable organizations to ingest, govern and retrieve unstructured (and structured) data—and from there, scale accurate, performant generative AI. IBM Blog. E. C.

Leer más »

La IA agente tiene un problema de datos no estructurados: IBM presenta una solución

Esta semana, en Think, IBM está simplificando radicalmente la pila de datos para IA. IBM está mostrando una vista previa de la importante evolución de watsonx.data , que puede ayudar a las organizaciones a preparar sus datos para la IA y proporcionar una base de datos híbrida y abierta, así como una gestión de datos estructurados y no estructurados lista para la empresa. ¿El resultado? Una IA con un 40 % más de precisión que la RAG convencional, según pruebas realizadas con IBM watsonx.data. 1  Entre los productos y funciones que se espera que se lancen en junio se incluyen: La integración de Watsonx.data y la inteligencia de Watsonx.data estarán disponibles como productos independientes, y algunas capacidades también estarán disponibles a través de Watsonx.data, maximizando la elección y la modularidad del cliente. Para complementar estos productos, IBM anunció recientemente su intención de adquirir DataStax, empresa líder en el aprovechamiento de datos no estructurados para la IA generativa. Con DataStax, los clientes pueden acceder a funciones adicionales de búsqueda vectorial. Basado en pruebas internas que comparan la exactitud de las respuestas de los resultados del modelo de IA utilizando la capa de recuperación watsonx.data Premium Edition con RAG solo vectorial en tres casos de uso comunes con conjuntos de datos propietarios de IBM, utilizando el mismo conjunto de modelos de inferencia, evaluación e incrustación de código abierto seleccionados y variables adicionales. Los resultados pueden variar. El contexto de esta importante evolución Las empresas se enfrentan a un importante obstáculo para una IA generativa precisa y eficaz, especialmente la IA agencial. Pero este obstáculo no es lo que la mayoría de los líderes empresariales creen. El problema no son los costos de inferencia ni el difícil de alcanzar, sino los datos. Las organizaciones necesitan datos confiables y específicos de cada empresa para que la IA con agentes realmente genere valor: los datos no estructurados de correos electrónicos, documentos, presentaciones y videos. Se estima  que en 2022, el 90 % de los datos generados por las empresas eran no estructurados, pero IBM proyecta que solo el 1 % se contabiliza en los LLM. Los datos no estructurados pueden ser extremadamente difíciles de aprovechar. Están altamente distribuidos y son dinámicos, se encuentran en diversos formatos, carecen de etiquetas claras y, a menudo, requieren contexto adicional para su interpretación completa. La Recuperación-Generación Aumentada (RAG) convencional no es eficaz para extraer su valor y no puede combinar adecuadamente los datos estructurados y no estructurados. Mientras tanto, una variedad de herramientas desconectadas puede hacer que la pila de datos para IA sea compleja y engorrosa. Las empresas hacen malabarismos con almacenes de datos, lagos de datos y herramientas de gobernanza e integración de datos. La pila de datos puede resultar tan desorientadora como los datos no estructurados que se supone que debe gestionar. Muchas organizaciones no están abordando el problema de raíz. Se centran únicamente en la capa de aplicación de IA generativa, en lugar de la capa de datos esencial subyacente. Hasta que las organizaciones arreglen su infraestructura de datos, los agentes de IA y otras iniciativas de IA generativa no alcanzarán su máximo potencial. Ayudando a las organizaciones a preparar sus datos para la IA Las nuevas capacidades de IBM permitirán a las organizaciones ingerir, gobernar y recuperar datos no estructurados (y estructurados) y, a partir de allí, escalar una IA generativa precisa y de alto rendimiento. IBM Blog. E. C. Traducido al español

Leer más »

¿Qué es la generación aumentada por recuperación (RAG) y dónde debería realizarse?

Las empresas necesitan ayuda para que los LLM accedan a sus datos privados, y RAG se la proporciona. Llevamos años escuchando que «los datos son el nuevo petróleo». Se ha convertido prácticamente en un cliché. Pero incluso el petróleo necesita refinarse y transportarse antes de poder usarse como combustible. Entonces, ¿qué se necesita para convertir los datos en combustible que genere valor empresarial? Los nuevos modelos de lenguaje de gran tamaño (LLM) prometen redefinir por completo la forma en que las empresas extraen valor de sus datos. Estos LLM se entrenaron con conjuntos de datos mucho mayores que los que las organizaciones habrían podido gestionar anteriormente; por lo tanto, contienen una gama de información mucho más amplia que los modelos anteriores. Si bien el potencial de los LLM es innegable, aún queda la pequeña cuestión de cómo aplicarlos a casos prácticos empresariales reales, y esto suele ser más fácil de decir que de hacer. Los LLM se centran en comprender una base de conocimientos general para simular la forma en que se comunican los humanos. Dado que se centran en el conocimiento general, el conocimiento específico, como las perspectivas y el contexto necesarios para los casos de uso de la IA empresarial, a menudo se pasa por alto. Además, se entrenan con conjuntos de datos estáticos, lo que significa que solo son precisos hasta cierto punto. Los LLM no pueden acceder a datos en tiempo real, al menos no sin ayuda. Aquí es donde entra en juego la generación aumentada por recuperación (RAG). RAG es una técnica para optimizar la inferencia de IA y ayudar a los LLM a generar resultados más precisos. Los sistemas RAG sirven como puente que conecta dos tipos de datos diferentes para optimizar el valor de ambos: La IA empresarial se basa en RAG Como su nombre indica, un sistema RAG amplía los modelos recuperando la información relevante necesaria para generar una respuesta precisa a una solicitud. En lugar de reentrenar un modelo, RAG ayuda a orientarlo hacia datos importantes que no se incluyeron en el conjunto de datos de entrenamiento original, ya sea porque son privados o porque aún no existían. Los sistemas RAG pueden usar API o consultas de datos en vivo para obtener información en tiempo real (o casi en tiempo real) relevante para una solicitud específica. En esencia, cada vez que un usuario final formula una pregunta al modelo, RAG proporciona las pistas y los datos de apoyo que el modelo necesita para obtener una respuesta precisa. RAG puede desempeñar un papel clave en la estrategia de IA privada de una empresa , ya que permite la inferencia segura de conjuntos de datos propietarios que se ejecutan en computación habilitada para GPU bajo el control de la empresa. Esto aumenta la precisión de la información que proporcionan los LLM, sin poner en riesgo la exposición no autorizada de datos internos confidenciales. RAG es un ejemplo de cómo las empresas pueden personalizar y desarrollar los modelos preentrenados que adquieren de los mercados de modelos de IA . Otro método es el ajuste fino, que consiste básicamente en realizar un entrenamiento adicional de los modelos utilizando datos privados. Si bien el ajuste fino es ciertamente útil, también puede ser complejo y consumir muchos recursos, por lo que podría no ser práctico en todos los casos. Además, si los datos están sujetos a una política de retención, integrarlos en un LLM mediante el ajuste fino podría ser problemático. Las empresas también pueden utilizar flujos de trabajo de IA con agentes que extraen datos en tiempo real de diversas fuentes, lo que ayuda a los LLM a tomar decisiones informadas y ejecutar acciones automáticamente. La IA con agentes sin duda representará un gran avance en el desarrollo de la IA empresarial, pero existen cuestiones que deben abordarse primero. Por ejemplo, los líderes empresariales deben garantizar que los agentes de IA que operan sin supervisión humana puedan cumplir con los requisitos de privacidad y soberanía de los datos. Además, la IA con agentes requiere un flujo constante de datos precisos, oportunos y relevantes. Esto significa que la aparición de la IA con agentes en la empresa resaltará aún más la importancia de la RAG. RAG se convertirá inevitablemente en la base de la mayoría de las estrategias de IA empresarial, junto con la IA con agentes. Un flujo de datos compatible con RAG es uno de los requisitos más importantes que una empresa debe cumplir para el éxito de la IA, ya que los datos deben pasar por un sólido conjunto de procesos para garantizar su precisión, relevancia y formato adecuado antes de ser tokenizados e integrados en las bases de datos de RAG. ¿Cómo encaja RAG en el futuro de la IA empresarial? En un enfoque ideal de IA empresarial, un empleado podría hacer una pregunta directa sobre cualquier aspecto del negocio y obtener la mejor respuesta —extraída de todos los datos corporativos, estáticos o en streaming— a la que tiene derecho según los permisos otorgados y otros controles de gobernanza. Por ejemplo, un vendedor debería poder solicitar un resumen de su cuenta más importante y obtener rápidamente una visión precisa y completa de todas las oportunidades e información valiosa para ese cliente, capturadas globalmente en todos los sistemas y almacenes de datos posibles, pero no para otras cuentas que no gestiona. Para lograr este resultado, la infraestructura de RAG debería consultar toda la base de conocimientos de la organización en todas sus aplicaciones, incluyendo conjuntos de datos estáticos y dinámicos. Posteriormente, debería aplicar proactivamente controles de privacidad y soberanía de datos. Esto significa que debería filtrar en tiempo real cualquier información a la que un empleado en particular no tenga derecho, según su puesto y ubicación. La mayoría de las herramientas necesarias para hacer realidad este sueño ya existen, pero el éxito dependerá de una arquitectura flexible e interconectada, ubicada dentro de una plataforma de infraestructura que optimice la opcionalidad, el rendimiento, el coste y la proximidad a todos los puntos del ecosistema de TI empresarial. A medida que las empresas avanzan hacia ese ambicioso futuro de la IA,

Leer más »

El presidente y director ejecutivo de Qualcomm, Cristiano Amon, pronunciará un discurso inaugural en COMPUTEX 2025, revelando el corazón de la nueva era de las PC.

Durante 40 años, Qualcomm ha liderado la innovación a través de múltiples transiciones tecnológicas y en diferentes industrias, incluyendo la nueva era de la PC.  Mientras las experiencias de IA siguen marcando un cambio decisivo en la industria, el presidente y director ejecutivo de Qualcomm, Cristiano Amon, pronunciará un discurso inaugural en COMPUTEX 2025  en Taipéi, Taiwán. Acompañado por líderes del ecosistema global de PC, Amon destacará el notable impulso que se ha generado en tan solo un año desde que Qualcomm Technologies entró en la industria de las PC y presentó la revolucionaria plataforma Snapdragon® Serie X. Esta plataforma ha redefinido el panorama de las PC, y Amon mostrará cómo seguirá evolucionando en la era de la IA. Compartirá perspectivas sobre cómo la IA está transformando las experiencias con las PC para consumidores, empresas y sectores industriales. Amon demostrará cómo la IA en el dispositivo está preparada para mejorar significativamente la productividad, la creatividad y mucho más. Mira la conferencia magistral en vivo  en:  Se publicará  una repetición después de que finalice la transmisión en vivo. Qualcomm News. Traducido al español

Leer más »
Scroll al inicio