El Portal de las Tecnologías para la Innovación

Categoría: Big Data y Analítica Avanzada

Cisco y LTIMindtree amplían su alianza para ofrecer acceso seguro de próxima generación a nivel mundial

“Con el enfoque de confianza cero de Cisco y la inteligencia artificial integrada, fue una decisión sencilla reemplazar nuestra solución SSE de larga data por Cisco Secure Access”, afirmó Nachiket Deshpande, director de operaciones y director a tiempo completo de LTIMindtree . Resumen de noticias: CISCO LIVE, Melbourne, 13 de noviembre de 2024 — Cisco (NASDAQ: CSCO), el líder en redes y seguridad empresariales, anunció que LTIMindtree ahora aprovecha Cisco Secure Access como su solución de borde de servicio de seguridad (SSE) para permitir experiencias de trabajo híbridas seguras para sus empleados y clientes en todo el mundo. “Con el enfoque de confianza cero de Cisco y la inteligencia artificial integrada, fue una decisión sencilla reemplazar nuestra solución SSE de larga data por Cisco Secure Access”, afirmó Nachiket Deshpande, director de operaciones y director a tiempo completo de LTIMindtree . “Pudimos implementar rápidamente la solución, que ahora protege a nuestra fuerza laboral híbrida al tiempo que ofrece una mejor experiencia de usuario y una gestión de TI simplificada”. Cisco y LTIMindtree también han ampliado su alianza para ofrecer soluciones integradas de Secure Access Service Edge (SASE) basadas en la tecnología de Cisco a la base de clientes global de LTIMindtree. La experiencia de LTIMindtree en la adaptación de soluciones a los requisitos verticales específicos es el complemento perfecto para la tecnología de Cisco, que incluye Cisco Secure Access y SD-WAN, y ofrece experiencias conectadas seguras y sin inconvenientes tanto para trabajadores remotos como presenciales. “Los grandes lugares de trabajo requieren una gran seguridad. Con el aumento de las amenazas impulsadas por la IA, estamos combatiendo a los atacantes sofisticados en un panorama más amplio. Nuestros clientes necesitan que su seguridad funcione en segundo plano, a escala de máquina, para que la experiencia sea fluida y segura para los trabajadores híbridos”, afirmó Jeetu Patel, vicepresidente ejecutivo y director de productos de Cisco . “La rápida implementación de Secure Access por parte de LTIMindtree es un gran testimonio de la estrategia y la diferenciación de la plataforma de Cisco. Junto con nuestros socios, estamos cambiando lo que significa la protección del usuario para un lugar de trabajo moderno”. Con Cisco Secure Access, las decisiones sobre cómo los usuarios se conectan a las aplicaciones se gestionan en segundo plano a través de un agente unificado, de modo que los usuarios obtienen lo que quieren más rápidamente. Con conexiones de baja latencia y autenticación transparente basada en identidad, los usuarios están más seguros y tienen menos problemas. Para las organizaciones de TI, Cisco Secure Access proporciona una vía sencilla para el acceso a la red de confianza cero (ZTNA), al mismo tiempo que simplifica las operaciones con una consola unificada y orientación de IA. Secure Access es parte de Cisco Security Cloud, su plataforma de seguridad unificada, impulsada por IA y multidominio. Cisco News. Traducido al español

Leer más »

La nueva memoria ultrarrápida potencia los chips para centros de datos de Intel

Cómo Intel y sus socios de la industria encontraron una forma inteligente de duplicar el ancho de banda de memoria de los módulos DRAM estándar, dando rienda suelta a los chips Xeon de gama alta con una solución plug-and-play. Si bien el principal foco de atención de los productos de Intel son los procesadores, o cerebros, que hacen que las computadoras funcionen, la memoria del sistema (es decir, la DRAM) es un componente fundamental para el rendimiento. Esto es especialmente cierto en los servidores, donde la multiplicación de los núcleos de procesamiento ha superado el aumento del ancho de banda de la memoria (en otras palabras, el ancho de banda de memoria disponible por núcleo ha disminuido). En trabajos informáticos pesados, como el modelado meteorológico, la dinámica de fluidos computacional y ciertos tipos de IA, este desajuste podría crear un cuello de botella… hasta ahora. Después de varios años de desarrollo con socios de la industria, los ingenieros de Intel han encontrado una manera de abrir ese cuello de botella, creando una solución novedosa que ha creado la memoria de sistema más rápida de la historia y que está destinada a convertirse en  un nuevo estándar abierto de la industria . Los procesadores para centros de datos Intel® Xeon® 6 recientemente presentados son los primeros en beneficiarse de esta nueva memoria, llamada MRDIMM, para lograr un mayor rendimiento, de la manera más plug-and-play imaginable. Bhanu Jaiswal, gerente de productos Xeon en el grupo Data Center and AI (DCAI) de Intel, explica que “un porcentaje significativo de cargas de trabajo informáticas de alto rendimiento están limitadas por el ancho de banda de la memoria”, el tipo que más se beneficiará con los MRDIMM. Parece demasiado bueno para ser verdad: aquí está la historia detrás del módulo de memoria en línea dual de rango multiplexado DDR5, o MRDIMM para una narración eficiente. Llevando el paralelismo a la memoria del sistema, con amigos Resulta que los módulos de memoria más comunes que se utilizan en los centros de datos, conocidos como RDIMM, sí tienen recursos paralelos integrados, como los procesadores modernos, pero no se utilizan de esa manera. “La mayoría de las DIMM tienen dos niveles de rendimiento y capacidad”, afirma George Vergis, ingeniero principal sénior en búsqueda de rutas de memoria en DCAI. “Es el punto ideal”. Se puede pensar en los rangos como bancos: un conjunto de chips de memoria en un módulo pertenecería a uno y el resto al otro rango. Con las RDIMM, se puede almacenar y acceder a los datos en varios rangos de forma independiente, pero no simultánea. Ante esta situación, recuerda Vergis, “pensamos: ‘Un momento. Tenemos recursos paralelos que no se utilizan. ¿Por qué no podemos juntarlos?’”. La idea que perseguía Vergis era colocar un pequeño chip de interfaz –un multiplexor o “mux”– en el módulo DRAM. Esto permite que los datos fluyan a través de ambos niveles de memoria en la misma unidad de tiempo. El buffer mux consolida la carga eléctrica de cada MRDIMM, lo que permite que la interfaz funcione a una velocidad mayor en comparación con las RDIMM. Y ahora que se puede acceder a ambos rangos de memoria en paralelo, su ancho de banda se ha duplicado. El resultado es la memoria de sistema más rápida jamás creada, un salto que normalmente llevaría varias generaciones de tecnologías de memoria para lograrse (en este caso, el ancho de banda máximo aumenta casi un 40%, de 6.400 megatransferencias por segundo (MT/s) a 8.800 MT/s). El mismo módulo de memoria estándar, pero más rápido En este punto, es posible que usted se pregunte: “¿Está Intel volviendo al negocio de la memoria?” No. Aunque Intel comenzó como una empresa de memoria e inventó tecnologías como EPROM y DRAM, la empresa ha abandonado varios de sus negocios de productos de memoria a lo largo de su historia (algunos de ellos de forma bastante famosa). Pero Intel nunca detuvo sus esfuerzos para que los distintos componentes informáticos sean interoperables y tengan un mayor rendimiento. Vergis representa a Intel en la junta directiva de JEDEC, que establece estándares abiertos para la industria de la microelectrónica, en particular para la memoria.  Vergis ganó un premio JEDEC en 2018  por su trabajo en el estándar DDR5, y ahora mismo está dedicando tiempo al DDR6. (JEDEC también  honró este año al CEO de Intel, Pat Gelsinger,  por su trayectoria como «un firme defensor de los estándares abiertos, como lo demuestra el liderazgo histórico de Intel en el desarrollo de estándares»). Vergis y sus compañeros comenzaron este trabajo en 2018 y probaron el concepto con prototipos en 2021. Intel se asoció con el ecosistema de memoria para construir  los primeros componentes y donó las especificaciones a JEDEC como un nuevo estándar abierto a fines de 2022. Lo que destaca del MRDIMM es su facilidad de uso. Utiliza el mismo conector y factor de forma que un RDIMM normal (incluso los pequeños chips multiplexores caben en los espacios que antes estaban vacíos del módulo), por lo que no requiere cambios en la placa base. Las MRDIMM también incorporan las mismas funciones de corrección de errores y confiabilidad, disponibilidad y capacidad de servicio (RAS) que las RDIMM. La integridad de los datos se mantiene sin importar cómo se multiplexen las solicitudes separadas en el búfer de datos, explica Vergis. Todo esto significa que los clientes de los centros de datos pueden elegir MRDIMM cuando piden un nuevo servidor o, más adelante, pueden sacar ese servidor del rack y cambiar los RDIMM por nuevos MRDIMM. No es necesario cambiar ni una sola línea de código para disfrutar del nuevo rendimiento. Xeon 6 + MRDIMM = 🚀🚀 Lo que se necesita es una CPU que pueda trabajar con MRDIMM, y el primero disponible es el procesador Intel Xeon 6 con núcleos Performance, cuyo nombre en código es Granite Rapids, que llegó al mercado este año. Pruebas independientes recientes  compararon  dos sistemas Xeon 6 idénticos, uno con MRDIMM y el otro con RDIMM. El sistema con MRDIMM completó las tareas hasta un 33 % más rápido.

Leer más »

UFC nombra a IBM como su primer socio oficial de inteligencia artificial

IBM y UFC desarrollarán UFC Insights Engine, creado con IBM Watsonx, para ofrecer un análisis mejorado de las peleas en todas las plataformas de visualización ARMONK, NY y LAS VEGAS , 14 de noviembre de 2024 / PRNewswire / — IBM (NYSE: IBM ) y UFC ®️ , la principal organización de artes marciales mixtas del mundo y parte de TKO Group Holdings (NYSE: TKO) , anunciaron hoy una nueva asociación innovadora que combinará el poder de la plataforma de datos e inteligencia artificial de IBM, watsonx, con el vasto alcance global de las plataformas de contenido de UFC para mejorar la experiencia de visualización de millones de fanáticos de UFC en todo el mundo. Con el nuevo acuerdo, IBM se convertirá en el socio oficial global de inteligencia artificial de UFC , lo que marca la primera vez que UFC abre esta categoría de marketing a un socio de marca. El núcleo de la asociación será el motor de información de UFC Insights Engine, desarrollado con IBM WatsonX.  Insights Engine aprovechará la experiencia de IBM en tecnologías de datos e inteligencia artificial (incluida su familia de modelos de lenguaje de gran tamaño Granite  ) y las fuentes de datos enriquecidas de UFC para brindar a la audiencia global de UFC información más oportuna y detallada. Esto incluye información exclusiva y análisis avanzado de combates en vivo, tendencias de los luchadores, proyecciones de posibles resultados de los combates y métodos de victoria, todo lo cual se diseñará para actualizarse en tiempo real en la pantalla a medida que se generen más datos en vivo. «Esta alianza con IBM es uno de los hitos más importantes para la UFC y un punto de inflexión en la forma en que los aficionados experimentarán nuestro deporte», afirmó Grant Norris-Jones , director de alianzas globales de TKO. «IBM es una marca icónica de primer nivel y de alcance mundial con décadas de experiencia en marketing deportivo. Juntos, somos pioneros en un producto que revolucionará el análisis y la información en los deportes en directo. Esta alianza supone un triunfo decisivo, no solo para la UFC e IBM, sino también para los aficionados de todo el mundo, que experimentarán nuestro deporte de una forma totalmente nueva». Como su primer socio global oficial de inteligencia artificial, IBM trabajará con UFC para acelerar y escalar las capacidades existentes, impulsando la participación de los fanáticos con experiencias de contenido únicas y un acceso sin precedentes a la información de las peleas de UFC. Se espera que Insights Engine, producido en colaboración por IBM y el equipo de Investigación y Desarrollo de UFC, debute a principios de 2025. Se espera que los conocimientos, las estadísticas y los gráficos de marca, integrados en puntos de contacto clave en las plataformas de consumo de UFC, incluida la programación previa al evento, las transmisiones de UFC Pay-Per-View, los canales de redes sociales de UFC, los paneles de video en el lugar y más, lleguen a cientos de millones de fanáticos de UFC en 170 países que reciben las transmisiones de UFC y siguen los canales de redes sociales de UFC. «Las soluciones de datos e inteligencia artificial como UFC Insights Engine, desarrolladas con IBM Watsonx, pueden ofrecer a los fanáticos actuales formas completamente nuevas de conectarse con sus atletas y deportes favoritos, al mismo tiempo que generan entusiasmo entre las nuevas generaciones de fanáticos de las MMA», afirmó Jonathan Adashek , vicepresidente sénior de marketing y comunicaciones de IBM . «Aprovechar Watsonx y nuestros modelos Granite también le permite a UFC mejorar sus operaciones digitales y aprovechar el poder de su extensa biblioteca de datos de partidos, todo en beneficio de los fanáticos actuales y futuros». «IBM Watsonx es sinónimo de IA y ha liderado el camino en este ámbito desde el principio», afirmó Alon Cohen , vicepresidente sénior de investigación y desarrollo de UFC . «UFC ha estado trabajando en el concepto de Insights Engine durante varios años y ahora finalmente tenemos al socio adecuado en IBM con la profundidad de la experiencia en IA para hacerlo realidad. Esperamos poder presentarlo a nuestros fanáticos en los próximos meses». Acerca de UFC ®UFC ® es la principal organización de artes marciales mixtas (MMA) del mundo, con más de 700 millones de fanáticos y aproximadamente 290 millones de seguidores en las redes sociales. La organización produce más de 40 eventos en vivo al año en algunos de los estadios más prestigiosos del mundo y transmite a más de 975 millones de hogares en más de 170 países. La lista de atletas de UFC incluye a los mejores atletas de MMA del mundo que representan a más de 80 países. Las ofertas digitales de la organización incluyen UFC FIGHT PASS ® , uno de los principales servicios de transmisión en vivo del mundo para deportes de combate. UFC es parte de TKO Group Holdings (NYSE: TKO) y tiene su sede en Las Vegas, Nevada . Para obtener más información, visite UFC.com y siga a UFC en Facebook.com/UFC y @UFC en X, Snapchat, Instagram y TikTok: @UFC. IBM News. Traducido al español

Leer más »

Revolucionando el acceso a la IA: cómo Nscale y los líderes tecnológicos globales están construyendo el futuro de la IA escalable

En colaboración con Lenovo, Nokia y AMD, el hiperescalador Nscale ofrece desarrollo e implementación de IA llave en mano a empresas de todo el mundo. 14 de noviembre de 2024 Amedida que la IA sigue en auge, la tecnología en rápida evolución está alterando aspectos de todas las industrias. La IA generativa se extiende mucho más allá de la simple generación de contenido con aplicaciones en diversos campos como servicios al cliente, atención médica, detección de fraudes y seguridad, y muchos más. Pero, a medida que las capacidades de la tecnología de IA continúan creciendo, también lo hacen los requisitos de infraestructura necesarios para implementarla. Ahí es donde entra en juego Nscale. A través de su plataforma en la nube, centros de datos ubicados estratégicamente y potentes clústeres de nodos de GPU, el hiperescalador ya ofrece desarrollo e implementación de IA llave en mano a empresas de todo el mundo. Con las contribuciones de los socios Lenovo, Nokia y AMD, el futuro de la IA parece más accesible que nunca.  IA a hiperescala Nscale, el hiperescalador de primera línea, es una de las empresas que definen el sector y ofrece GPU como servicio a través de su infraestructura respetuosa con el medio ambiente. Las empresas de sectores como las finanzas, la atención sanitaria, el software y otros están ansiosas por aprovechar esta infraestructura centrada en la IA para aumentar su ventaja competitiva en el mercado. Por eso recurren a la infraestructura de computación en la nube de Nscale para obtener acceso a miles de GPU adaptadas a sus requisitos exactos. A través de Nscale, el entrenamiento, el ajuste, la inferencia y el desarrollo de la IA son posibles, no solo a un menor costo, sino también con un mayor nivel de eficiencia y escalabilidad.  “Como hiperescalador”, explica el director de tecnología de Nscale, David Power, “Nscale proporciona cantidades masivas de computación en la nube y servicios a empresas de todo el mundo, ayudándolas a ser más eficientes, innovadoras y ágiles a medida que sus negocios crecen”.  No es una tarea sencilla. Teniendo en cuenta la escala a la que operan Nscale y su infraestructura de IA, necesitan apoyarse en la tecnología más avanzada y confiable disponible. Por eso, los colaboradores de Nscale son clave para su éxito.  “Los datos están en pleno auge”, afirma Power, “y nuestros clientes necesitan arquitecturas informáticas que puedan seguir el ritmo, por lo que nos propusimos reunir a los mejores socios para construir una arquitectura de IA para el futuro. Nuestros servicios en la nube optimizados para IA necesitan tres ingredientes principales: hardware de vanguardia con aceleradores de IA de última generación, redes confiables de alta velocidad y una capa de orquestación de IA optimizada para reunir todo en una interfaz simple e intuitiva”.   A través de sus alianzas estratégicas con Lenovo, AMD y Nokia, Nscale puede ofrecer todo eso y más.  Infraestructura construida a medida El corazón de las operaciones de Nscale son sus centros de datos en Noruega, que albergan miles de GPU dentro de su red de servidores Lenovo ThinkSystem. Lenovo diseñó estos clústeres de computación de alto rendimiento específicamente para sus socios de Nscale a través de los servicios y la consultoría de ingeniería de Lenovo.  “Trabajamos en estrecha colaboración con nuestros socios para diseñar una solución personalizada que sea ideal para este proyecto”, afirma Per Overgaard, director de tecnología de EMEA y director ejecutivo del grupo de soluciones de infraestructura de Lenovo. “El Lenovo ThinkSystem SR685a V3 es un potente servidor de 8U que cuenta con dos procesadores de CPU AMD EPYC™ 9004 y ocho GPU AMD Instinct™ MI300x de alto rendimiento. Fue diseñado completamente en casa por Lenovo desde cero para proporcionar la mejor modularidad, rendimiento térmico y confiabilidad de su clase, y nuestros servicios administrados por Lenovo mantienen el barco funcionando sin problemas”.  La sostenibilidad en el corazón Las cargas de trabajo de IA consumen una cantidad increíble de energía, en gran medida debido a las enormes demandas computacionales que implica entrenar y ejecutar modelos de gran tamaño. Procesar conjuntos de datos enormes y ejecutar redes neuronales complejas, especialmente en aplicaciones en tiempo real, requiere recursos energéticos significativos, lo que hace que los centros de datos eficientes y el hardware especializado sean esenciales para satisfacer las necesidades energéticas de la IA de manera sustentable. El compromiso de Nscale con la sustentabilidad es un aspecto central de la empresa. “Nuestra ubicación estratégica en el Círculo Polar Ártico nos permite aprovechar el clima local para lograr un enfriamiento adiabático energéticamente eficiente”, explica Power, “complementado con nuestro uso de energía 100% renovable, lo que subraya nuestra dedicación a un futuro digital sostenible”.  La eficiencia energética y la refrigeración también fueron prioridades para Lenovo a la hora de diseñar sus servidores. “Los servidores Lenovo están diseñados teniendo en cuenta la eficiencia”, afirma Overgaard, “lo que reduce el consumo de energía de cada cálculo. Nuestros sistemas refrigerados por aire ofrecen un rendimiento de refrigeración por aire de primera línea y, en el futuro, Lenovo Neptune™ ha liderado el mundo en tecnología de refrigeración de centros de datos durante más de una década. El uso de agua tibia para enfriar los procesadores directamente ayuda a reducir el consumo y los costos de energía, al tiempo que mantiene el rendimiento. Esta solución ecológica minimiza la necesidad de aire acondicionado tradicional, lo que la hace ideal para cargas de trabajo que consumen mucha energía, como la IA”.  Estos esfuerzos de colaboración resaltan el enfoque de ambas empresas en la sostenibilidad y subrayan el compromiso de Nscale de ofrecer la plataforma de nube de IA más efectiva, así como la plataforma más eficiente y responsable posible.  Computación de alto rendimiento Otro aspecto clave de la plataforma en la nube de Nscale reside en los propios servidores. Los nodos de GPU a los que acceden los clientes están compuestos por GPU AMD Instinct, que aportan la mayor potencia posible a las cargas de trabajo de IA de alta intensidad, sin comprometer la eficiencia.  Con la experiencia de

Leer más »

IBM promueve la inteligencia artificial generativa y la automatización para proteger la seguridad en los entornos de AWS

Cada día, los satélites de la NASA orbitan la Tierra y capturan una gran cantidad de información que nos ayuda a comprender nuestro planeta.  Desde el monitoreo de incendios forestales hasta el seguimiento del cambio climático, este vasto conjunto de datos de las ciencias de la Tierra tiene el potencial de impulsar descubrimientos científicos, fundamentar decisiones políticas y respaldar industrias como la agricultura, la planificación urbana y la respuesta ante desastres. Pero navegar por los más de 100 petabytes de datos recopilados puede ser un desafío, por lo que la NASA ha colaborado con Microsoft para explorar el uso de un copiloto personalizado utilizando Azure OpenAI Service para desarrollar el Earth Copilot de la NASA, que podría transformar la forma en que las personas interactúan con los datos de la Tierra. Los datos geoespaciales son complejos y, a menudo, se requiere un cierto nivel de conocimientos técnicos para manejarlos. Como resultado, estos datos tienden a ser accesibles solo para un número limitado de investigadores y científicos. A medida que la NASA recopila más datos de nuevos satélites, estas complejidades no hacen más que crecer y pueden limitar aún más el grupo potencial de personas capaces de extraer información y desarrollar aplicaciones que podrían beneficiar a la sociedad. Reconociendo este desafío, la NASA se embarcó en una misión para hacer que sus datos sean más accesibles y fáciles de usar. A través de la Oficina del Director de Datos Científicos de la NASA, la agencia busca democratizar el acceso a los datos, derribando barreras técnicas para empoderar a una amplia gama de audiencias, desde científicos y educadores hasta formuladores de políticas y el público en general. El desafío: navegar por la complejidad de los datos El Programa de Sistemas de Datos de Ciencias de la Tierra de la NASA es responsable de recopilar una increíble variedad de datos de sensores e instrumentos espaciales. Estos datos abarcan desde las condiciones atmosféricas hasta los cambios en la cobertura terrestre, las temperaturas de los océanos y más. Sin embargo, la escala y complejidad de esta información pueden ser abrumadoras. Para muchos, encontrar y extraer información requiere navegar por interfaces técnicas, comprender los formatos de datos y dominar las complejidades del análisis geoespacial: habilidades especializadas que muy pocos usuarios no técnicos poseen. La IA podría agilizar este proceso, reduciendo el tiempo necesario para obtener información de los datos de la Tierra a una cuestión de segundos. Este problema no es sólo una cuestión de conveniencia; tiene implicaciones en el mundo real. Por ejemplo, los científicos que necesitan analizar datos históricos sobre huracanes para mejorar los modelos predictivos, o los responsables de las políticas que quieren estudiar los patrones de deforestación para implementar regulaciones ambientales, pueden encontrarse con que no pueden acceder fácilmente a los datos que necesitan. Esta inaccesibilidad afecta a una amplia gama de sectores, incluida la agricultura, la planificación urbana y la respuesta a desastres, donde la información oportuna obtenida de los datos obtenidos desde el espacio podría marcar una diferencia significativa. Además, a medida que se lanzan nuevos satélites con nuevos instrumentos y se recopilan más datos, la NASA se enfrenta constantemente al desafío de crear nuevas herramientas para gestionar y dar sentido a este creciente repositorio. La agencia exploró tecnologías emergentes que no solo podrían agilizar el descubrimiento de datos, sino también ampliar la accesibilidad, permitiendo que más personas interactúen con los datos y descubran nuevos conocimientos. La solución: acceso a datos impulsado por IA a través de Microsoft Azure Para abordar estos desafíos, NASA IMPACT trabajó con Microsoft para desarrollar un copiloto de clientes impulsado por IA, llamado Earth Copilot, que podría simplificar el acceso a los datos y alentar a una gama más amplia de usuarios a interactuar con sus datos de Ciencias de la Tierra. Juntos, construyeron el modelo de IA de prueba de concepto que aprovecha la plataforma en la nube Azure de Microsoft y las capacidades avanzadas de IA para transformar la forma en que los usuarios pueden buscar, descubrir y analizar los datos geoespaciales de la NASA. La clave del Earth Copilot de la NASA reside en la integración de tecnologías basadas en la nube como Azure OpenAI Service, que proporciona acceso a potentes modelos de IA y capacidades de procesamiento del lenguaje natural que permiten a los desarrolladores integrar IA inteligente y conversacional en sus aplicaciones. Este enfoque permite a la NASA integrar la IA en su plataforma de análisis de datos existente: VEDA. Estas tecnologías en conjunto facilitan a los usuarios la búsqueda, el descubrimiento y el análisis de datos de ciencias de la Tierra. Al combinar estas tecnologías, Earth Copilot permite a los usuarios interactuar con el repositorio de datos de la NASA a través de consultas en lenguaje sencillo. En lugar de eso, pueden simplemente hacer preguntas como «¿Cuál fue el impacto del huracán Ian en la isla de Sanibel?» o «¿Cómo afectó la pandemia de COVID-19 a la calidad del aire en los EE. UU.?». La IA recuperará los conjuntos de datos relevantes, lo que hará que el proceso sea sencillo e intuitivo. “El sólido conjunto de servicios de Azure, que incluye aprendizaje automático, análisis de datos e infraestructura escalable en la nube, impulsa este prototipo de IA”, afirmó Juan Carlos López, ex ingeniero de la NASA y actual especialista de Azure en Microsoft. “Hemos diseñado el sistema para que gestione consultas complejas y grandes conjuntos de datos de manera eficiente, lo que garantiza que los usuarios puedan encontrar rápidamente la información que necesitan sin verse abrumados por complejidades técnicas. Nuestro objetivo era crear una solución escalable y sin inconvenientes que pudiera evolucionar a medida que crecieran los datos, las herramientas y las aplicaciones de la NASA”. Democratizar los datos para la ciencia abierta La colaboración entre NASA IMPACT y Microsoft ha dado como resultado una solución que democratiza el acceso a los datos espaciales, lo que permite que una gama más amplia de usuarios interactúe con los datos científicos de la NASA. Esto tiene importantes beneficios para la comunidad científica, ya que

Leer más »

Unidos por el Net-Zero: el Círculo 360 de Lenovo para la acción climática colaborativa

Lenovo lleva la sostenibilidad al siguiente nivel con Lenovo 360 Circle, una ambiciosa iniciativa destinada a transformar los esfuerzos de sostenibilidad de su red global de socios. Lenovo experimentó ClimateChoice (CC) por primera vez como participante en representación de un cliente clave, reconociendo el poder de la plataforma para simplificar la recopilación de datos climáticos y la evaluación comparativa estratégica. Esta experiencia positiva inspiró a Lenovo a aprovechar el enfoque de CC para desarrollar un acelerador para la iniciativa Lenovo 360 Circle. En colaboración con ClimateChoice, Lenovo presentó el programa de evaluación comparativa comunitaria de estrategias y emisiones de GEI, que permite a los socios evaluar, mejorar y acelerar sus acciones climáticas. Al unir a los socios en torno a objetivos compartidos y brindar información basada en datos, Lenovo establece un nuevo estándar para el liderazgo climático colaborativo. El éxito de Lenovo con ClimateChoice le valió una calificación Oro , y toda la comunidad logró una calificación equivalente a Plata, un testimonio del impacto colectivo y la alineación hacia los objetivos de sostenibilidad. El desafío: abordar las emisiones de alcance 3 en un ecosistema complejo aguas abajo Lenovo reconoció que las emisiones de los proveedores de servicios posteriores (que se originan en el uso, el transporte y el tratamiento al final de la vida útil de los productos) constituyen una parte importante de su huella de carbono. El desafío era gestionar y reducir eficazmente estas enormes emisiones de alcance 3 en todo su ecosistema global de socios de servicios posteriores. La visibilidad limitada de las prácticas de los socios dificultaba el seguimiento del progreso y la alineación con los objetivos de sostenibilidad. Lenovo sabía que abordar estas emisiones requeriría más que esfuerzos internos; necesitaba involucrar a toda su red de socios. Para superar estos desafíos, Lenovo recurrió a la colaboración, la información basada en datos y la transparencia para crear un camino a seguir. Convertir los datos en acción climática: la solución colaborativa de Lenovo Para afrontar este desafío, Lenovo se asoció con ClimateChoice para crear una solución basada en datos e impulsada por la colaboración. A través del programa de evaluación comparativa comunitaria de estrategias y emisiones de GEI de Lenovo 360 Circle, Lenovo ayudó a sus socios a: Al colaborar estrechamente con sus socios, Lenovo pudo transformar los desafíos en oportunidades para la acción climática colectiva. El programa de evaluación comparativa ofreció a los socios una hoja de ruta clara para mejorar sus esfuerzos de sostenibilidad, mientras que la retroalimentación personalizada ayudó a garantizar que cada socio, independientemente de su progreso actual, pudiera tomar medidas significativas para reducir las emisiones. “Cuando un cliente nos invitó a sumarnos a una iniciativa de evaluación comparativa de GEI similar, me di cuenta de que podría ser una incorporación fundamental a nuestro programa acelerador Lenovo 360 Circle. Esto no solo nos ayudaría a evaluar nuestra posición junto con nuestros socios de distribución, sino que también los empoderaría en su propio camino hacia la sostenibilidad”, afirmó Virginie Le Barbu, directora global de sostenibilidad para mercados internacionales y líder de Lenovo 360 Circle. Impacto real: cómo la iniciativa de Lenovo está impulsando el cambio La iniciativa Lenovo 360 Circle ha generado resultados significativos, tanto para Lenovo como para sus socios: Cómo lograrlo: involucrar a las partes interesadas para lograr el éxito El éxito de la iniciativa 360 Circle de Lenovo se basa en la colaboración y la alineación de las partes interesadas clave de toda la organización y su red de socios. Cada parte interesada desempeñó un papel crucial en el cumplimiento de los objetivos de sostenibilidad y el fomento de la responsabilidad colectiva: “Nuestra experiencia con el proceso de evaluación comparativa de Lenovo 360 Circle fue sencilla. La plataforma Climate Choice nos permitió analizar nuestros informes climáticos públicos y proporcionar datos adicionales de forma segura. El análisis comparativo de la industria y los conocimientos que recibimos han sido útiles para nuestra estrategia climática. Incorporaremos los resultados y la etiqueta dorada de Climate Choice en nuestras comunicaciones de sostenibilidad, lo que refleja nuestro compromiso con la transparencia de los datos y los esfuerzos continuos en la acción climática”, afirmó Florence Fisher, gerente de estrategia de abastecimiento de sostenibilidad (grupo) Computacenter. Aprendizajes clave: perspectivas para el éxito futuro A lo largo de la iniciativa Lenovo 360 Circle, surgieron varias lecciones clave que destacan los factores clave para impulsar esfuerzos de sostenibilidad significativos en un ecosistema grande y diverso: Conclusión: allanando el camino hacia un futuro más sostenible La iniciativa Lenovo 360 Circle es un ejemplo inspirador de cómo las grandes empresas pueden colaborar eficazmente con sus socios para abordar desafíos complejos de sostenibilidad a través de la transparencia, la información basada en datos y un sistema de apoyo mutuamente beneficioso. Al centrarse en la colaboración y la acción colectiva, Lenovo está liderando el camino hacia un futuro más sostenible, lo que demuestra que la acción colectiva es clave para un verdadero progreso climático. Las lecciones aprendidas a través de esta iniciativa proporcionan una valiosa hoja de ruta para otras organizaciones que buscan crear un cambio impactante dentro de sus ecosistemas. Lenovo News. Traducido al español

Leer más »

Natura fortalece su estrategia digital en Ecuador de la mano de la tecnología de SAP

Ecuador se convierte en el primer mercado de América Latina donde Natura implementa RISE with SAP, fortaleciendo su estrategia en la nube. Así mismo Natura es hoy una de las empresas pioneras de la región en utilizar la IA generativa de SAP para facilitar la innovación y el desarrollo de nuevas estrategias de negocio.  La multinacional de cosméticos, productos de higiene y belleza Natura, que desde hace más de 20 años trabaja de la mano de SAP, dio recientemente un nuevo paso en su proceso de transformación con la reciente implementación en Ecuador de la plataforma integral en la nube: RISE with SAP. Esta es la primera fase de la implementación del proyecto S/4 HANA y RISE with SAP, que respalda el nuevo modelo de negocios aprovechando las sinergias de las marcas Natura y Avon, unificando y ampliando el portafolio de productos en el mercado. Este trabajo permitió el desarrollo de más de 140 procesos de extremo a extremo para la plantilla que será la base de la plataforma global, y con el que la compañía lanza hoy su primer país en vivo, con más de 50.000 consultoras NaturaAvon que maximizarán ingresos y ventas apalancadas por la tecnología de SAP. “Estamos orgullosos de que Ecuador sea el primer país en el que Natura está dando este gran paso que va a permitir que nuestro equipo tenga acceso a nuevas herramientas que impulsen la innovación, siendo un ejemplo del modelo para implementar en los demás países de América Latina”, destacó Juan Carlos Posada, gerente general de Natura Ecuador. Con RISE with SAP, Natura continuará impulsando la eficiencia y productividad de sus procesos, apalancándose en la automatización y la integración de datos de diferentes áreas del negocio que permitirán a la compañía optimizar su cadena de suministro, mejorar la experiencia de los clientes y tomar decisiones más estratégicas basadas en datos en tiempo real. “A través de RISE with SAP, Natura está transformando sus operaciones, optimizando procesos y unificando su portafolio de productos para ofrecer una experiencia más integrada y eficiente, aprovechando las sinergias de sus marcas en América Latina. Estamos honrados de seguir contando con la confianza de un aliado como Natura, que sigue demostrando que la tecnología es el camino para el éxito”, añade Marcela Perilla, Presidente de SAP para a región Norte de América Latina y el caribe. Natura continúa encaminada en innovar y afianzar el relacionamiento con sus clientes en diferentes mercados y hoy es una de las primeras empresas en América Latina en utilizar la IA generativa de SAP en aplicaciones de gestión de procesos y sigue fortaleciendo su estrategia en la nube para consolidar su estrategia regional. Mediante estas herramientas la compañía está facilitando la innovación y el desarrollo de nuevas estrategias de negocio. IA para impulsar nuevas estrategias y canales de negocio La transformación digital de Natura también incluye una apuesta por la inteligencia artificial como pilar para el desarrollo de nuevas estrategias de negocio. El viaje comenzó con una inmersión del equipo de Natura en el SAP Discovery Center para conocer las ventajas de la IA generativa y las posibilidades creadas por el empleo de grandes modelos de lenguaje (LLM), considerados el motor de la IA generativa. Como resultado, el equipo de Natura involucrado en esta misión pudo probar las herramientas y presentar internamente las ventajas que generará la aplicación de la tecnología. El siguiente paso incluyó dos fases: la primera consistió en la integración de los datos de la empresa en la plataforma SAP S/4HANA; mientras que el segundo fue la liberación del acceso de Natura al centro de IA generativa en la infraestructura SAP AI Core, que ofrece una variedad de modelos de lenguaje. La herramienta funciona como un facilitador de ideas, animando al equipo a crear e innovar. En medio de la implementación de SAP S/4HANA en diferentes países de América Latina, el equipo interno de la empresa aprovechó para probar el uso de IA. Para Michael Uhlig, gerente de tecnología y especialista en SAP Business Technology Platform de Natura, la experiencia fue enriquecedora ya que combinó teoría y práctica, demostrando las ventajas que la nueva tecnología puede ofrecer. “Conocer las capacidades de inteligencia artificial generativa de SAP y experimentar con su aplicación fueron los principales avances en este viaje”, afirma. El compromiso de Natura con la innovación se ve reflejado en acciones como la incorporación de vidrio reciclado en el 100% de la perfumería, así como el compromiso con la Amazonía a través del cuidado del medio ambiente y el desarrollo social y económico de la región, generando ingresos para más de 8 mil familias. SAP News. Traducido al español

Leer más »

Las primeras 24 horas en un hipotético corte global de internet

Francisco José García Ull, Universidad Europea En los últimos años, ha aumentado la preocupación por la actividad militar rusa en torno a los cables submarinos que forman la columna vertebral de internet, un entramado de 500 cables submarinos que se extienden a lo largo de cientos de miles de kilómetros, transmitiendo terabits de datos por segundo. Transportan el 97 % de las comunicaciones globales y son esenciales para transmitir datos gubernamentales, financieros y personales. La amenaza de un ataque coordinado podría generar interrupciones masivas en las comunicaciones globales, afectando tanto a civiles como a operaciones militares. Aunque esenciales, estos cables son sorprendentemente vulnerables. Cada año se reportan alrededor de 100 cortes, generalmente causados por accidentes con anclas o actividad pesquera. ¿Qué ocurriría si todo el internet global dependiente de estos cables se cortara repentinamente? Minuto 1: El desconcierto inicial Durante el primer minuto, la mayoría de las personas no nota la falta de internet. Las aplicaciones y servicios que no requieren conexión siguen funcionando. Solo quienes intentan enviar un mensaje o actualizar una página web se dan cuenta de que algo anda mal. Las operaciones básicas en empresas y hogares continúan, aunque algunos sistemas dependientes de la nube empiezan a mostrar fallos. Los servicios críticos que dependen de datos en tiempo real, como los centros de control de tráfico y hospitales, podrían ver un ligero retraso en sus sistemas internos. 5 minutos: La sospecha A los cinco minutos, el problema se hace más evidente. Las redes sociales no actualizan, los mensajes no se envían y quienes dependen de internet para trabajar comienzan a preocuparse. Los servicios de mensajería y las plataformas de videollamadas fallan, afectando la comunicación personal y profesional. Los sistemas críticos, como los hospitales y las fuerzas de seguridad, comienzan a activar sus planes de contingencia y a usar comunicaciones por radio y satélite para coordinarse. 30 minutos: Crece la preocupación Media hora después, el impacto es más palpable. Las líneas telefónicas se saturan mientras las personas intentan comunicarse con amigos y familiares. Las tarjetas de crédito y débito dejan de funcionar en tiendas y gasolineras, provocando largas filas y confusión. Los bancos se llenan de gente intentando retirar efectivo, anticipando problemas mayores. Los sistemas de control de tráfico y la logística de transporte pueden verse afectados, ralentizando la movilidad y la distribución de productos esenciales. 1 hora: Caos en los servicios críticos Después de una hora sin internet, el impacto en los servicios críticos se vuelve más evidente. Los sistemas hospitalarios sin acceso a historiales clínicos digitales deben recurrir a registros en papel, lo que ralentiza la atención y aumenta el riesgo de errores médicos. Las comunicaciones entre fuerzas de seguridad se limitan a sistemas de radio y teléfonos satelitales, que no pueden cubrir todas las necesidades de coordinación. En los bancos, la falta de acceso a redes digitales bloquea las transacciones y provoca un caos en las sucursales. 6 horas: Crisis económica y social La falta de internet durante seis horas paraliza la economía. Los mercados financieros no pueden operar, causando pánico entre los inversores. El comercio electrónico y las plataformas de pago en línea se detienen por completo. Las estaciones de servicio no pueden aceptar pagos electrónicos y dejan a muchos conductores sin combustible. Los sistemas de seguridad que dependen de internet, como cámaras de vigilancia y alarmas, dejan de funcionar y aumenta el riesgo de robos y vandalismo. 12 horas: Desesperación y vulnerabilidad A las doce horas, la situación es crítica. Las únicas fuentes de información son la radio y, en algunos casos, la televisión, pero incluso estos medios comienzan a fallar debido a la falta de infraestructura digital. Los servicios de emergencia se ven saturados y desbordados ante la imposibilidad de comunicarse eficientemente. Las fuerzas de seguridad intentan mantener el orden, pero la falta de coordinación y la creciente frustración de la población complican la situación. Las colas en los bancos se vuelven interminables y muchos se quedan sin efectivo, ya que los cajeros automáticos no funcionan. 24 horas: Caos total Después de 24 horas, el impacto en la sociedad es devastador. La vida moderna, dependiente de la tecnología digital, queda reducida a un caos total. Los hospitales, sin acceso a sistemas electrónicos, deben recurrir a procedimientos manuales. Los servicios de transporte y logística se paralizan, lo que afecta a la distribución de alimentos y medicinas. Las comunicaciones entre gobiernos y organismos internacionales se complican, dificultando la gestión de crisis. La falta de información precisa genera confusión y pánico en la población. Privilegiados con medios alternativos Aunque la mayoría de la población queda aislada, algunos privilegiados disponen de medios alternativos para mantenerse conectados. Corporaciones, gobiernos y servicios de emergencia recurren a comunicaciones satelitales y redes privadas, pero incluso estos sistemas tienen limitaciones y no pueden sustituir la conectividad global de los cables submarinos. Un papel crucial lo juegan los radioaficionados que, con más de 3 500 operativos en España, se convierten en un valioso recurso para coordinar ayuda y transmitir información en situaciones de emergencia (Unión de Radioaficionados Españoles). Demasiado frágiles En conclusión, la interrupción global de internet expondría la fragilidad de nuestra sociedad digital. La dependencia de la red para la mayoría de las actividades diarias, desde la economía hasta la seguridad, se haría evidente de manera alarmante. Sin internet, nuestra estructura social, económica y política quedaría desprotegida, lo que revela la necesidad de desarrollar infraestructuras de respaldo y estrategias de contingencia ante posibles escenarios de desconexión global. Este artículo refleja los resultados de un ejercicio visto en clase. Agradezco la ayuda e implicación de los estudiantes del Grado de Marketing de la Universidad Europea de Valencia. Francisco José García Ull, Profesor de análisis de datos, privacidad, ética e IA, Universidad Europea Este artículo fue publicado originalmente en The Conversation. Lea el original.

Leer más »

Cómo la startup de inteligencia artificial Confixis protege a los hospitales de los médicos corruptos 

Después de una carrera como investigador de incidentes en empresas de gestión de riesgos como Kroll y FTI Consulting, Aaron Narva (en la foto de arriba) trabajaba con un importante cliente bancario internacional en el fabricante de software de cumplimiento Exiger. Era responsable de supervisar el cumplimiento legal de ese cliente después de que hubiera sido noticia una década antes por un escándalo de lavado de dinero. “Cuando estaba en Exiger, adquirimos algunas empresas de software, incluida una herramienta de software de inteligencia artificial que ayudó a eliminar el riesgo de los registros públicos no estructurados. Y creamos una herramienta para ayudar a identificar el riesgo de corrupción y sanciones en las relaciones comerciales de empresas muy grandes”, dijo Narva a TechCrunch. Ese trabajo le dio la idea de crear Conflixis . Los hospitales y otras grandes prácticas médicas enfrentan riesgos de corrupción similares a los de los bancos. Las compañías farmacéuticas y los fabricantes de dispositivos se vuelven tan notoriamente amigos de los médicos que se les exige que revelen conflictos de interés: viajes, honorarios por consultoría, patrocinio de becas de investigación y similares. Numerosas investigaciones demuestran que quienes se muestran demasiado amistosos son más propensos a recetar esos medicamentos y dispositivos, independientemente de que produzcan mejores resultados para el paciente o no. El riesgo es tan grande que el gobierno tiene una base de datos llamada OpenPaymentsData.com , donde cualquiera puede ver las declaraciones de conflictos de intereses. Sin embargo, revelar estos conflictos no detiene el problema, que pone a los hospitales en riesgo legal. Una serie de leyes prohíben este tipo de comportamiento por parte de los médicos, desde la Ley Stark hasta la Ley Antisoborno (AKS) . Al mismo tiempo, los intereses comerciales deben trabajar con los médicos (los expertos médicos) para ayudarlos a investigar nuevos medicamentos y construir dispositivos. Por lo tanto, no todas las interacciones están prohibidas. Narva imaginó un software impulsado por IA como un servicio que identificaría para los hospitales y las grandes prácticas médicas las situaciones reales que ponen en riesgo al hospital (o al paciente).  “Un gran sistema de salud puede tener 200.000 relaciones entre sus médicos y proveedores”, dijo Narva. “¿Cuál de esas 200.000 relaciones le está afectando desde el punto de vista de alguno de los seis riesgos?”  Los riesgos van desde infringir las leyes hasta resultados médicos desfavorables. El gobierno federal también proporciona una base de datos que publica información sobre la calidad de la atención hospitalaria.  Narva llamó a un amigo que conocía desde octavo grado, Joseph Bergen, director de ingeniería de BuzzFeed en ese momento, para pedirle su opinión sobre la idea. A Bergen le gustó tanto que renunció a su trabajo y se convirtió en cofundador. Conflixis funciona incorporando datos de OpenPaymentsData.com, los datos de adquisiciones del hospital, datos de reclamaciones, registros de resultados de pacientes, formularios de conflicto de intereses y otras fuentes. Analiza todos los puntos de conflicto para identificar aquellos que un hospital debería investigar. “Bien, analizamos las 5.000 o 10.000 relaciones y aquí están las siete que realmente hay que analizar”, describe Narva como ejemplo. “Como si hubiéramos analizado el océano y aquí están las siete”. Conflixis va un paso más allá y también puede predecir el gasto de un hospital y sugerir formas de reducirlo. Por ejemplo, ¿el hospital está comprando un equipo más caro basándose en la recomendación de un médico que tiene una relación con ese proveedor, en lugar de uno más económico? “Podemos lograr que los hospitales reduzcan significativamente su riesgo regulatorio, aumentando su confianza y transparencia con sus pacientes, sí, pero también tomando mejores decisiones operativas sobre lo que compran”, afirma. Fundada en 2023, la empresa ya tiene un puñado de clientes, con menos de 5 millones de dólares en ingresos, dijo Narva. Acaba de anunciar una ronda de financiación inicial de 4,2 millones de dólares codirigida por Lerer Hippeau (el fondo fundado por el expresidente de BuzzFeed, Kenneth Lerer) y Origin Ventures, con la participación de Mark vc, Springtime Ventures y el inversor pre-semilla Cretiv Capital. Conflixis se suma a un campo abarrotado de empresas de software de cumplimiento de la industria de la salud como Compliatric y Symplr, aunque algunas están más centradas en la protección de los datos de los pacientes que en la corrupción y las adquisiciones. Narva afirma que lo que distingue a Conflixis es la forma en que ha combinado las carreras de investigación de sus empleados con los títulos de máster. Modificó modelos estándar para buscar patrones en los datos basándose en «nuestra experiencia en monitoreo de transacciones y corrupción en investigaciones de big data», afirma. TechCrunch. J. B. Traducido al español

Leer más »
Scroll al inicio