El Portal de las Tecnologías para la Innovación

Categoría: Big Data y Analítica Avanzada

Cómo Lenovo TruScale permite a la empresa de consultoría de TI MD6 ofrecer nuevos servicios

La infraestructura como servicio (IaaS) permitió a MD6 ofrecer la flexibilidad de la nube en un entorno controlado, alojado y administrado. 25 de noviembre de 2024 Para la empresa de servicios de TI MD6 , con sede en Estrasburgo , el alojamiento en la nube no solo ofrece una oportunidad para ganar nuevos negocios, sino también una forma de cambiar el funcionamiento de la organización. MD6 es un actor importante en su Francia natal y ofrece una amplia gama de ofertas a sus clientes, que incluyen integración de software, ciberseguridad y servicios de TI gestionados, así como servicios innovadores de IoT, como relojes de control conectados para trabajadores remotos, a través de su filial Idemoov . MD6 buscaba ampliar su oferta de alojamiento en la nube, alejándose de la inversión inicial más tradicional en infraestructura y su gestión, y avanzando hacia un modelo escalable como servicio para ayudar a optimizar y simplificar las operaciones de TI. Con el deseo de tener la capacidad de realizar cambios en su configuración sin estar sujeto a los términos establecidos por un hiperescalador, MD6 recurrió a Lenovo y a la flexibilidad de Lenovo TruScale Infrastructure as a Service (IaaS) en busca de ayuda. Con clientes atraídos por los bajos costos iniciales, MD6 vio la oportunidad de adaptar sus ofertas a una opción alternativa y más personalizable entregada por un proveedor en el que sus clientes confiaban. Roberto Gessa, presidente de MD6, afirmó: “La fortaleza competitiva de MD6 reside en nuestra capacidad de ofrecer servicios personalizados y con gran capacidad de respuesta a nuestros clientes, tanto en sus instalaciones como en nuestros propios centros de datos. Queríamos ofrecer la flexibilidad de la nube, pero en un entorno que pudiéramos alojar, controlar y gestionar”. Después de una investigación exhaustiva, MD6 descubrió que Lenovo TruScale IaaS ofrecía la flexibilidad y la escalabilidad para brindar el servicio receptivo que sus clientes necesitan, combinado con soporte local experto y disponible de inmediato. Un nuevo enfoque MD6 ya ofrecía a los clientes una amplia variedad de servicios, incluidas plataformas de IoT como la gestión de flotas a través de Idemoov. Un objeto conectado de Idemoov ayuda a gestionar todo, desde carretillas elevadoras hasta scooters, mientras que un reloj conectado permite a los trabajadores remotos registrarse en las instalaciones del cliente. Con una amplia base de clientes y una variedad de casos de uso dentro de la organización, MD6 sabía que podía ofrecer un servicio más localizado y personal, pero temía que construir su propio entorno de nube pudiera requerir una gran inversión inicial o dejarlo dependiente de un hiperescalador y expuesto a costos futuros desconocidos. La flexibilidad de Lenovo TruScale ofrecía una tercera opción más atractiva. “Conocemos al equipo local de Lenovo desde hace varios años y hemos compartido relaciones con clientes a través de nuestro trabajo como integradores de sistemas”, afirmó Gessa. “A partir de esos proyectos, sabemos que Lenovo puede cumplir con las necesidades urgentes de nuestros clientes o de nosotros”. La empresa actuó rápidamente: con la ayuda de los expertos de Lenovo, MD6 pudo poner en funcionamiento dos servidores Lenovo TruScale Hybrid Cloud con Nutanix en cinco semanas, implementando hardware de almacenamiento y servidor Lenovo en las instalaciones a través de un modelo de pago por uso . Dale Aultman, vicepresidente y director general de servicios de nube híbrida de Lenovo, afirma: “La flexibilidad de Lenovo TruScale IaaS garantiza que los clientes de MD6 disfruten de la confianza de una infraestructura local administrada combinada con la escalabilidad de los servicios en la nube. MD6 necesitaba implementar hardware y servicios con una mayor previsibilidad de los costos, y Lenovo TruScale lo ha logrado, junto con una solución optimizada y la flexibilidad para una expansión futura”. Gessa afirmó: “Lo importante para nosotros es mantener el control sobre el servicio que brindamos. Siempre seremos nosotros quienes ofrezcamos el servicio a nuestros clientes y buscamos ser lo más autónomos posible, ofreciendo la flexibilidad de la nube pero en un entorno que podamos alojar, controlar y administrar. Esto tranquiliza a nuestros clientes porque nos conocen”. Lenovo TruScale también está permitiendo a MD6 crear nuevas ofertas de servicios, como respaldo como servicio y ciberseguridad las 24 horas, los 7 días de la semana para los clientes, rápidamente y sin la necesidad de preocuparse por la cantidad de inversión de capital que se necesitaría y cuándo, comenzando de a poco y escalando rápidamente a medida que aumenta la demanda. Nuevo potencial de crecimiento Otra área con potencial de crecimiento impulsada por la flexibilidad de Lenovo TruScale son los servicios de IoT de Idemoov , que incluyen soluciones de gestión de flotas y de trabajadores remotos. Las soluciones de IoT de Idemoov pueden generar enormes volúmenes de datos, algunos de los cuales son confidenciales. El alojamiento de las aplicaciones y los datos en su propia nube privada local también significa que MD6 puede garantizar fácilmente el cumplimiento normativo. El cambio al nuevo entorno de Lenovo ha permitido a Idemoov desarrollar nuevos servicios a gran velocidad, lo que pone enormes oportunidades a su alcance.  Gessa afirmó: “Si se pone en marcha, sabemos que probablemente necesitaremos muchos recursos. ¿Qué tan rápido? ¿A qué ritmo? No podemos decirlo con exactitud hoy, pero una cosa es segura: si despega, el crecimiento será rápido. De ahí la importancia de tener un modelo que brinde apoyo, sea flexible y amigable. Con Lenovo TruScale, podemos responder al crecimiento de la demanda mediante el suministro rápido de nueva capacidad”. Una nueva forma de trabajar Lenovo TruScale ha permitido a MD6 cambiar su forma de trabajar, lo que le ha permitido aumentar la capacidad en línea con la demanda de los clientes y, al mismo tiempo, aumentar los ingresos. La implementación de la solución de infraestructura como servicio de Lenovo también ha liberado una cantidad considerable de tiempo para los empleados de MD6. Los administradores de MD6, que antes tenían que verificar varios componentes diferentes, ahora pueden trabajar de manera más eficiente y con mayor capacidad de respuesta a través de un enfoque de gestión integral de «panel único», que les brinda una descripción general fácil de

Leer más »

Avanzando en el trabajo en equipo con personas e IA

Dos nuevos artículos muestran cómo nuestros esfuerzos de trabajo en equipo externo y automatizado están avanzando para ayudar a ofrecer una IA segura y beneficiosa Interactuar con un sistema de IA es una forma esencial de aprender lo que puede hacer, tanto las capacidades que tiene como los riesgos que puede plantear. El “trabajo en equipo” implica utilizar personas o IA para explorar los riesgos potenciales de un nuevo sistema de manera estructurada.  OpenAI ha aplicado el método de trabajo en equipo durante varios años, incluso cuando contratamos a expertos externos .(se abre en una nueva ventana)para probar nuestro modelo de generación de imágenes DALL·E 2 a principios de 2022. Nuestros primeros esfuerzos de trabajo en equipo fueron principalmente «manuales» en el sentido de que dependíamos de personas para realizar las pruebas. Desde entonces, hemos seguido utilizando y perfeccionando nuestros métodos y, en julio pasado, nos unimos a otros laboratorios líderes en un compromiso de invertir más en el trabajo en equipo y avanzar en esta área de investigación.  Los métodos de trabajo en equipo incluyen enfoques manuales, automatizados y mixtos, y nosotros utilizamos los tres. Contratamos a expertos externos tanto en métodos manuales como automatizados para probar los posibles riesgos de los nuevos sistemas. Al mismo tiempo, somos optimistas de que podemos utilizar una IA más potente para escalar el descubrimiento de errores en los modelos, tanto para evaluarlos como para entrenarlos para que sean más seguros.    Hoy compartimos dos artículos 1 sobre el trabajo en equipo: un informe técnico que detalla cómo contratamos a miembros externos del equipo para probar nuestros modelos de vanguardia y un estudio de investigación que presenta un nuevo método para el trabajo en equipo automatizado. Esperamos que estos esfuerzos contribuyan al desarrollo de métodos de trabajo en equipo más sólidos y una IA más segura. Ejemplo de resultados del trabajo en equipo en rojo El trabajo en equipo rojo analiza un modelo o sistema de IA para identificar posibles problemas, ejemplos de esos problemas o ataques para provocar esos problemas. Si bien los humanos pueden ayudar a identificar una diversidad de ejemplos, problemas y ataques, el trabajo en equipo rojo automatizado puede complementar esto al ayudar a generar ideas y ejemplos y ataques a mayor escala. Los problemas, ejemplos y ataques mencionados anteriormente son ilustrativos y no necesariamente reflejan las políticas de uso o contenido de OpenAI. El valor del trabajo en equipo A medida que los sistemas de IA evolucionan a un ritmo rápido, es esencial comprender las experiencias de los usuarios y los riesgos potenciales de las capacidades aumentadas, incluidos el abuso, el uso indebido y factores del mundo real como los matices culturales. Si bien ningún proceso puede capturar todos estos elementos por sí solo, el trabajo en equipo (especialmente con el aporte de una variedad de expertos externos independientes) ofrece una forma proactiva de evaluar los riesgos y probar la seguridad de nuestros modelos de IA. Este enfoque ayuda a crear evaluaciones de seguridad y puntos de referencia actualizados que se pueden reutilizar y mejorar con el tiempo. Trabajo en equipo humano externo Los aspectos clave de nuestras campañas de equipos rojos externos incluyen definir el alcance de las pruebas, seleccionar a los miembros del equipo rojo, decidir a qué modelos accederán y determinar el formato de sus informes finales. En un nuevo informe técnico, el enfoque de OpenAI para el trabajo en equipo externo para modelos y sistemas de IA(se abre en una nueva ventana)Detallamos nuestro enfoque para diseñar campañas efectivas de red teaming 2 : 1. Elegir la composición del grupo de trabajo en equipo rojo en función de los objetivos y las áreas de prueba clave Los sistemas de IA diseñados para una variedad de casos de uso requieren pruebas exhaustivas en múltiples áreas, en las que participen personas con perspectivas diversas (por ejemplo, experiencia en campos como las ciencias naturales y la ciberseguridad, conocimiento político regional o idiomas hablados). El modelado de amenazas se lleva a cabo antes de los ejercicios de trabajo en equipo rojo para priorizar las áreas de prueba, teniendo en cuenta factores como las capacidades esperadas del modelo, los problemas observados previamente con los modelos y las posibles aplicaciones. Los equipos internos establecen prioridades de prueba iniciales en función de su conocimiento de las capacidades del modelo, mientras que los equipos rojos externos se incorporan más tarde para refinar o ampliar el enfoque. Estas prioridades luego guían la formación de los equipos rojos, asegurando que satisfagan las necesidades de prueba específicas del modelo. 2. Decidir las versiones del modelo o del sistema a las que los miembros del equipo rojo tienen acceso La versión del modelo disponible para los miembros del equipo rojo puede afectar los resultados del trabajo en equipo rojo y debe estar alineada con los objetivos de la campaña. Por ejemplo, probar un modelo en una etapa temprana del desarrollo sin mitigaciones de seguridad implementadas puede ayudar a evaluar nuevos riesgos relacionados con mayores capacidades, pero no necesariamente evaluaría las brechas en las mitigaciones planificadas. El enfoque ideal depende de las necesidades específicas del modelo, y los miembros del equipo rojo pueden probar múltiples versiones de un modelo y sistema durante el período de prueba. 3. Crear y proporcionar interfaces, instrucciones y orientación sobre documentación a los miembros del equipo rojo Las interacciones efectivas con los evaluadores externos durante las campañas de trabajo en equipo dependen de instrucciones claras, interfaces de prueba adecuadas y documentación práctica. Las instrucciones pueden incluir descripciones de los modelos y las medidas de seguridad existentes o planificadas, cómo usar la interfaz de prueba, áreas priorizadas para las pruebas y pautas para documentar los resultados. Las diferentes interfaces, o los medios a través de los cuales los evaluadores interactúan con un modelo de IA, podrían incluir una API o interfaces de productos de consumo como ChatGPT. Las interfaces utilizadas para el trabajo en equipo ayudan a facilitar las pruebas al permitir pruebas programáticas rápidas, recopilar comentarios sobre indicaciones o respuestas específicas o simular interacciones potenciales del usuario. Con la combinación correcta de interfaces

Leer más »

Yonsei implementa el primer IBM Quantum System One en la República de Corea

– El sistema cuántico, que ya está en línea y está impulsado por un procesador IBM Quantum Eagle de 127 qubits, respaldará el objetivo de la universidad de construir un ecosistema industrial y de investigación innovador como centro de tecnología cuántica. – Segunda universidad del mundo en instalar un IBM Quantum System One local y a escala de servicios públicos Hoy, la Universidad de Yonsei e IBM (NYSE: IBM ) implementaron el primer IBM Quantum System One en la República de Corea, que es solo el segundo sistema de este tipo ubicado en un campus universitario en el mundo. El IBM Quantum System One en el Centro de Computación Cuántica del Campus Internacional de Songdo de Yonsei tiene como objetivo brindar oportunidades para investigar y utilizar la computación cuántica para la universidad, así como para otras instituciones académicas, empresas y organizaciones en Corea que colaboran con Yonsei. “Con la instalación del primer IBM Quantum System One en la República de Corea, Yonsei ha sentado una base sólida para la investigación y la educación de primer nivel en computación cuántica y biología avanzada”, afirmó Dong-Sup Yoon, presidente de la Universidad de Yonsei. “Atraeremos activamente a investigadores cuánticos destacados, trabajaremos en estrecha colaboración con las principales instituciones de investigación cuántica del mundo para crear resultados de investigación innovadores y nos esforzaremos por lograr nuestro objetivo común de mejorar la calidad de vida humana”. El IBM Quantum System One de la Universidad de Yonsei ahora forma parte de la flota global de computadoras cuánticas de escala de servicios públicos de IBM disponibles a través de la nube y es el quinto, a nivel mundial, en sitios dedicados, incluidos sistemas en los Estados Unidos, Canadá, Alemania y Japón. Está impulsado por un procesador IBM Quantum Eagle de 127 qubits para ofrecer a la red de investigadores, estudiantes, organizaciones y socios de Yonsei acceso dedicado a una computadora cuántica de escala de servicios públicos. (Crédito: IBM) En 2023, IBM demostró la capacidad de IBM Eagle para producir cálculos precisos más allá de los métodos clásicos de simulación de fuerza bruta. Esto, conocido como utilidad cuántica, marcó el comienzo de una era en la que los sistemas cuánticos pueden servir como herramientas científicas para explorar problemas en química, física, materiales y otros campos en la búsqueda de ventajas cuánticas: cuando la computación cuántica ofrece un beneficio práctico significativo más allá de la fuerza bruta o los métodos de computación clásicos aproximados, calculando soluciones de una manera que es más barata, más rápida o más precisa que todas las alternativas clásicas conocidas. “Nos complace haber colaborado con la Universidad de Yonsei para traer una computadora cuántica a escala de servicios públicos a la República de Corea. Esperamos permitir que más instituciones de investigación, organizaciones, empresas y talentos de todo el país amplíen los límites de los algoritmos cuánticos que pueden explorar el valor científico y comercial. Además, el IBM Quantum System One en Corea servirá como una base importante para el desarrollo de futuros talentos cuánticos y la expansión del ecosistema cuántico de la región”, afirmó Jay Gambetta, vicepresidente de IBM Quantum. En marzo de 2025, Yonsei organizará una ceremonia de apertura del Complejo de Computación Cuántica en las instalaciones de Investigación Cuántica del Campus Internacional de Songdo, que alberga el IBM Quantum System One, en celebración del 140.° aniversario de la universidad y el Año Internacional de la Ciencia y la Tecnología Cuánticas de la UNESCO. El Campus Internacional de Songdo es un centro neurálgico del Complejo Industrial Estratégico Nacional Avanzado en el sector de la biotecnología. Yonsei está trabajando con la Ciudad Metropolitana de Incheon para construir el primer clúster industrial de alta tecnología de convergencia cuántica-biológica del mundo. Como parte del desarrollo de este clúster, en julio de 2024, Yonsei e IBM firmaron un memorando de entendimiento (MOU) para colaborar en una Iniciativa Bio-Cuántica como parte de los esfuerzos de las dos organizaciones para desarrollar el ecosistema cuántico del país. Yonsei también ha creado un Equipo de Proyecto de Computación Cuántica, que incluye el Centro de Operaciones del Ecosistema Cuántico, el Centro de Soporte Tecnológico de Computación Cuántica y el Centro de Computación Cuántica para promover la investigación cuántica y el desarrollo del ecosistema. El equipo planea mejorar las instalaciones de investigación de Yonsei para atraer socios globales, con el apoyo de recursos de IBM para el desarrollo de algoritmos cuánticos y asesoramiento sobre proyectos técnicos, y el desarrollo de educación y materiales para fomentar el talento cuántico, incluidos talleres, seminarios y conferencias para alentar el intercambio de conocimientos y contribuir al desarrollo de la tecnología cuántica. “Como se espera que el campo de la computación cuántica crezca en más de 5.500 millones de dólares entre 2023 y 2030, nuestro objetivo es promover la ‘alfabetización cuántica’ en todas las industrias y proporcionar una base para una cooperación beneficiosa para todos mediante la construcción de un ecosistema para la utilización conjunta de la primera computadora cuántica en Corea”, dijo Jaeho Cheong, jefe del equipo del proyecto de computación cuántica de Yonsei. “Invitamos a varias organizaciones como agencias gubernamentales, municipios, institutos de investigación, universidades, empresas, hospitales, etc. que se estén preparando para utilizar la computación cuántica en el futuro, y a las organizaciones interesadas en la cooperación en materia de investigación, a que se pongan en contacto con nosotros en cualquier momento”. Acerca de la Universidad Yonsei La Universidad Yonsei, fundada en 1885, es una de las principales universidades privadas de Corea, reconocida por su excelencia en educación e investigación. Ubicada en el corazón de Seúl, su campus combina instalaciones modernas con una rica tradición, atrayendo a estudiantes y profesores destacados de todo el mundo. La universidad se destaca en varias disciplinas académicas y está comprometida con la construcción de una sólida red académica internacional. Con un enfoque en la investigación innovadora, Yonsei contribuye al desarrollo social y ofrece diversos programas destinados a formar líderes globales. Guiada por los principios de «Verdad, Libertad y Servicio», Yonsei es una institución global destacada en educación superior. Visite  yonsei.ac.kr  para obtener más información. IBM News. Traducido

Leer más »

Ignite 2024: Por qué casi el 70 % de las empresas Fortune 500 ahora usan Microsoft 365 Copilot

Dos cosas pueden ser ciertas al mismo tiempo. En el caso de la IA, es absolutamente cierto que la industria se está moviendo increíblemente rápido y evolucionando rápidamente. También es cierto que cientos de miles de clientes están utilizando la tecnología de IA de Microsoft en la actualidad y, al realizar apuestas tempranas en la plataforma, están viendo grandes beneficios ahora y están preparando su capacidad para beneficiarse de la próxima gran ola de mejoras de la IA. Microsoft Ignite es nuestro evento anual que destaca las actualizaciones y creaciones que permiten a los clientes, socios y desarrolladores aprovechar todo el potencial de la tecnología de Microsoft y cambiar la forma en que abordamos el trabajo. Este año, anunciamos alrededor de 80 nuevos productos y características, incluidas nuevas capacidades en Microsoft 365 Copilot, incorporaciones a la pila Copilot + AI y nuevas ofertas de dispositivos Copilot+. Cada una de estas innovaciones se sustenta en nuestro compromiso con la seguridad. Desde que lanzamos nuestra Secure Future Initiative (SFI) hace un año, hemos hecho de la seguridad la tarea número uno de todos los empleados de Microsoft, dedicamos 34.000 ingenieros a este objetivo y, en Ignite, anunciaremos innovaciones que se basan en nuestros principios SFI: seguridad por diseño, seguridad por defecto y operaciones seguras. Más de 200.000 personas se han registrado para unirse a nosotros en el Ignite de este año, con más de 14.000 asistentes a nuestros eventos presenciales en Chicago. Los asistentes pueden elegir entre más de 800 sesiones, demostraciones y laboratorios dirigidos por expertos de Microsoft y nuestros socios. La mayor parte del contenido de Ignite estará disponible a pedido para aquellos que no puedan asistir al evento en vivo. Impulso del copiloto Microsoft 365 Copilot es su asistente de inteligencia artificial para el trabajo y hemos visto que su popularidad va en aumento a medida que más organizaciones se pasan a Copilot y lo implementan con gran éxito. En total, casi el 70 % de las empresas de Fortune 500 ahora usan Microsoft 365 Copilot. Esto refleja una tendencia de la industria: un estudio reciente de IDC mostró que la IA generativa está en aumento, con una adopción del 75 % entre las empresas encuestadas en 2024. Además, por cada dólar invertido, las empresas obtienen un retorno de 3,70 dólares y los líderes dicen que obtienen un retorno de hasta 10 dólares, según el estudio. Las inversiones que Microsoft ha realizado en Copilot están dando dividendos a nuestros clientes. Recientemente, destacamos algunas de las más de 200 historias de clientes de transformación acelerada de la IA, en las que Copilot ayudó a muchos de ellos a impulsar la innovación y transformar su organización para mejor. Algunos ejemplos incluyen: Aumente la productividad con Microsoft 365 Copilot Microsoft continúa potenciando la productividad con nuevas capacidades en Microsoft 365 Copilot diseñadas para ayudar a simplificar la jornada laboral. Copilot Actions , ahora en vista previa privada, permite a cualquier persona automatizar las tareas cotidianas con indicaciones simples para completar espacios en blanco, ya sea obtener un resumen diario de las acciones de la reunión en Microsoft Teams, compilar informes semanales o recibir un correo electrónico al regresar de las vacaciones que resuma las reuniones, los chats y los correos electrónicos perdidos. Cualquiera puede configurar fácilmente Acciones directamente en su aplicación de Microsoft 365, lo que permite a los usuarios centrarse en trabajo de mayor impacto, ahorrar tiempo y aumentar la productividad. Los nuevos agentes de Microsoft 365 están diseñados para ayudar a escalar el impacto individual y transformar los procesos empresariales. En Ignite, presentaremos: Pila de copiloto + IA La pila Copilot permite a los usuarios crear productos más ambiciosos aprovechando la tecnología avanzada en cada capa de la pila. Para crear una experiencia unificada en la que los clientes puedan diseñar, personalizar y administrar aplicaciones y agentes de IA, presentamos Azure AI Foundry , que brinda a los clientes acceso a todos los servicios y herramientas de IA de Azure existentes, además de nuevas capacidades como: También seguimos respaldando nuestros compromisos de IA confiable con nuevas herramientas. Hoy anunciamos informes de IA y evaluaciones de riesgos y seguridad para imágenes para ayudar a las organizaciones a garantizar que las aplicaciones de IA sean seguras y cumplan con las normas. Los informes de IA ayudarán a las organizaciones a mejorar la observabilidad, la colaboración y la gobernanza de las aplicaciones de IA y los modelos perfeccionados, mientras que las evaluaciones de contenido de imágenes ayudarán a los clientes a evaluar la frecuencia y la gravedad del contenido dañino en los resultados generados por IA de sus aplicaciones. Dispositivos Copilot+ A medida que las organizaciones trasladan más cargas de trabajo a la nube para mejorar la seguridad y la flexibilidad, Microsoft está ampliando su solución Cloud PC al presentar el primero de una nueva clase de dispositivos diseñados específicamente para conectarse de forma segura a Windows 365 en segundos. Windows 365 Link es un dispositivo simple, seguro y diseñado específicamente para Windows 365. Actualmente se encuentra en versión preliminar y estará disponible para su compra a partir de abril de 2025 en mercados selectos con un precio minorista sugerido de $349, lo que permite a los usuarios trabajar de forma segura en un escritorio Windows familiar en la nube de Microsoft con experiencias receptivas y de alta fidelidad. Windows 365 Link es seguro por diseño. El dispositivo no tiene datos locales, aplicaciones locales ni usuarios sin administradores, por lo que los datos corporativos permanecen protegidos dentro de la nube de Microsoft. Otras nuevas capacidades para las PC Copilot+ para clientes comerciales incluyen el aprovechamiento del poder de las unidades de procesamiento nativas (NPU) incorporadas para ofrecer inteligencia artificial local. Con la búsqueda de Windows mejorada y la nueva experiencia de recuperación (versión preliminar), encontrar lo que necesita en su PC es más fácil que nunca con solo describir lo que está buscando. Estas funciones se lanzarán primero para nuestra comunidad Windows Insider en las PC Copilot+ antes de implementarse de manera más amplia para nuestros clientes. Impulso de BlackRock Hace cuatro años, BlackRock , una de las empresas de gestión de activos más importantes

Leer más »

¿Qué es un centro de datos de hiperescala?

Los centros de datos a hiperescala ofrecen la enorme capacidad necesaria para respaldar la computación en la nube, el entrenamiento de modelos de IA y otras grandes cargas de trabajo. ¿Dónde está la nube? Es una pregunta sencilla, pero que relativamente pocas personas se plantean, a pesar de que la computación en la nube desempeña un papel fundamental en prácticamente todos los aspectos de nuestra vida digital moderna. Contrariamente a la creencia popular, la nube no existe simplemente en el espacio. Es cierto que los usuarios finales pueden acceder a ella desde casi cualquier lugar, pero eso no significa que la nube en sí esté en todas partes. En realidad, la nube está formada por servidores interconectados y otras infraestructuras que funcionan dentro de centros de datos físicos. En concreto, los proveedores de servicios en la nube dependen de un tipo particular de centro de datos para proporcionar la base de sus servicios: los centros de datos a hiperescala. ¿Qué diferencia a los centros de datos de hiperescala de los centros de datos tradicionales? En pocas palabras, los centros de datos a hiperescala son únicos por su enorme tamaño. La mayoría de las instalaciones a hiperescala tienen 920 metros cuadrados o más, lo que proporciona un amplio espacio para alojar miles de servidores. También necesitan una red local confiable para proporcionar la energía necesaria para mantener todos esos servidores en funcionamiento. Las empresas que utilizan centros de datos a hiperescala pueden necesitar cientos de megavatios de energía en una sola implementación, en particular porque la IA ha cambiado el panorama. El funcionamiento de tantos servidores en una sola instalación inevitablemente genera mucho calor. Por lo tanto, los centros de datos a gran escala suelen requerir capacidades de refrigeración avanzadas, como refrigeración líquida directa al chip , en particular para soportar cargas de trabajo de alta densidad, como el entrenamiento de IA. En comparación con otros tipos de centros de datos , tiene sentido que los consumidores e incluso la mayoría de los profesionales de TI empresariales no dediquen mucho tiempo a pensar en los centros de datos a hiperescala y en su importancia. Después de todo, la gran mayoría de las organizaciones nunca tienen una razón para utilizar centros de datos a hiperescala, al menos no directamente. ¿Quién utiliza centros de datos de hiperescala? Los centros de datos a hiperescala ofrecen enormes cantidades de espacio y energía para soportar las mayores cargas de trabajo de algunos de los proveedores de servicios digitales más importantes del planeta. Por supuesto, esto incluye a los proveedores de la nube, pero también a los principales proveedores de contenido y SaaS. Este selecto grupo de empresas constituye básicamente todo el mercado global de centros de datos a hiperescala. Se los conoce comúnmente como «hiperescaladores». En algunos casos, estos hiperescaladores invierten grandes cantidades de dinero para conseguir terrenos y construir centros de datos para sí mismos. Esto puede ayudarlos a tener la sensación de confianza de que obtendrán la instalación exacta que satisfaga sus necesidades. En otros casos, pueden decidir aprovechar los recursos y la experiencia de un proveedor de coubicación global. Los hiperescaladores tienen los conocimientos tecnológicos suficientes para diseñar y construir sus propios centros de datos, pero no tiene sentido que lo hagan en todas las situaciones. Al trabajar con un socio de coubicación como Equinix, los hiperescaladores pueden acceder a un servicio mayorista especializado que se adapta exactamente a sus necesidades. Siguen teniendo un papel activo en el diseño y la operación de la implementación a hiperescala que buscan. La única diferencia es que dejarán que alguien más se preocupe por comprar el terreno, administrar el proceso de construcción, adquirir la energía y cumplir con los objetivos de eficiencia y sostenibilidad . ¿Dónde se construyen normalmente los centros de datos a hiperescala? Dado que los centros de datos a gran escala requieren mucho espacio y energía en un solo lugar, es muy común encontrarlos en lugares más remotos, donde los bienes raíces y la energía tienden a ser asequibles en comparación con las principales áreas metropolitanas. En estos lugares, también es más fácil encontrar grandes parcelas de tierra con capacidad de red en las que construir un campus interconectado con múltiples instalaciones a gran escala. Es cierto que la construcción de centros de datos a gran escala en áreas rurales podría generar una mayor latencia, ya que el tráfico de datos tendría que cubrir distancias más largas para llegar a las instalaciones. Sin embargo, esto no suele ser un problema, ya que los proveedores de servicios tienden a utilizar centros de datos a gran escala para admitir cargas de trabajo que son menos sensibles a la latencia. Como ejemplo, consideremos cómo los centros de datos a gran escala permiten determinadas cargas de trabajo de IA . Las cargas de trabajo de entrenamiento de modelos de IA y de inferencia de modelos tienen diferentes requisitos de infraestructura, y es mejor utilizar diferentes tipos de centros de datos para respaldarlos. El entrenamiento de modelos implica procesar enormes cantidades de datos para establecer el reconocimiento de patrones y, por lo tanto, requiere una gran capacidad de cómputo. Por otro lado, el entrenamiento no involucra conjuntos de datos en tiempo real, por lo que la latencia de la red no es una preocupación importante. Esta combinación de factores hace que los centros de datos a hiperescala sean perfectos para alojar cargas de trabajo de entrenamiento de modelos, especialmente para modelos de lenguaje grandes (LLM) con conjuntos de datos de entrenamiento particularmente vastos. Cómo aprovechar al máximo los centros de datos a hiperescala El hecho de que los centros de datos a hiperescala tiendan a estar alejados no significa que deban estar aislados. De hecho, garantizar la conectividad es esencial para aprovechar al máximo los centros de datos a hiperescala. Para volver a nuestro ejemplo de IA, el entrenamiento de modelos es solo un aspecto del flujo de trabajo de IA distribuida. Las cargas de trabajo de inferencia de modelos son más pequeñas y más sensibles a la latencia, por lo que a menudo se

Leer más »

Dell Technologies impulsa la inteligencia artificial para empresas con los avances de Dell AI Factory

Dell Technologies (NYSE: DELL) continúa facilitando la adopción de IA empresarial con Dell AI Factory, ampliando la cartera de soluciones de IA más amplia del mundo.  SC24, ATLANTA – 18 de noviembre de 2024 —   Historia completa Dell Technologies (NYSE: DELL) continúa facilitando la adopción de IA empresarial con Dell AI Factory, ampliando la cartera de soluciones de IA más amplia del mundo. 1  La nueva infraestructura, las soluciones y los servicios potentes aceleran, simplifican y agilizan las cargas de trabajo de IA y la gestión de datos. «Poner en funcionamiento la IA en toda la empresa puede ser un verdadero desafío», afirmó Arthur Lewis, presidente del grupo de soluciones de infraestructura de Dell Technologies. «Estamos facilitándoles las cosas a nuestros clientes con nuevas soluciones, servicios e infraestructura de IA que simplifican las implementaciones de IA, allanando el camino para formas de trabajo más inteligentes y rápidas y un futuro más adaptable». La nueva infraestructura de IA ofrece computación eficiente y de alta densidad y facilita el acceso a los datos para impulsar las cargas de trabajo de IA El programa Dell Integrated Rack Scalable Systems (IRSS), presentado a principios de este año,   es un programa de integración de fábrica llave en mano que ofrece sistemas a escala de rack totalmente equipados y listos para usar con Dell Smart Cooling. IRSS simplifica aún más la implementación de una infraestructura de IA energéticamente eficiente con opciones de servicio y soporte con una sola llamada para todo el rack. Una vez configurado, Dell se encarga de los residuos de embalaje y el reciclaje, y puede ayudar con el reciclaje responsable de su hardware antiguo. Dell ha ampliado el programa para incluir los servidores Dell PowerEdge XE9685L y Dell PowerEdge XE7740 en el Dell Integrated Rack 5000 (IR5000) estándar de 19 pulgadas. El Dell IR5000 está diseñado para aplicaciones de alta densidad en un formato que ahorra espacio y ofrece un alto rendimiento sin comprometer la eficiencia energética. Dell planea respaldar el próximo superchip NVIDIA GB200 Grace Blackwell NVL4 con un nuevo servidor Dell PowerEdge XE diseñado para Dell IR7000 , que admite hasta 144 GPU por rack en un rack estándar de 50 OU. El rack IR7000 admite cargas de trabajo de HPC y AI a gran escala que requieren alta potencia y refrigeración líquida con la capacidad de capturar calor casi al 100 %. Las actualizaciones de Dell Data Lakehouse brindan a las empresas arquitecturas modernas para administrar y analizar datos de manera eficiente para tareas de IA. Esta plataforma está construida sobre hardware optimizado para IA y un paquete de software completo, y se ampliará para incluir Apache Spark para el procesamiento distribuido de datos a escala. Para las empresas que administran volúmenes masivos de datos, la nueva integración de Spark proporcionará importantes ganancias de eficiencia, con un enfoque unificado para el análisis, la administración, el procesamiento y el análisis de datos para obtener información más rápida y práctica. “La continua reinvención y mejora de las tecnologías de IA y HPC es fundamental para acelerar los descubrimientos en todas las industrias”, afirmó Dan Stanzione, director ejecutivo del Texas Advanced Computing Center (TACC). “Con las soluciones de IA de Dell, estamos construyendo sistemas HPC complejos que permiten que la innovación prospere en las comunidades de investigación. En última instancia, estos avances tienen el potencial de transformar la sociedad e impulsar un progreso que beneficie a todos”. Las soluciones líderes del ecosistema de socios de IA impulsan la adopción de IA Dell está colaborando con socios de todo el ecosistema de IA para potenciar y simplificar las implementaciones de IA: Reduzca la complejidad y facilite la adopción de IA con los servicios de Dell Encontrar talento para desarrollar estrategias e implementar IA sigue siendo un desafío para las organizaciones. Los servicios profesionales de Dell ayudan a las organizaciones a alcanzar sus objetivos de IA de manera más eficiente mediante lo siguiente: «Las empresas están recurriendo a la IA para seguir siendo competitivas en el panorama digital actual, pero necesitan aprovechar sus datos patentados para diferenciarse», afirmó Dave Vellante, analista jefe de theCUBE Research. «Estamos observando un resurgimiento del interés por ofertas como la infraestructura, las soluciones y los servicios de IA de Dell, que pueden ayudar a los clientes a preparar sus datos para extraer información, automatizar tareas y transformar procesos. A medida que avanzamos en esta nueva era de innovación tecnológica, será fundamental que las empresas aprendan continuamente e inviertan en innovación para aprovechar los beneficios que promete la IA». Disponibilidad

Leer más »

El equipo de Fórmula Uno® Aston Martin Aramco anuncia una asociación con Xerox, líder en soluciones y tecnología de oficina

A partir de 2025, la asociación plurianual entre Xerox y Aston Martin Aramco unirá a dos innovadores dedicados a la velocidad, la precisión y la eficiencia. Norwalk, Connecticut —  El equipo de Fórmula Uno® Aston Martin Aramco ha anunciado hoy a Xerox, líder en tecnología y soluciones de oficina, como socio global oficial. A partir de 2025, la asociación plurianual entre Xerox y Aston Martin Aramco unirá a dos innovadores dedicados a la velocidad, la precisión y la eficiencia. Xerox, a la vanguardia de las tecnologías digitales y físicas, es reconocida por su experiencia en impresión, escaneo y copiado, además de servicios digitales y de TI de vanguardia para el lugar de trabajo. Aston Martin Aramco construye, prueba y mejora sus coches y la logística de las carreras en el vanguardista AMR Technology Campus de Silverstone (Inglaterra). Xerox trabajará con el equipo para respaldar sus funciones de tecnología digital tanto dentro como fuera de la pista de carreras a través de las siguientes áreas: La marca Xerox será visible en el AMR24 en el Gran Premio de Las Vegas la próxima semana. Jefferson Slack, director comercial del equipo de Fórmula Uno® de Aston Martin Aramco, afirmó: «Xerox lleva mucho tiempo liderando la innovación y esta alianza reúne a dos marcas que se esfuerzan por lograr precisión y eficiencia. Estamos entusiasmados de trabajar con Xerox y aprovechar su experiencia para mejorar las operaciones digitales de nuestro equipo. A medida que ampliamos los límites del rendimiento, esta alianza nos impulsará hacia adelante». Deena LaMarque Piquion, directora de Crecimiento y Disrupción de Xerox, afirmó: “Así como el equipo de Fórmula Uno® de Aston Martin busca incansablemente el máximo rendimiento en la pista, Xerox permite a las empresas acelerar su proceso de transformación digital con soluciones de vanguardia. Juntos, estamos dando forma a un nuevo futuro, donde la agilidad se encuentra con la innovación y las empresas alcanzan la excelencia a la velocidad de la F1”. Acerca de Xerox Holdings Corporation (NASDAQ: XRX) Durante más de 100 años, Xerox ha redefinido continuamente la experiencia en el lugar de trabajo. Aprovechando nuestra posición de liderazgo en tecnología de impresión de oficina y producción, nos hemos expandido hacia el software y los servicios para impulsar de manera sustentable el lugar de trabajo híbrido de hoy y de mañana. Hoy, Xerox continúa su legado de innovación para brindar soluciones tecnológicas centradas en el cliente e impulsadas digitalmente y satisfacer las necesidades de la fuerza laboral global y distribuida de la actualidad. Desde la oficina hasta los entornos industriales, nuestras ofertas comerciales y tecnológicas diferenciadas y nuestros servicios financieros son soluciones tecnológicas esenciales para el lugar de trabajo que impulsan el éxito de nuestros clientes. En Xerox, hacemos que el trabajo funcione. Obtenga más información en www.xerox.com y explore nuestro compromiso con la diversidad y la inclusión. Acerca del equipo de Fórmula Uno® de Aston Martin Aramco  La icónica marca Aston Martin fue fundada en 1913 por Lionel Martin y Robert Bamford, y ha desarrollado una sucesión de automóviles de alto rendimiento y ultra lujo, incluidos el icónico Goldfinger DB5, el V8 Vantage, el Vanquish y el DBX 707, uno de los SUV más rápidos del mundo.   El epítome del lujo y la tecnología británicos en la carretera, la migración a los circuitos se produjo de forma natural. La marca ganó las 24 Horas de Le Mans en 1959 y compitió brevemente en la Fórmula Uno en 1959 y 1960.  Aston Martin regresó a la parrilla de Fórmula 1 en 2021 bajo el liderazgo del empresario canadiense Lawrence Stroll. Desde entonces, el equipo ha invertido mucho y ha inaugurado su nuevo Campus Tecnológico AMR en Silverstone durante el verano de 2023, la primera base de un equipo de F1 en casi dos décadas. Está previsto que en 2024 entre en funcionamiento un túnel de viento de última generación. El nuevo Campus Tecnológico contribuye a las ambiciones medioambientales del equipo con un mejor aislamiento, un uso inteligente de la luz natural y paneles solares que ayudan a alimentar el recinto.  Aston Martin disfrutó de su temporada más exitosa hasta la fecha en 2023, logrando ocho posiciones en el podio y 280 puntos en su camino hacia el quinto lugar en el Campeonato de Constructores. Para 2024, el doble campeón del mundo Fernando Alonso y el canadiense Lance Stroll encabezan una alineación de pilotos respaldada por el piloto de pruebas y reserva Felipe Drugovich, Stoffel Vandoorne y el embajador del equipo Pedro de la Rosa.  En 2024, Aston Martin también participará en la serie F1® Academy exclusivamente femenina con la piloto suiza Tina Hausmann, que cuenta con el apoyo de la directora de carreras y embajadora de pilotos de la F1® Academy de Aston Martin Aramco, Jessica Hawkins, que probó uno de los monoplazas de F1 del equipo en 2023.  Fuera de la pista, Aston Martin Aramco concibió su plataforma Make A Mark: un compromiso para impulsar un progreso positivo a través de la influencia del equipo y el perfil de la Fórmula Uno.   Make A Mark se basa en tres pilares fundamentales: sostenibilidad, comunidad e inclusión, todos concebidos para promover una cultura de vida y trabajo ambiental, inclusiva y diversa con un programa que apoya y educa a los jóvenes, particularmente de orígenes diversos y étnicos, para impulsar oportunidades profesionales dentro del automovilismo y STEM.  Entre los socios comerciales responsables se encuentra Racing Pride, que promueve positivamente la inclusión LGBTQ+ en el automovilismo, mientras que Spinal Track trabaja con el equipo para mejorar la accesibilidad y fomentar la inclusión en todo el deporte. Una asociación con la Fundación Aleto ofrece un programa de liderazgo para jóvenes estudiantes de minorías étnicas que desean aprender más sobre las oportunidades dentro del automovilismo. En enero de 2024, Aston Martin Aramco se convirtió en el primer equipo de Fórmula Uno en cumplir con la norma ISO 50001, una certificación reconocida mundialmente que describe los requisitos para mejorar la eficiencia energética y el rendimiento al tiempo que se reduce el consumo y los costos. Xerox News.

Leer más »

Una técnica popular para hacer que la IA sea más eficiente tiene inconvenientes

Una de las técnicas más utilizadas para hacer que los modelos de IA sean más eficientes, la cuantificación, tiene límites, y la industria podría estar acercándose rápidamente a ellos. En el contexto de la IA, la cuantificación se refiere a la reducción de la cantidad de bits (las unidades más pequeñas que puede procesar un ordenador) necesarios para representar la información. Consideremos esta analogía: cuando alguien pregunta la hora, probablemente diríamos “mediodía”, no “oh, mil doscientos, un segundo y cuatro milisegundos”. Eso es cuantificación; ambas respuestas son correctas, pero una es ligeramente más precisa. La precisión que realmente se necesita depende del contexto. Los modelos de IA constan de varios componentes que se pueden cuantificar, en particular los parámetros, las variables internas que utilizan los modelos para hacer predicciones o tomar decisiones. Esto es conveniente, considerando que los modelos realizan millones de cálculos cuando se ejecutan. Los modelos cuantificados con menos bits que representan sus parámetros son menos exigentes matemáticamente y, por lo tanto, computacionalmente. (Para ser claros, este es un proceso diferente de la “destilación”, que es una poda más compleja y selectiva de los parámetros). Pero la cuantificación puede tener más desventajas de las que se suponía anteriormente. El modelo cada vez más pequeño Según un estudio realizado por investigadores de Harvard, Stanford, MIT, Databricks y Carnegie Mellon, los modelos cuantizados tienen un peor rendimiento si la versión original no cuantizada del modelo se entrenó durante un largo período con una gran cantidad de datos. En otras palabras, en un momento determinado, puede ser mejor entrenar un modelo más pequeño en lugar de reducir uno grande. Esto podría significar malas noticias para las empresas de IA que entrenan modelos extremadamente grandes (conocidos por mejorar la calidad de las respuestas) y luego los cuantifican en un esfuerzo por hacer que su servicio sea menos costoso. Los efectos ya se están manifestando. Hace unos meses, los desarrolladores y académicos informaron que cuantificar el modelo Llama 3 de Meta tendía a ser «más dañino» en comparación con otros modelos, posiblemente debido a la forma en que se entrenó. “En mi opinión, el costo número uno para todos en IA es y seguirá siendo la inferencia, y nuestro trabajo muestra que una forma importante de reducirla no funcionará para siempre”, dijo a TechCrunch Tanishq Kumar, estudiante de matemáticas de Harvard y primer autor del artículo. Contrariamente a la creencia popular, la inferencia de modelos de IA (ejecutar un modelo, como cuando ChatGPT responde una pregunta) suele ser más costosa en conjunto que el entrenamiento del modelo. Consideremos, por ejemplo, que Google gastó aproximadamente 191 millones de dólares para entrenar uno de sus modelos insignia Gemini , sin duda una suma enorme. Pero si la empresa utilizara un modelo para generar respuestas de solo 50 palabras a la mitad de todas las consultas de búsqueda de Google, gastaría aproximadamente 6 mil millones de dólares al año. Los principales laboratorios de IA han adoptado modelos de entrenamiento en conjuntos de datos masivos bajo el supuesto de que “escalar” (incrementar la cantidad de datos y computación utilizados en el entrenamiento) conducirá a una IA cada vez más capaz. Por ejemplo, Meta entrenó a Llama 3 con un conjunto de 15 billones de tokens. ( Los tokens representan bits de datos sin procesar; 1 millón de tokens equivale a aproximadamente 750.000 palabras). La generación anterior, Llama 2, se entrenó con “solo” 2 billones de tokens. La evidencia sugiere que la ampliación de escala finalmente produce rendimientos decrecientes; se dice que recientemente Anthropic y Google entrenaron modelos enormes que no alcanzaron las expectativas de referencia internas. Pero hay pocas señales de que la industria esté lista para alejarse significativamente de estos enfoques de ampliación arraigados. ¿Qué tan preciso exactamente? Entonces, si los laboratorios se muestran reacios a entrenar modelos en conjuntos de datos más pequeños, ¿existe alguna manera de hacer que los modelos sean menos susceptibles a la degradación? Posiblemente. Kumar dice que él y los coautores descubrieron que entrenar modelos en “baja precisión” puede hacerlos más robustos. Tenga paciencia con nosotros por un momento mientras profundizamos un poco. En este caso, la “precisión” se refiere a la cantidad de dígitos que un tipo de datos numéricos puede representar con precisión. Los tipos de datos son conjuntos de valores de datos, normalmente especificados por un conjunto de valores posibles y operaciones permitidas; el tipo de datos FP8, por ejemplo, utiliza solo 8 bits para representar un número de punto flotante . La mayoría de los modelos actuales se entrenan con 16 bits o “media precisión” y se “cuantifican después del entrenamiento” con una precisión de 8 bits. Algunos componentes del modelo (por ejemplo, sus parámetros) se convierten a un formato de menor precisión a costa de cierta precisión. Piense en ello como si hiciera los cálculos con unos pocos decimales y luego los redondeara a la décima más cercana, lo que a menudo le ofrece lo mejor de ambos mundos. Los proveedores de hardware como Nvidia están presionando para lograr una precisión menor en la inferencia de modelos cuantizados. El nuevo chip Blackwell de la compañía admite una precisión de 4 bits, específicamente un tipo de datos llamado FP4; Nvidia ha presentado esto como una bendición para los centros de datos con limitaciones de memoria y energía. Pero una precisión de cuantificación extremadamente baja puede no ser deseable. Según Kumar, a menos que el modelo original sea increíblemente grande en términos de su cantidad de parámetros, las precisiones inferiores a 7 u 8 bits pueden provocar una reducción notable de la calidad. Si todo esto parece un poco técnico, no se preocupe: lo es. Pero la conclusión es simplemente que los modelos de IA no se entienden por completo y los atajos conocidos que funcionan en muchos tipos de computación no funcionan aquí. No diría «mediodía» si alguien le preguntara cuándo comenzó una carrera de 100 metros, ¿verdad? No es tan obvio, por supuesto, pero la idea es la misma: “El punto clave de nuestro trabajo es que existen limitaciones que no se pueden obviar de manera ingenua”, concluyó Kumar. “Esperamos que nuestro trabajo aporte matices al debate

Leer más »

Nokia adquiere la unidad de tecnología e I+D de Rapid para fortalecer el desarrollo de soluciones API y ecosistemas de red

Tras las inversiones masivas en 5G, los operadores están utilizando las API de red para monetizar sus activos de red y sus capacidades básicas exponiendo sus funciones de red de forma estandarizada a los desarrolladores para que puedan crear y vender nuevas aplicaciones para consumidores, empresas e industrias. 13 de noviembre de 2024Espoo, Finlandia — Nokia anunció hoy que ha adquirido los activos tecnológicos de Rapid, incluido el centro de API más grande del mundo utilizado por miles de desarrolladores activos en todo el mundo, y su unidad de investigación y desarrollo altamente calificada. Este acuerdo se basa en la estrategia de Nokia de expandir su hoja de ruta de productos API de red y liderar el ecosistema API de operadores, integradores de sistemas, proveedores de software independientes e hiperescaladores para utilizar las capacidades de red 5G y 4G y monetizar los activos de red. Tras las inversiones masivas en 5G, los operadores están utilizando las API de red para monetizar sus activos de red y sus capacidades básicas exponiendo sus funciones de red de forma estandarizada a los desarrolladores para que puedan crear y vender nuevas aplicaciones para consumidores, empresas e industrias. La integración de la tecnología API líder en la industria de Rapid con la plataforma Network as Code de Nokia con portal para desarrolladores permitirá a los operadores integrar sin problemas sus redes, controlar activamente el uso y la exposición de las API, mejorar la gestión del ciclo de vida de las API y colaborar con la base global de desarrolladores de Rapid en su mercado público de API. Desde el lanzamiento de la plataforma Red como Código en septiembre de 2023, Nokia ha ganado un impulso significativo con 27 socios a nivel mundial, incluidos BT, DISH, Google Cloud, Infobip, Orange, Telefónica y Telecom Argentina. Raghav Sahgal, presidente de servicios de red y nube de Nokia, afirmó: “Los operadores necesitan un puente para conectarse con miles de desarrolladores con el fin de impulsar la creación de valor para las empresas y los consumidores y monetizar sus redes. La tecnología de Rapid y el talentoso equipo de I+D, junto con Nokia, nos permitirán ofrecer una sólida plataforma de infraestructura API para acelerar el desarrollo de productos relacionados con API de red e impulsar la adopción en toda su amplia comunidad global de desarrolladores”. Marc Friend, director ejecutivo de Rapid, afirmó: “Estamos encantados de unir fuerzas con Nokia. La combinación de la tecnología API y la experiencia en I+D de Rapid con la escala y la experiencia en redes y dominio API de Nokia nos permitirá ampliar el ecosistema API”. La tecnología API de Rapid incluye un mercado público, servicios empresariales y un centro de API de nivel empresarial que permite a las empresas diseñar, crear, probar y compartir API de forma segura en toda su organización y con socios externos. Con el mercado público de API, los desarrolladores de todo el mundo pueden incluir y monetizar sus propias API, y conectarse a cientos de otras API. Los detalles financieros del acuerdo, firmado y cerrado hoy, no fueron revelados. Acerca de NokiaEn Nokia, creamos tecnología que ayuda al mundo a actuar en conjunto. Como líderes en innovación tecnológica B2B, somos pioneros en redes que perciben, piensan y actúan aprovechando nuestro trabajo en redes móviles, fijas y en la nube. Además, creamos valor con propiedad intelectual e investigación a largo plazo, liderados por los galardonados Nokia Bell Labs. Con arquitecturas verdaderamente abiertas que se integran sin problemas en cualquier ecosistema, nuestras redes de alto rendimiento crean nuevas oportunidades de monetización y escalabilidad. Los proveedores de servicios, las empresas y los socios de todo el mundo confían en Nokia para ofrecer redes seguras, confiables y sostenibles hoy, y trabajan con nosotros para crear los servicios y las aplicaciones digitales del futuro. Nokia News. Traducido al español

Leer más »
Scroll al inicio