El Portal de las Tecnologías para la Innovación

Categoría: Startups

Cinco formas de preparar su negocio para el futuro con centros de datos de alto rendimiento

Cuando no sabe cuáles serán los requisitos futuros de su centro de datos, debe estar preparado para cualquier cosa. La mayoría de los líderes empresariales saben que necesitan la infraestructura digital adecuada en los lugares adecuados, pero no pueden planificar sólo para hoy; necesitan prepararse para lo que pueda deparar el futuro. Esto no es fácil de hacer, porque no saben lo que deparará el futuro. Tienen que estar preparados para cualquier cosa y necesitan centros de datos que puedan ayudarlos a hacerlo. Los centros de datos locales tradicionales no ofrecen la flexibilidad necesaria para preparar una empresa digital para el futuro. Actualizar estos centros de datos es costoso y lleva mucho tiempo. Cuando complete una actualización, sus necesidades habrán cambiado nuevamente y tendrá que comenzar a planificar la próxima actualización de inmediato. Los servicios de coubicación ofrecen una flexibilidad que no tienen los centros de datos privados. Los centros de datos de coubicación de alto rendimiento ofrecen más que solo espacio y energía; también ofrecen acceso a ecosistemas, alcance geográfico y servicios digitales avanzados para ayudar a las empresas a superar muchos de sus mayores desafíos. En el futuro, los centros de datos de alto rendimiento serán aún más importantes. Ayudarán a las empresas a prepararse para requisitos que ni siquiera saben que tienen. Veamos más de cerca cómo podrían ser esos requisitos. Descubra lo que saben los líderes digitales. 1. Satisfacer las necesidades de las futuras cargas de trabajo de IA La infraestructura digital preparada para la IA no consiste únicamente en conseguir el hardware adecuado; también es necesario respaldar ese hardware con energía escalable, capacidades de refrigeración avanzadas y un ecosistema de proveedores de servicios y socios. Conseguir todo esto ya es bastante difícil hoy en día, y es poco probable que sea más fácil en el futuro. Podemos asumir con seguridad que los conjuntos de datos de IA seguirán creciendo, lo que significa que las empresas necesitarán más capacidad de cómputo, energía y refrigeración. Satisfacer estas necesidades requerirá inversiones constantes en nueva infraestructura. No es algo que los líderes empresariales puedan hacer por sí mismos, a menos que quieran que la gestión de centros de datos se convierta en su trabajo de tiempo completo. Los requisitos de infraestructura de IA se están volviendo más complejos gracias a regulaciones emergentes como la Ley de Inteligencia Artificial de la UE . Para cumplir con estas regulaciones, las empresas necesitarán control y visibilidad completos sobre sus cargas de trabajo y modelos de IA. En resumen, necesitarán un centro de datos de alto rendimiento para almacenar sus activos de IA. Esto les brindará un entorno privado sobre el cual mantener el control, junto con la flexibilidad para mover activos a la nube según sea necesario. 2. Preparación para los requisitos futuros de sostenibilidad La adopción de la IA y el cumplimiento de los objetivos de sostenibilidad son dos cosas que ninguna empresa puede lograr trabajando sola. Así como el éxito con la IA depende de encontrar los socios adecuados, el éxito con la sostenibilidad depende de encontrar socios que prioricen la sostenibilidad de la misma manera que usted. Por ejemplo, para soportar cargas de trabajo futuras de una manera más sostenible se necesitará una innovación constante. Los proveedores de coubicación pueden hacer el trabajo duro de innovar para la sostenibilidad de maneras que las empresas no pueden. Las empresas pueden cosechar los beneficios de ese trabajo duro simplemente implementando como cliente un centro de datos de alto rendimiento. Las innovaciones necesarias para la sostenibilidad a largo plazo se presentan en dos formas: En segundo lugar, Equinix ha invertido en contratos de compra de energía (PPA) para apoyar proyectos eólicos y solares en todo el mundo. Estos PPA representan más de 1 gigavatio de energía en virtud de contratos a largo plazo. Una vez que estén completamente construidos, se espera que los proyectos subyacentes a esos PPA tengan una capacidad de generación combinada de 3 millones de MWh por año. 3. Acceder a las nubes adecuadas de forma rápida y sencilla Para satisfacer sus futuras necesidades de nube, las empresas deben trabajar con un socio de infraestructura digital que priorice la neutralidad de los proveedores. En Equinix, la neutralidad ha sido una parte integral de nuestro ADN desde nuestra fundación hace más de 25 años. Hoy, somos líderes del mercado en rampas de acceso a la nube de baja latencia , lo que facilita que nuestros clientes se conecten con múltiples proveedores de nube en múltiples ubicaciones. Equinix también ofrece soluciones innovadoras de redes multicloud para ayudar a trasladar datos a diferentes nubes de forma rápida y segura. Por ejemplo, a principios de este año anunciamos Equinix Fabric® Cloud Router para ayudar a simplificar el enrutamiento entre nubes y entre entornos de nube híbrida. Reconocemos que nuestros clientes deben tener en cuenta la adopción de la multicloud a medida que rediseñan sus redes, por lo que seguiremos invirtiendo en nuevas herramientas que simplifiquen aún más la experiencia del usuario en relación con las redes multicloud. Este es otro ejemplo de una capacidad valiosa que solo se encuentra en un centro de datos de alto rendimiento. 4. Permitir la expansión global El mundo empresarial se está volviendo un lugar más pequeño. En el futuro, es probable que desee expandirse a mercados que ni siquiera están en su radar hoy. Construir centros de datos privados tradicionales en cada uno de estos mercados sería poco práctico. No le permitiría aumentar rápidamente la capacidad en nuevas ubicaciones y también podría llevarlo a sobreaprovisionar recursos en mercados que más adelante se vuelvan menos importantes para su negocio. Afortunadamente, cuando se implementa en un centro de datos de alto rendimiento, no se obtiene un solo centro de datos, sino una plataforma global interconectada de centros de datos en muchas ubicaciones estratégicas. Puede implementar en nuevos lugares según sea necesario y volver a conectarse fácilmente a su infraestructura existente en los mercados principales. Los centros de datos de colocación Equinix IBX® están disponibles en más de 70 áreas metropolitanas en seis continentes. Nunca hemos dejado de invertir en nuevos

Leer más »

Una técnica popular para hacer que la IA sea más eficiente tiene inconvenientes

Una de las técnicas más utilizadas para hacer que los modelos de IA sean más eficientes, la cuantificación, tiene límites, y la industria podría estar acercándose rápidamente a ellos. En el contexto de la IA, la cuantificación se refiere a la reducción de la cantidad de bits (las unidades más pequeñas que puede procesar un ordenador) necesarios para representar la información. Consideremos esta analogía: cuando alguien pregunta la hora, probablemente diríamos “mediodía”, no “oh, mil doscientos, un segundo y cuatro milisegundos”. Eso es cuantificación; ambas respuestas son correctas, pero una es ligeramente más precisa. La precisión que realmente se necesita depende del contexto. Los modelos de IA constan de varios componentes que se pueden cuantificar, en particular los parámetros, las variables internas que utilizan los modelos para hacer predicciones o tomar decisiones. Esto es conveniente, considerando que los modelos realizan millones de cálculos cuando se ejecutan. Los modelos cuantificados con menos bits que representan sus parámetros son menos exigentes matemáticamente y, por lo tanto, computacionalmente. (Para ser claros, este es un proceso diferente de la “destilación”, que es una poda más compleja y selectiva de los parámetros). Pero la cuantificación puede tener más desventajas de las que se suponía anteriormente. El modelo cada vez más pequeño Según un estudio realizado por investigadores de Harvard, Stanford, MIT, Databricks y Carnegie Mellon, los modelos cuantizados tienen un peor rendimiento si la versión original no cuantizada del modelo se entrenó durante un largo período con una gran cantidad de datos. En otras palabras, en un momento determinado, puede ser mejor entrenar un modelo más pequeño en lugar de reducir uno grande. Esto podría significar malas noticias para las empresas de IA que entrenan modelos extremadamente grandes (conocidos por mejorar la calidad de las respuestas) y luego los cuantifican en un esfuerzo por hacer que su servicio sea menos costoso. Los efectos ya se están manifestando. Hace unos meses, los desarrolladores y académicos informaron que cuantificar el modelo Llama 3 de Meta tendía a ser «más dañino» en comparación con otros modelos, posiblemente debido a la forma en que se entrenó. “En mi opinión, el costo número uno para todos en IA es y seguirá siendo la inferencia, y nuestro trabajo muestra que una forma importante de reducirla no funcionará para siempre”, dijo a TechCrunch Tanishq Kumar, estudiante de matemáticas de Harvard y primer autor del artículo. Contrariamente a la creencia popular, la inferencia de modelos de IA (ejecutar un modelo, como cuando ChatGPT responde una pregunta) suele ser más costosa en conjunto que el entrenamiento del modelo. Consideremos, por ejemplo, que Google gastó aproximadamente 191 millones de dólares para entrenar uno de sus modelos insignia Gemini , sin duda una suma enorme. Pero si la empresa utilizara un modelo para generar respuestas de solo 50 palabras a la mitad de todas las consultas de búsqueda de Google, gastaría aproximadamente 6 mil millones de dólares al año. Los principales laboratorios de IA han adoptado modelos de entrenamiento en conjuntos de datos masivos bajo el supuesto de que “escalar” (incrementar la cantidad de datos y computación utilizados en el entrenamiento) conducirá a una IA cada vez más capaz. Por ejemplo, Meta entrenó a Llama 3 con un conjunto de 15 billones de tokens. ( Los tokens representan bits de datos sin procesar; 1 millón de tokens equivale a aproximadamente 750.000 palabras). La generación anterior, Llama 2, se entrenó con “solo” 2 billones de tokens. La evidencia sugiere que la ampliación de escala finalmente produce rendimientos decrecientes; se dice que recientemente Anthropic y Google entrenaron modelos enormes que no alcanzaron las expectativas de referencia internas. Pero hay pocas señales de que la industria esté lista para alejarse significativamente de estos enfoques de ampliación arraigados. ¿Qué tan preciso exactamente? Entonces, si los laboratorios se muestran reacios a entrenar modelos en conjuntos de datos más pequeños, ¿existe alguna manera de hacer que los modelos sean menos susceptibles a la degradación? Posiblemente. Kumar dice que él y los coautores descubrieron que entrenar modelos en “baja precisión” puede hacerlos más robustos. Tenga paciencia con nosotros por un momento mientras profundizamos un poco. En este caso, la “precisión” se refiere a la cantidad de dígitos que un tipo de datos numéricos puede representar con precisión. Los tipos de datos son conjuntos de valores de datos, normalmente especificados por un conjunto de valores posibles y operaciones permitidas; el tipo de datos FP8, por ejemplo, utiliza solo 8 bits para representar un número de punto flotante . La mayoría de los modelos actuales se entrenan con 16 bits o “media precisión” y se “cuantifican después del entrenamiento” con una precisión de 8 bits. Algunos componentes del modelo (por ejemplo, sus parámetros) se convierten a un formato de menor precisión a costa de cierta precisión. Piense en ello como si hiciera los cálculos con unos pocos decimales y luego los redondeara a la décima más cercana, lo que a menudo le ofrece lo mejor de ambos mundos. Los proveedores de hardware como Nvidia están presionando para lograr una precisión menor en la inferencia de modelos cuantizados. El nuevo chip Blackwell de la compañía admite una precisión de 4 bits, específicamente un tipo de datos llamado FP4; Nvidia ha presentado esto como una bendición para los centros de datos con limitaciones de memoria y energía. Pero una precisión de cuantificación extremadamente baja puede no ser deseable. Según Kumar, a menos que el modelo original sea increíblemente grande en términos de su cantidad de parámetros, las precisiones inferiores a 7 u 8 bits pueden provocar una reducción notable de la calidad. Si todo esto parece un poco técnico, no se preocupe: lo es. Pero la conclusión es simplemente que los modelos de IA no se entienden por completo y los atajos conocidos que funcionan en muchos tipos de computación no funcionan aquí. No diría «mediodía» si alguien le preguntara cuándo comenzó una carrera de 100 metros, ¿verdad? No es tan obvio, por supuesto, pero la idea es la misma: “El punto clave de nuestro trabajo es que existen limitaciones que no se pueden obviar de manera ingenua”, concluyó Kumar. “Esperamos que nuestro trabajo aporte matices al debate

Leer más »

Nokia adquiere la unidad de tecnología e I+D de Rapid para fortalecer el desarrollo de soluciones API y ecosistemas de red

Tras las inversiones masivas en 5G, los operadores están utilizando las API de red para monetizar sus activos de red y sus capacidades básicas exponiendo sus funciones de red de forma estandarizada a los desarrolladores para que puedan crear y vender nuevas aplicaciones para consumidores, empresas e industrias. 13 de noviembre de 2024Espoo, Finlandia — Nokia anunció hoy que ha adquirido los activos tecnológicos de Rapid, incluido el centro de API más grande del mundo utilizado por miles de desarrolladores activos en todo el mundo, y su unidad de investigación y desarrollo altamente calificada. Este acuerdo se basa en la estrategia de Nokia de expandir su hoja de ruta de productos API de red y liderar el ecosistema API de operadores, integradores de sistemas, proveedores de software independientes e hiperescaladores para utilizar las capacidades de red 5G y 4G y monetizar los activos de red. Tras las inversiones masivas en 5G, los operadores están utilizando las API de red para monetizar sus activos de red y sus capacidades básicas exponiendo sus funciones de red de forma estandarizada a los desarrolladores para que puedan crear y vender nuevas aplicaciones para consumidores, empresas e industrias. La integración de la tecnología API líder en la industria de Rapid con la plataforma Network as Code de Nokia con portal para desarrolladores permitirá a los operadores integrar sin problemas sus redes, controlar activamente el uso y la exposición de las API, mejorar la gestión del ciclo de vida de las API y colaborar con la base global de desarrolladores de Rapid en su mercado público de API. Desde el lanzamiento de la plataforma Red como Código en septiembre de 2023, Nokia ha ganado un impulso significativo con 27 socios a nivel mundial, incluidos BT, DISH, Google Cloud, Infobip, Orange, Telefónica y Telecom Argentina. Raghav Sahgal, presidente de servicios de red y nube de Nokia, afirmó: “Los operadores necesitan un puente para conectarse con miles de desarrolladores con el fin de impulsar la creación de valor para las empresas y los consumidores y monetizar sus redes. La tecnología de Rapid y el talentoso equipo de I+D, junto con Nokia, nos permitirán ofrecer una sólida plataforma de infraestructura API para acelerar el desarrollo de productos relacionados con API de red e impulsar la adopción en toda su amplia comunidad global de desarrolladores”. Marc Friend, director ejecutivo de Rapid, afirmó: “Estamos encantados de unir fuerzas con Nokia. La combinación de la tecnología API y la experiencia en I+D de Rapid con la escala y la experiencia en redes y dominio API de Nokia nos permitirá ampliar el ecosistema API”. La tecnología API de Rapid incluye un mercado público, servicios empresariales y un centro de API de nivel empresarial que permite a las empresas diseñar, crear, probar y compartir API de forma segura en toda su organización y con socios externos. Con el mercado público de API, los desarrolladores de todo el mundo pueden incluir y monetizar sus propias API, y conectarse a cientos de otras API. Los detalles financieros del acuerdo, firmado y cerrado hoy, no fueron revelados. Acerca de NokiaEn Nokia, creamos tecnología que ayuda al mundo a actuar en conjunto. Como líderes en innovación tecnológica B2B, somos pioneros en redes que perciben, piensan y actúan aprovechando nuestro trabajo en redes móviles, fijas y en la nube. Además, creamos valor con propiedad intelectual e investigación a largo plazo, liderados por los galardonados Nokia Bell Labs. Con arquitecturas verdaderamente abiertas que se integran sin problemas en cualquier ecosistema, nuestras redes de alto rendimiento crean nuevas oportunidades de monetización y escalabilidad. Los proveedores de servicios, las empresas y los socios de todo el mundo confían en Nokia para ofrecer redes seguras, confiables y sostenibles hoy, y trabajan con nosotros para crear los servicios y las aplicaciones digitales del futuro. Nokia News. Traducido al español

Leer más »

El nuevo perro robot del MIT aprendió a caminar y trepar en una simulación creada con inteligencia artificial generativa

Uno de los grandes retos a la hora de entrenar modelos de IA para controlar robots es reunir suficientes datos realistas. Ahora, investigadores del MIT han demostrado que pueden entrenar a un perro robot utilizando datos 100 % sintéticos. Tradicionalmente, los robots se han codificado manualmente para realizar tareas específicas, pero este enfoque da como resultado sistemas frágiles que tienen dificultades para hacer frente a la incertidumbre del mundo real. Los enfoques de aprendizaje automático que entrenan a los robots con ejemplos del mundo real prometen crear máquinas más flexibles, pero recopilar suficientes datos de entrenamiento es un desafío importante. Una posible solución alternativa es entrenar a los robots mediante simulaciones informáticas del mundo real, lo que hace que sea mucho más sencillo crearles nuevas tareas o entornos. Pero este enfoque se ve afectado por la “brecha entre la simulación y la realidad”: estos entornos virtuales siguen siendo malas réplicas del mundo real y las habilidades que se aprenden en ellos a menudo no se trasladan. Ahora, los investigadores del MIT CSAIL han encontrado una forma de combinar simulaciones e IA generativa para permitir que un robot, entrenado sin datos del mundo real, aborde una serie de desafiantes tareas de locomoción en el mundo físico. “Uno de los principales desafíos en la transferencia de simulación a realidad para la robótica es lograr realismo visual en entornos simulados”, dijo Shuran Song de la Universidad de Stanford, quien no participó en la investigación, en un comunicado de prensa del MIT . “El marco LucidSim ofrece una solución elegante que utiliza modelos generativos para crear datos visuales diversos y sumamente realistas para cualquier simulación. Este trabajo podría acelerar significativamente la implementación de robots entrenados en entornos virtuales para tareas del mundo real”. Los simuladores más utilizados para entrenar robots en la actualidad pueden reproducir de forma realista el tipo de física que probablemente enfrentarán los robots, pero no son tan buenos para recrear los diversos entornos, texturas y condiciones de iluminación que se encuentran en el mundo real. Esto significa que los robots que dependen de la percepción visual a menudo tienen dificultades en entornos menos controlados. Para solucionar este problema, los investigadores del MIT utilizaron generadores de texto a imagen para crear escenas realistas y las combinaron con un simulador popular llamado MuJoCo para mapear datos geométricos y físicos en las imágenes. Para aumentar la diversidad de imágenes, el equipo también utilizó ChatGPT para crear miles de indicaciones para el generador de imágenes que abarcan una amplia gama de entornos. Después de generar estas imágenes realistas del entorno, los investigadores las convirtieron en vídeos cortos desde la perspectiva de un robot utilizando otro sistema que desarrollaron, llamado Dreams in Motion, que calcula cómo se desplazaría cada píxel de la imagen a medida que el robot se desplaza por un entorno, creando múltiples fotogramas a partir de una única imagen. Los investigadores denominaron a este proceso de generación de datos LucidSim y lo utilizaron para entrenar a un modelo de IA para que controlara un robot cuadrúpedo utilizando solo información visual. El robot aprendió una serie de tareas de locomoción, como subir y bajar escaleras, trepar cajas y perseguir una pelota de fútbol. El proceso de entrenamiento se dividió en partes. En primer lugar, el equipo entrenó su modelo con datos generados por un sistema de IA experto con acceso a información detallada del terreno mientras intentaba realizar las mismas tareas. Esto le dio al modelo suficiente conocimiento de las tareas para intentarlas en una simulación basada en los datos de LucidSim, que generó más datos. Luego, volvieron a entrenar el modelo con los datos combinados para crear la política de control robótico final. El método igualó o superó al sistema de inteligencia artificial experto en cuatro de las cinco tareas en pruebas del mundo real, a pesar de depender únicamente de información visual. Y en todas las tareas, superó significativamente a un modelo entrenado utilizando “aleatorización de dominio”, un método de simulación líder que aumenta la diversidad de datos al aplicar colores y patrones aleatorios a los objetos del entorno. Los investigadores dijeron a MIT Technology Review que su próximo objetivo es entrenar a un robot humanoide con datos puramente sintéticos generados por LucidSim. También esperan utilizar el método para mejorar el entrenamiento de brazos robóticos en tareas que requieran destreza. Dado el apetito insaciable de datos de entrenamiento de robots, es probable que métodos como este, que pueden proporcionar alternativas sintéticas de alta calidad, se vuelvan cada vez más importantes en los próximos años. singularityhub. E. C. Traducido al español

Leer más »

Cisco y LTIMindtree amplían su alianza para ofrecer acceso seguro de próxima generación a nivel mundial

“Con el enfoque de confianza cero de Cisco y la inteligencia artificial integrada, fue una decisión sencilla reemplazar nuestra solución SSE de larga data por Cisco Secure Access”, afirmó Nachiket Deshpande, director de operaciones y director a tiempo completo de LTIMindtree . Resumen de noticias: CISCO LIVE, Melbourne, 13 de noviembre de 2024 — Cisco (NASDAQ: CSCO), el líder en redes y seguridad empresariales, anunció que LTIMindtree ahora aprovecha Cisco Secure Access como su solución de borde de servicio de seguridad (SSE) para permitir experiencias de trabajo híbridas seguras para sus empleados y clientes en todo el mundo. “Con el enfoque de confianza cero de Cisco y la inteligencia artificial integrada, fue una decisión sencilla reemplazar nuestra solución SSE de larga data por Cisco Secure Access”, afirmó Nachiket Deshpande, director de operaciones y director a tiempo completo de LTIMindtree . “Pudimos implementar rápidamente la solución, que ahora protege a nuestra fuerza laboral híbrida al tiempo que ofrece una mejor experiencia de usuario y una gestión de TI simplificada”. Cisco y LTIMindtree también han ampliado su alianza para ofrecer soluciones integradas de Secure Access Service Edge (SASE) basadas en la tecnología de Cisco a la base de clientes global de LTIMindtree. La experiencia de LTIMindtree en la adaptación de soluciones a los requisitos verticales específicos es el complemento perfecto para la tecnología de Cisco, que incluye Cisco Secure Access y SD-WAN, y ofrece experiencias conectadas seguras y sin inconvenientes tanto para trabajadores remotos como presenciales. “Los grandes lugares de trabajo requieren una gran seguridad. Con el aumento de las amenazas impulsadas por la IA, estamos combatiendo a los atacantes sofisticados en un panorama más amplio. Nuestros clientes necesitan que su seguridad funcione en segundo plano, a escala de máquina, para que la experiencia sea fluida y segura para los trabajadores híbridos”, afirmó Jeetu Patel, vicepresidente ejecutivo y director de productos de Cisco . “La rápida implementación de Secure Access por parte de LTIMindtree es un gran testimonio de la estrategia y la diferenciación de la plataforma de Cisco. Junto con nuestros socios, estamos cambiando lo que significa la protección del usuario para un lugar de trabajo moderno”. Con Cisco Secure Access, las decisiones sobre cómo los usuarios se conectan a las aplicaciones se gestionan en segundo plano a través de un agente unificado, de modo que los usuarios obtienen lo que quieren más rápidamente. Con conexiones de baja latencia y autenticación transparente basada en identidad, los usuarios están más seguros y tienen menos problemas. Para las organizaciones de TI, Cisco Secure Access proporciona una vía sencilla para el acceso a la red de confianza cero (ZTNA), al mismo tiempo que simplifica las operaciones con una consola unificada y orientación de IA. Secure Access es parte de Cisco Security Cloud, su plataforma de seguridad unificada, impulsada por IA y multidominio. Cisco News. Traducido al español

Leer más »

Cisco participará en la conferencia RBC

Cisco en la Conferencia Global TMIT de RBC Capital Markets 2024 SAN JOSÉ, California, 15 de noviembre de 2024 – Cisco anunció hoy que participará en el siguiente evento con la comunidad financiera. Esta sesión se transmitirá por webcast. Los interesados ​​pueden registrarse y ver estos eventos en el sitio web de Relaciones con inversores de Cisco en https://investor.cisco.com . En esta conferencia telefónica no se discutirá ninguna información financiera nueva. Cisco en la Conferencia Global TMIT de RBC Capital Markets 2024 20 de noviembre de 2024 8:20 a. m., hora del Pacífico/11:20 a. m., hora del Este Orador de Cisco: Scott Herren, vicepresidente ejecutivo y director financiero Mark Patterson, vicepresidente ejecutivo y director de estrategia Moderador: Matthew Hedberg, director ejecutivo de RBC Capital Markets Cisco News. Traducido al español

Leer más »

OpenAI en Francia

Nuestra primera oficina en Europa continental. En OpenAI creemos que la inteligencia artificial debería beneficiar a todos, dondequiera que se encuentren en el mundo. Como parte de nuestra creciente presencia internacional, nos complace haber abierto una oficina en París y formar parte del ecosistema de IA líder mundial en Francia.“Francia es reconocida mundialmente por su innovación y liderazgo en tecnología e inteligencia artificial. Estamos entusiasmados de formar parte de su próspero ecosistema. Con un equipo aquí, podemos asociarnos estrechamente con empresas, instituciones y desarrolladores franceses para ayudarlos a aprovechar los beneficios de la IA”.Sam Altman, director ejecutivo de OpenAI La apertura de la oficina refleja la rápida adopción de la IA en Francia, donde organizaciones, empresas emergentes y negocios ya están utilizando nuestras herramientas para abordar problemas desafiantes e impulsar la productividad y la creatividad. Estos incluyen: «Estamos encantados de asociarnos con OpenAI y ChatGPT para llevar superpoderes de IA generativa a comunidades desatendidas y subrepresentadas. Al ampliar los beneficios de los modelos multilingües y multimodales de última generación entre las organizaciones sin fines de lucro, nuestro objetivo es desbloquear todo su potencial y crear proyectos duraderos. impacto.» Frédéric Bardeau, presidente y cofundador de Simplon Esperamos continuar con una serie inicial de hackatones para apoyar aún más a los desarrolladores, empresas emergentes y organizaciones francesas para que puedan compartir los beneficios de la IA.  “Estamos orgullosos y emocionados por el lanzamiento de OpenAI en París. El ecosistema de IA de Francia ha cobrado un impulso impresionante y creemos que OpenAI potenciará aún más su crecimiento. Nuestras empresas en STATION F también han mostrado un gran entusiasmo por tener más acceso y proximidad al equipo local de OpenAI”. Roxanne Varza, directora de STATION F, el campus de startups más grande del mundo con sede en París Tener presencia en Francia también nos permite fortalecer nuestra colaboración con el gobierno francés, garantizando que los beneficios de la IA se compartan de manera amplia y responsable. En septiembre, firmamos los compromisos centrales del Pacto de IA de la UE, que están alineados con nuestra misión de proporcionar tecnologías seguras y de vanguardia que aporten valor a todos.  «La apertura de la oficina de OpenAI en París pone a prueba el atractivo de Francia y la calidad de nuestro talento e investigadores. Esta elección refleja el creciente dinamismo de nuestro ecosistema francés de inteligencia artificial, que pretendemos posicionar como líder mundial». Clara Chappaz, Secretaria de Estado de Inteligencia Artificial y Asuntos Digitales En OpenAI, creemos que la inteligencia artificial debería beneficiar a todos, sin importar en qué parte del mundo se encuentren. Como parte del crecimiento de nuestra presencia internacional, estamos encantados de haber abierto una oficina en París y de unirnos al ecosistema francés de IA líder en el mundo.“Francia es reconocida mundialmente por su innovación y liderazgo en tecnología e inteligencia artificial. Estamos entusiasmados de ser parte de su próspero ecosistema. Con un equipo local, podemos trabajar en estrecha colaboración con empresas, instituciones y desarrolladores franceses para ayudarlos a aprovechar los beneficios de la IA. »Sam Altman, director ejecutivo de OpenAI La apertura de la oficina refleja la rápida adopción de la IA en Francia, donde organizaciones, empresas emergentes y empresas ya están utilizando nuestras herramientas para resolver desafíos complejos e impulsar la productividad y la creatividad. Entre ellos: “ Estamos entusiasmados de asociarnos con OpenAI y ChatGPT para llevar los superpoderes de la IA generativa a comunidades desatendidas y subrepresentadas. Al difundir los beneficios de los modelos multilingües y multimodales de vanguardia entre las organizaciones sin fines de lucro, nuestro objetivo es desbloquear todo su potencial y crear un impacto duradero. » Frédéric Bardeau, presidente y cofundador de Simplon Esperamos aprovechar una primera serie de hackatones para seguir apoyando a los desarrolladores, las empresas emergentes y las organizaciones francesas para que puedan compartir los beneficios de la IA.  “ Estamos orgullosos y encantados con el lanzamiento de OpenAI en París. El ecosistema francés de IA ha cobrado un impulso impresionante y creemos que OpenAI fortalecerá aún más su crecimiento. Nuestras empresas en la ESTACIÓN F también han expresado su gran entusiasmo por tener un mayor acceso y proximidad al equipo local de OpenAI. » Roxanne Varza, Directora de ESTACIÓN F. Tener presencia en Francia también nos permite fortalecer nuestra colaboración con el gobierno francés, garantizando que los beneficios de la IA se compartan de manera amplia y responsable. En septiembre, firmamos los compromisos centrales del Pacto Europeo sobre IA, alineados con nuestra misión de ofrecer tecnologías seguras y de vanguardia que aporten valor a todos. “ La apertura de la oficina de OpenAI en París demuestra el atractivo de Francia y la calidad de nuestros talentos e investigadores. Esta elección refleja el creciente dinamismo de nuestro ecosistema francés de inteligencia artificial, que pretendemos posicionar como líder mundial. » Clara Chappaz, Secretaria de Estado de Inteligencia Artificial y Asuntos Digitales. OpenAI News. Traducido al español

Leer más »

Intel impulsa el desarrollo de la IA con contribuciones a PyTorch 2.5

Las nuevas características mejoran la experiencia de programación para los desarrolladores de IA en el centro de datos y el hardware del cliente, ampliando el soporte para las GPU Intel. Los desarrolladores que trabajan en inteligencia artificial (IA) pueden acceder a un soporte ampliado para las GPU de Intel en PyTorch* 2.5, que se lanzó recientemente con contribuciones de Intel. Las GPU compatibles incluyen gráficos discretos Intel® Arc™ , procesadores Intel® Core™ Ultra con gráficos Intel® Arc™ integrados e Intel® Data Center GPU Max Series 1 . Estas nuevas funciones ayudan a promover flujos de trabajo de aprendizaje automático acelerados dentro del ecosistema de PyTorch y brindan una experiencia y un soporte consistentes para los desarrolladores. Los desarrolladores de aplicaciones e investigadores que buscan ajustar, inferir y experimentar con los modelos de PyTorch en las PC Intel Core Ultra AI ahora podrán instalar PyTorch directamente con versiones de vista previa y versiones binarias nocturnas para Windows, Linux y Windows Subsystem for Linux 2. Las nuevas características incluyen: Además, PyTorch 2.5 incorpora mejoras y nuevas funciones para las últimas CPU de centros de datos de Intel. El tipo de datos FP16 está habilitado y optimizado a través de Intel® Advanced Matrix Extensions tanto para el modo entusiasta como para TorchInductor para mejorar las capacidades de inferencia en las últimas plataformas de CPU de centros de datos de Intel, como los procesadores Intel® Xeon® 6. El backend C++ de TorchInductor también está disponible en Windows para brindar una mejor experiencia de usuario a los desarrolladores de IA en entornos Windows. 1 La serie Intel Data Center GPU Max está disponible solo en Intel® Tiber™ AI Cloud Los resultados de rendimiento se basan en pruebas realizadas en las fechas que se muestran en las configuraciones y es posible que no reflejen todas las actualizaciones disponibles públicamente. Consulte la copia de seguridad para obtener detalles de la configuración.Intel no controla ni audita los datos de terceros. Debe consultar otras fuentes para evaluar la precisión. Intel News. Traducido al español

Leer más »

La nueva memoria ultrarrápida potencia los chips para centros de datos de Intel

Cómo Intel y sus socios de la industria encontraron una forma inteligente de duplicar el ancho de banda de memoria de los módulos DRAM estándar, dando rienda suelta a los chips Xeon de gama alta con una solución plug-and-play. Si bien el principal foco de atención de los productos de Intel son los procesadores, o cerebros, que hacen que las computadoras funcionen, la memoria del sistema (es decir, la DRAM) es un componente fundamental para el rendimiento. Esto es especialmente cierto en los servidores, donde la multiplicación de los núcleos de procesamiento ha superado el aumento del ancho de banda de la memoria (en otras palabras, el ancho de banda de memoria disponible por núcleo ha disminuido). En trabajos informáticos pesados, como el modelado meteorológico, la dinámica de fluidos computacional y ciertos tipos de IA, este desajuste podría crear un cuello de botella… hasta ahora. Después de varios años de desarrollo con socios de la industria, los ingenieros de Intel han encontrado una manera de abrir ese cuello de botella, creando una solución novedosa que ha creado la memoria de sistema más rápida de la historia y que está destinada a convertirse en  un nuevo estándar abierto de la industria . Los procesadores para centros de datos Intel® Xeon® 6 recientemente presentados son los primeros en beneficiarse de esta nueva memoria, llamada MRDIMM, para lograr un mayor rendimiento, de la manera más plug-and-play imaginable. Bhanu Jaiswal, gerente de productos Xeon en el grupo Data Center and AI (DCAI) de Intel, explica que “un porcentaje significativo de cargas de trabajo informáticas de alto rendimiento están limitadas por el ancho de banda de la memoria”, el tipo que más se beneficiará con los MRDIMM. Parece demasiado bueno para ser verdad: aquí está la historia detrás del módulo de memoria en línea dual de rango multiplexado DDR5, o MRDIMM para una narración eficiente. Llevando el paralelismo a la memoria del sistema, con amigos Resulta que los módulos de memoria más comunes que se utilizan en los centros de datos, conocidos como RDIMM, sí tienen recursos paralelos integrados, como los procesadores modernos, pero no se utilizan de esa manera. “La mayoría de las DIMM tienen dos niveles de rendimiento y capacidad”, afirma George Vergis, ingeniero principal sénior en búsqueda de rutas de memoria en DCAI. “Es el punto ideal”. Se puede pensar en los rangos como bancos: un conjunto de chips de memoria en un módulo pertenecería a uno y el resto al otro rango. Con las RDIMM, se puede almacenar y acceder a los datos en varios rangos de forma independiente, pero no simultánea. Ante esta situación, recuerda Vergis, “pensamos: ‘Un momento. Tenemos recursos paralelos que no se utilizan. ¿Por qué no podemos juntarlos?’”. La idea que perseguía Vergis era colocar un pequeño chip de interfaz –un multiplexor o “mux”– en el módulo DRAM. Esto permite que los datos fluyan a través de ambos niveles de memoria en la misma unidad de tiempo. El buffer mux consolida la carga eléctrica de cada MRDIMM, lo que permite que la interfaz funcione a una velocidad mayor en comparación con las RDIMM. Y ahora que se puede acceder a ambos rangos de memoria en paralelo, su ancho de banda se ha duplicado. El resultado es la memoria de sistema más rápida jamás creada, un salto que normalmente llevaría varias generaciones de tecnologías de memoria para lograrse (en este caso, el ancho de banda máximo aumenta casi un 40%, de 6.400 megatransferencias por segundo (MT/s) a 8.800 MT/s). El mismo módulo de memoria estándar, pero más rápido En este punto, es posible que usted se pregunte: “¿Está Intel volviendo al negocio de la memoria?” No. Aunque Intel comenzó como una empresa de memoria e inventó tecnologías como EPROM y DRAM, la empresa ha abandonado varios de sus negocios de productos de memoria a lo largo de su historia (algunos de ellos de forma bastante famosa). Pero Intel nunca detuvo sus esfuerzos para que los distintos componentes informáticos sean interoperables y tengan un mayor rendimiento. Vergis representa a Intel en la junta directiva de JEDEC, que establece estándares abiertos para la industria de la microelectrónica, en particular para la memoria.  Vergis ganó un premio JEDEC en 2018  por su trabajo en el estándar DDR5, y ahora mismo está dedicando tiempo al DDR6. (JEDEC también  honró este año al CEO de Intel, Pat Gelsinger,  por su trayectoria como «un firme defensor de los estándares abiertos, como lo demuestra el liderazgo histórico de Intel en el desarrollo de estándares»). Vergis y sus compañeros comenzaron este trabajo en 2018 y probaron el concepto con prototipos en 2021. Intel se asoció con el ecosistema de memoria para construir  los primeros componentes y donó las especificaciones a JEDEC como un nuevo estándar abierto a fines de 2022. Lo que destaca del MRDIMM es su facilidad de uso. Utiliza el mismo conector y factor de forma que un RDIMM normal (incluso los pequeños chips multiplexores caben en los espacios que antes estaban vacíos del módulo), por lo que no requiere cambios en la placa base. Las MRDIMM también incorporan las mismas funciones de corrección de errores y confiabilidad, disponibilidad y capacidad de servicio (RAS) que las RDIMM. La integridad de los datos se mantiene sin importar cómo se multiplexen las solicitudes separadas en el búfer de datos, explica Vergis. Todo esto significa que los clientes de los centros de datos pueden elegir MRDIMM cuando piden un nuevo servidor o, más adelante, pueden sacar ese servidor del rack y cambiar los RDIMM por nuevos MRDIMM. No es necesario cambiar ni una sola línea de código para disfrutar del nuevo rendimiento. Xeon 6 + MRDIMM = 🚀🚀 Lo que se necesita es una CPU que pueda trabajar con MRDIMM, y el primero disponible es el procesador Intel Xeon 6 con núcleos Performance, cuyo nombre en código es Granite Rapids, que llegó al mercado este año. Pruebas independientes recientes  compararon  dos sistemas Xeon 6 idénticos, uno con MRDIMM y el otro con RDIMM. El sistema con MRDIMM completó las tareas hasta un 33 % más rápido.

Leer más »
Scroll al inicio