El Portal de las Tecnologías para la Innovación

Chubut Digital

China Telecom entrena un modelo de inteligencia artificial de 1 billón de parámetros usando chips nacionales

La estatal China Telecom entrena dos importantes modelos de inteligencia artificial de gran lenguaje utilizando completamente chips nacionales mientras el país aumenta su autosuficiencia Una importante empresa estatal de telecomunicaciones china dijo que ha entrenado dos modelos de lenguaje grande (LLM) usando completamente procesadores nacionales, una indicación del progreso del país en el desarrollo de semiconductores que pueden usarse para tareas avanzadas de IA en medio de las sanciones estadounidenses . Según se informa, la empresa matriz de TikTok, ByteDance, también estaba planeando desarrollar un modelo de IA entrenado principalmente con chips nacionales de Huawei. El Instituto de IA de China Telecom , una de las principales empresas de telecomunicaciones respaldadas por el estado de China, dijo que el TeleChat2-115B de código abierto y un segundo modelo sin nombre fueron entrenados utilizando decenas de miles de chips producidos nacionalmente. El logro “indica que China ha alcanzado verdaderamente la autosuficiencia total en la formación LLM nacional” y marca una nueva fase en la innovación y autosuficiencia de China, dijo el instituto de IA en un comunicado. Entrenamiento de IA El modelo sin nombre tiene 1 billón de parámetros, mientras que TeleChat2t-115B tiene más de 100 mil millones de parámetros, dijo China Telecom. La empresa no dijo quién suministró los chips, pero anteriormente dijo que estaba usando procesadores Ascend de Huawei Technologies, sancionada por Estados Unidos. ByteDance, la empresa matriz con sede en Beijing de la aplicación de redes sociales TikTok, estaría planeando entrenar un LLM usando chips Huawei Ascend 910B, informó Reuters, citando fuentes anónimas. La compañía ya utiliza los chips para tareas menos intensivas que involucran modelos de IA previamente entrenados que hacen predicciones, según el informe. Según se informa, el nuevo modelo será menos potente que el modelo de inteligencia artificial existente de ByteDance, Doubao, que se ha convertido en una de las herramientas de inteligencia artificial más populares del país, con 10 millones de usuarios activos mensuales. ByteDance ha pedido más de 100.000 chips Ascend este año, pero ha recibido menos de 30.000 hasta julio, lo que le impide establecer un cronograma para el nuevo modelo, según el informe. Chips nacionales ByteDance es uno de los mayores compradores de chips de inteligencia artificial de Huawei, y también es el mayor comprador del chip H20 de Nvidia, diseñado específicamente para el mercado chino para cumplir con las sanciones estadounidenses, según el informe de Reuters. La empresa también es el mayor cliente de Microsoft en Asia para la potencia de procesamiento de Nvidia disponible a través de la computación en la nube, según el periódico. Huawei ha comenzado a ofrecer muestras de su nuevo procesador Ascend 910C AI a grandes empresas de servidores chinas para pruebas y configuración de hardware, informó el South China Morning Post la semana pasada. La versión mejorada del 910B se está ofreciendo a grandes empresas de Internet que también son clientes importantes de Nvidia, afirmó el periódico, citando fuentes anónimas. Estados Unidos comenzó a prohibir la venta de chips avanzados a empresas chinas en 2022 y ha ampliado las sanciones para incluir más chips y tecnología de fabricación de chips de proveedores estadounidenses, holandeses y japoneses. NetMedia Internacional. Inglaterra. M.B. Traducido al español

China Telecom entrena un modelo de inteligencia artificial de 1 billón de parámetros usando chips nacionales Leer más »

NVIDIA y Oracle acelerarán la inteligencia artificial y el procesamiento de datos para las empresas

Oracle anunció el primer supercúmulo OCI a escala zetta acelerado por la plataforma NVIDIA Blackwell, que permite a los clientes entrenar e implementar modelos de IA de próxima generación a escala. Las empresas buscan una computación cada vez más potente para respaldar sus cargas de trabajo de IA y acelerar el procesamiento de datos. La eficiencia obtenida puede traducirse en mejores retornos para sus inversiones en entrenamiento y ajuste de IA, y en mejores experiencias de usuario para la inferencia de IA. En la conferencia Oracle CloudWorld de hoy, Oracle Cloud Infrastructure (OCI) anunció el primer superclúster OCI de escala zetta, acelerado por la plataforma NVIDIA Blackwell , para ayudar a las empresas a entrenar e implementar modelos de IA de próxima generación utilizando más de 100 000 GPU de última generación de NVIDIA. Los superclusters OCI permiten a los clientes elegir entre una amplia gama de GPU NVIDIA e implementarlas en cualquier lugar: en las instalaciones, en la nube pública y en la nube soberana. Los sistemas basados ​​en Blackwell, cuya disponibilidad está prevista para la primera mitad del año próximo, pueden escalar hasta 131.072 GPU Blackwell con NIC NVIDIA ConnectX-7 para redes RoCEv2 o NVIDIA Quantum-2 InfiniBand para ofrecer una asombrosa cantidad de 2,4 zettaflops de computación de IA máxima en la nube. (Lea el comunicado de prensa para obtener más información sobre los superclusters OCI). En la feria, Oracle también presentó una vista previa de las instancias NVIDIA GB200 NVL72 refrigeradas por líquido para ayudar a impulsar aplicaciones de IA generativas . Las instancias son capaces de realizar entrenamiento a gran escala con Quantum-2 InfiniBand e inferencia en tiempo real de modelos de billones de parámetros dentro del dominio NVIDIA NVLink de 72 GPU ampliado , que puede actuar como una única GPU masiva. Este año, OCI ofrecerá NVIDIA HGX H200 , que conecta ocho GPU NVIDIA H200 Tensor Core en una única instancia de hardware a través de NVLink y NVLink Switch, y escala a 65 536 GPU H200 con NIC NVIDIA ConnectX-7 a través de redes de clúster RoCEv2. La instancia está disponible para pedidos de clientes que buscan ofrecer inferencia en tiempo real a escala y acelerar sus cargas de trabajo de capacitación. (Lea un blog sobre los superclústeres de OCI con GPU NVIDIA B200, GB200 y H200). OCI también anunció la disponibilidad general de instancias aceleradas por GPU NVIDIA L40S para cargas de trabajo de IA de rango medio, NVIDIA Omniverse y visualización. (Lea un blog sobre los supercúmulos de OCI con GPU NVIDIA L40S). Para soluciones de un solo nodo a varios racks, las ofertas de borde de Oracle brindan IA escalable en el borde acelerada por GPU NVIDIA, incluso en ubicaciones remotas y desconectadas. Por ejemplo, las implementaciones a menor escala con Roving Edge Device v2 de Oracle ahora admitirán hasta tres GPU NVIDIA L4 Tensor Core . Las empresas están utilizando los superclusters OCI con tecnología NVIDIA para impulsar la innovación en inteligencia artificial. La startup Reka, por ejemplo, está utilizando los clústeres para desarrollar modelos avanzados de inteligencia artificial multimodal para desarrollar agentes empresariales. “Los modelos de IA multimodales de Reka, creados con tecnología OCI y NVIDIA, permiten a los agentes empresariales de última generación leer, ver, oír y hablar para comprender nuestro complejo mundo”, afirmó Dani Yogatama, cofundador y director ejecutivo de Reka. “Con la infraestructura acelerada por GPU de NVIDIA, podemos manejar modelos muy grandes y contextos extensos con facilidad, al mismo tiempo que permitimos que el entrenamiento denso y disperso se escale de manera eficiente a niveles de clúster”. NVIDIA recibió el premio Oracle Technology Solution Partner Award en Innovación 2024 por su enfoque integral hacia la innovación. Aceleración de las cargas de trabajo de bases de datos Oracle con inteligencia artificial generativa Oracle Autonomous Database está obteniendo soporte de GPU NVIDIA para portátiles Oracle Machine Learning para permitir que los clientes aceleren sus cargas de trabajo de procesamiento de datos en Oracle Autonomous Database. En Oracle CloudWorld, NVIDIA y Oracle se asocian para demostrar tres capacidades que muestran cómo la plataforma de computación acelerada de NVIDIA podría usarse hoy o en el futuro para acelerar los componentes clave de los canales de generación aumentada de recuperación de IA generativa . El primero mostrará cómo se pueden usar las GPU NVIDIA para acelerar las incorporaciones masivas de vectores directamente desde Oracle Autonomous Database Serverless para acercar de manera eficiente los datos empresariales a la IA. Estos vectores se pueden buscar mediante la búsqueda de vectores de IA de Oracle Database 23ai. La segunda demostración mostrará un prototipo de prueba de concepto que utiliza GPU NVIDIA, NVIDIA cuVS y un marco de descarga desarrollado por Oracle para acelerar la generación de índices de gráficos vectoriales, lo que reduce significativamente el tiempo necesario para crear índices para búsquedas vectoriales eficientes. La tercera demostración ilustra cómo NVIDIA NIM , un conjunto de microservicios de inferencia fáciles de usar, puede mejorar el rendimiento de la IA generativa para casos de uso de generación y traducción de texto en una variedad de tamaños de modelos y niveles de concurrencia. En conjunto, estas nuevas capacidades y demostraciones de Oracle Database resaltan cómo se pueden usar las GPU NVIDIA para ayudar a las empresas a incorporar IA generativa a sus datos estructurados y no estructurados alojados o administrados por una Oracle Database. Inteligencia artificial soberana en todo el mundo NVIDIA y Oracle están colaborando para ofrecer infraestructura de IA soberana en todo el mundo, ayudando a abordar las necesidades de residencia de datos de gobiernos y empresas. La startup brasileña Wide Labs entrenó e implementó Amazonia IA, uno de los primeros modelos de lenguaje de gran tamaño para portugués brasileño, utilizando GPU NVIDIA H100 Tensor Core y el marco NVIDIA NeMo en los centros de datos brasileños de OCI para ayudar a garantizar la soberanía de los datos. “El desarrollo de un LLM soberano nos permite ofrecer a los clientes un servicio que procesa sus datos dentro de las fronteras brasileñas, lo que le otorga a Amazônia una posición única en el mercado”, afirmó Nelson Leoni, director ejecutivo de Wide Labs. “Usando el marco NVIDIA NeMo, capacitamos con éxito a Amazônia IA”. En Japón, Nomura Research Institute, un proveedor líder

NVIDIA y Oracle acelerarán la inteligencia artificial y el procesamiento de datos para las empresas Leer más »

Scroll al inicio