El Portal de las Tecnologías para la Innovación

Chubut Digital

Tres consideraciones clave para las empresas que implementan una IA ética

La inteligencia artificial (IA) ha crecido exponencialmente y ha transformado las industrias en todo el mundo. A medida que se expanden sus casos de uso, han surgido preocupaciones en torno a la ética, la transparencia de los datos y el cumplimiento normativo. Chloé Wade, vicepresidenta de IDA Ireland, analiza la importancia de los marcos éticos de IA, las pautas regulatorias y las estrategias internas para garantizar una implementación responsable de la IA. La inteligencia artificial (IA) y sus múltiples usos han experimentado un crecimiento exponencial en los últimos años, convirtiéndose en una de las tecnologías más populares y debatidas de la década. Chloé Wade, vicepresidenta de Servicios Financieros Internacionales para el Reino Unido en IDA Ireland, analiza la importancia de implementar directrices internas y cumplir con las nuevas regulaciones gubernamentales, con la idea de que se debe priorizar la IA ética. Los últimos avances en IA y su popularidad han captado la atención mundial, creando titulares y generando debates en todo el mundo. Más de 100 millones de usuarios semanales están acudiendo en masa al Chat GPT de Open AI, y continuamente surgen nuevos casos de uso a medida que se continúa explorando el potencial de esta tecnología, desde su uso en el diagnóstico médico hasta la fabricación de robótica y automóviles autónomos. Un estudio realizado por la Oficina de Estadísticas Nacionales el año pasado descubrió que una de cada seis organizaciones del Reino Unido ha implementado alguna forma de IA, lo que contribuye a un mercado valorado en más de £16.8 mil millones.[1] Este rápido crecimiento plantea interrogantes sobre las implicaciones éticas de esta tecnología. Otro estudio de Forbes Advisor reveló que más de la mitad de la población del Reino Unido está preocupada por el uso de la IA, en particular en lo que respecta a la desinformación, la privacidad, la transparencia y los efectos de desplazamiento. [2] ¿Cuáles son estas preocupaciones, cómo están respondiendo los organismos reguladores y cuáles son las tres consideraciones clave para garantizar un marco ético de IA? Orientación regulatoria proveniente de la UE Una encuesta reciente de YouGov reveló las dos principales preocupaciones en torno a la IA: el 50% de los líderes empresariales del Reino Unido se centran en la futura regulación de la IA y el 46% en el uso de datos no válidos o sesgados. [3] Se están estableciendo nuevas medidas para garantizar que la IA tenga una orientación ética, en particular la Ley de Inteligencia Artificial de la UE de 2024, que entró en vigor oficialmente el 1 de agosto de 2024. A pesar de su naturaleza rígida, varias naciones están desarrollando marcos similares a los de la Comisión Europea para proteger al público y, al mismo tiempo, alentar a las organizaciones a aprovechar los numerosos beneficios de la IA. El Reino Unido ha adoptado un «enfoque pro innovación» para la regulación de la IA, pero aún no ha introducido un estatuto propio. Aunque se propuso un proyecto de ley regulatorio en marzo de 2024, todavía está siendo revisado. De hecho, la Ley de IA de la UE afecta a algunas empresas del Reino Unido: aquellas que «desarrollan o implementan un sistema de IA que se utiliza en la UE», según el CBI. Sin embargo, inculcar valores morales y éticos en estos modelos, especialmente en contextos de toma de decisiones importantes, presenta un desafío. Los códigos éticos en las empresas y los marcos regulatorios son dos formas principales de implementar la ética de la IA. Abordar en profundidad la ética y la responsabilidad en el desarrollo de software de IA puede proporcionar una ventaja competitiva sobre aquellos que descuidan estas cuestiones. Los informes y las evaluaciones se están volviendo esenciales a medida que regulaciones como la Ley de IA de la UE se vuelven efectivas para ayudar a las empresas a gestionar los riesgos asociados con la IA. El espíritu es garantizar que los sistemas de IA ayuden en lugar de reemplazar la toma de decisiones humana. La IA carece de la capacidad de tomar decisiones éticas o comprender los matices morales, lo que hace necesaria la supervisión humana, especialmente en aplicaciones críticas que afectan el bienestar y la justicia social. Se debe alentar el uso de la IA como herramienta para mejorar la eficiencia y la productividad de los trabajadores, al tiempo que se mantiene la alineación con la nueva legislación y los códigos éticos, como el Código de Conducta de BCS. [4] Pasos clave para la implementación interna de una IA ética Irlanda es un país que ha establecido una cantidad sustancial de procesos básicos para prepararse para el esperado crecimiento exponencial a largo plazo del mercado de IA. Con la publicación de la estrategia nacional de IA ‘AI—Here for Good’ [5], el gobierno irlandés espera que las organizaciones civiles y de servicio público adopten la IA de manera responsable e innovadora para mejorar la prestación de los servicios públicos actuales y nuevos. Irlanda ha ordenado que todas las aplicaciones de IA dentro del servicio público se adhieran a siete pautas éticas de IA, como se describe por el Grupo de expertos de alto nivel de la Comisión Europea sobre IA en sus Pautas éticas para una IA confiable. [6] Pero, ¿qué deberían hacer las empresas internamente? Las empresas deben reconocer en primer lugar la naturaleza cooperativa de la IA y cómo se pueden crear impactos positivos. Durante las etapas preliminares de implementación, los líderes empresariales deben abordar cómo procesan, almacenan y extraen datos dentro de su ecosistema de valor. Dado que los objetivos organizacionales y las estrategias corporativas difieren entre las empresas, se deben explorar las capacidades de modelos de IA específicos, incluidos los modelos de aprendizaje automático (ML) y los modelos generativos, para determinar el uso óptimo de esta tecnología dentro de las operaciones. Existen varias estrategias que pueden aumentar la confiabilidad del software de IA. La evaluación de riesgos es un aspecto fundamental de estos procesos, como herramienta para que los desarrolladores e ingenieros de sistemas determinen si los casos de uso son de alto

Tres consideraciones clave para las empresas que implementan una IA ética Leer más »

China Telecom entrena un modelo de inteligencia artificial de 1 billón de parámetros usando chips nacionales

La estatal China Telecom entrena dos importantes modelos de inteligencia artificial de gran lenguaje utilizando completamente chips nacionales mientras el país aumenta su autosuficiencia Una importante empresa estatal de telecomunicaciones china dijo que ha entrenado dos modelos de lenguaje grande (LLM) usando completamente procesadores nacionales, una indicación del progreso del país en el desarrollo de semiconductores que pueden usarse para tareas avanzadas de IA en medio de las sanciones estadounidenses . Según se informa, la empresa matriz de TikTok, ByteDance, también estaba planeando desarrollar un modelo de IA entrenado principalmente con chips nacionales de Huawei. El Instituto de IA de China Telecom , una de las principales empresas de telecomunicaciones respaldadas por el estado de China, dijo que el TeleChat2-115B de código abierto y un segundo modelo sin nombre fueron entrenados utilizando decenas de miles de chips producidos nacionalmente. El logro “indica que China ha alcanzado verdaderamente la autosuficiencia total en la formación LLM nacional” y marca una nueva fase en la innovación y autosuficiencia de China, dijo el instituto de IA en un comunicado. Entrenamiento de IA El modelo sin nombre tiene 1 billón de parámetros, mientras que TeleChat2t-115B tiene más de 100 mil millones de parámetros, dijo China Telecom. La empresa no dijo quién suministró los chips, pero anteriormente dijo que estaba usando procesadores Ascend de Huawei Technologies, sancionada por Estados Unidos. ByteDance, la empresa matriz con sede en Beijing de la aplicación de redes sociales TikTok, estaría planeando entrenar un LLM usando chips Huawei Ascend 910B, informó Reuters, citando fuentes anónimas. La compañía ya utiliza los chips para tareas menos intensivas que involucran modelos de IA previamente entrenados que hacen predicciones, según el informe. Según se informa, el nuevo modelo será menos potente que el modelo de inteligencia artificial existente de ByteDance, Doubao, que se ha convertido en una de las herramientas de inteligencia artificial más populares del país, con 10 millones de usuarios activos mensuales. ByteDance ha pedido más de 100.000 chips Ascend este año, pero ha recibido menos de 30.000 hasta julio, lo que le impide establecer un cronograma para el nuevo modelo, según el informe. Chips nacionales ByteDance es uno de los mayores compradores de chips de inteligencia artificial de Huawei, y también es el mayor comprador del chip H20 de Nvidia, diseñado específicamente para el mercado chino para cumplir con las sanciones estadounidenses, según el informe de Reuters. La empresa también es el mayor cliente de Microsoft en Asia para la potencia de procesamiento de Nvidia disponible a través de la computación en la nube, según el periódico. Huawei ha comenzado a ofrecer muestras de su nuevo procesador Ascend 910C AI a grandes empresas de servidores chinas para pruebas y configuración de hardware, informó el South China Morning Post la semana pasada. La versión mejorada del 910B se está ofreciendo a grandes empresas de Internet que también son clientes importantes de Nvidia, afirmó el periódico, citando fuentes anónimas. Estados Unidos comenzó a prohibir la venta de chips avanzados a empresas chinas en 2022 y ha ampliado las sanciones para incluir más chips y tecnología de fabricación de chips de proveedores estadounidenses, holandeses y japoneses. NetMedia Internacional. Inglaterra. M.B. Traducido al español

China Telecom entrena un modelo de inteligencia artificial de 1 billón de parámetros usando chips nacionales Leer más »

NVIDIA y Oracle acelerarán la inteligencia artificial y el procesamiento de datos para las empresas

Oracle anunció el primer supercúmulo OCI a escala zetta acelerado por la plataforma NVIDIA Blackwell, que permite a los clientes entrenar e implementar modelos de IA de próxima generación a escala. Las empresas buscan una computación cada vez más potente para respaldar sus cargas de trabajo de IA y acelerar el procesamiento de datos. La eficiencia obtenida puede traducirse en mejores retornos para sus inversiones en entrenamiento y ajuste de IA, y en mejores experiencias de usuario para la inferencia de IA. En la conferencia Oracle CloudWorld de hoy, Oracle Cloud Infrastructure (OCI) anunció el primer superclúster OCI de escala zetta, acelerado por la plataforma NVIDIA Blackwell , para ayudar a las empresas a entrenar e implementar modelos de IA de próxima generación utilizando más de 100 000 GPU de última generación de NVIDIA. Los superclusters OCI permiten a los clientes elegir entre una amplia gama de GPU NVIDIA e implementarlas en cualquier lugar: en las instalaciones, en la nube pública y en la nube soberana. Los sistemas basados ​​en Blackwell, cuya disponibilidad está prevista para la primera mitad del año próximo, pueden escalar hasta 131.072 GPU Blackwell con NIC NVIDIA ConnectX-7 para redes RoCEv2 o NVIDIA Quantum-2 InfiniBand para ofrecer una asombrosa cantidad de 2,4 zettaflops de computación de IA máxima en la nube. (Lea el comunicado de prensa para obtener más información sobre los superclusters OCI). En la feria, Oracle también presentó una vista previa de las instancias NVIDIA GB200 NVL72 refrigeradas por líquido para ayudar a impulsar aplicaciones de IA generativas . Las instancias son capaces de realizar entrenamiento a gran escala con Quantum-2 InfiniBand e inferencia en tiempo real de modelos de billones de parámetros dentro del dominio NVIDIA NVLink de 72 GPU ampliado , que puede actuar como una única GPU masiva. Este año, OCI ofrecerá NVIDIA HGX H200 , que conecta ocho GPU NVIDIA H200 Tensor Core en una única instancia de hardware a través de NVLink y NVLink Switch, y escala a 65 536 GPU H200 con NIC NVIDIA ConnectX-7 a través de redes de clúster RoCEv2. La instancia está disponible para pedidos de clientes que buscan ofrecer inferencia en tiempo real a escala y acelerar sus cargas de trabajo de capacitación. (Lea un blog sobre los superclústeres de OCI con GPU NVIDIA B200, GB200 y H200). OCI también anunció la disponibilidad general de instancias aceleradas por GPU NVIDIA L40S para cargas de trabajo de IA de rango medio, NVIDIA Omniverse y visualización. (Lea un blog sobre los supercúmulos de OCI con GPU NVIDIA L40S). Para soluciones de un solo nodo a varios racks, las ofertas de borde de Oracle brindan IA escalable en el borde acelerada por GPU NVIDIA, incluso en ubicaciones remotas y desconectadas. Por ejemplo, las implementaciones a menor escala con Roving Edge Device v2 de Oracle ahora admitirán hasta tres GPU NVIDIA L4 Tensor Core . Las empresas están utilizando los superclusters OCI con tecnología NVIDIA para impulsar la innovación en inteligencia artificial. La startup Reka, por ejemplo, está utilizando los clústeres para desarrollar modelos avanzados de inteligencia artificial multimodal para desarrollar agentes empresariales. “Los modelos de IA multimodales de Reka, creados con tecnología OCI y NVIDIA, permiten a los agentes empresariales de última generación leer, ver, oír y hablar para comprender nuestro complejo mundo”, afirmó Dani Yogatama, cofundador y director ejecutivo de Reka. “Con la infraestructura acelerada por GPU de NVIDIA, podemos manejar modelos muy grandes y contextos extensos con facilidad, al mismo tiempo que permitimos que el entrenamiento denso y disperso se escale de manera eficiente a niveles de clúster”. NVIDIA recibió el premio Oracle Technology Solution Partner Award en Innovación 2024 por su enfoque integral hacia la innovación. Aceleración de las cargas de trabajo de bases de datos Oracle con inteligencia artificial generativa Oracle Autonomous Database está obteniendo soporte de GPU NVIDIA para portátiles Oracle Machine Learning para permitir que los clientes aceleren sus cargas de trabajo de procesamiento de datos en Oracle Autonomous Database. En Oracle CloudWorld, NVIDIA y Oracle se asocian para demostrar tres capacidades que muestran cómo la plataforma de computación acelerada de NVIDIA podría usarse hoy o en el futuro para acelerar los componentes clave de los canales de generación aumentada de recuperación de IA generativa . El primero mostrará cómo se pueden usar las GPU NVIDIA para acelerar las incorporaciones masivas de vectores directamente desde Oracle Autonomous Database Serverless para acercar de manera eficiente los datos empresariales a la IA. Estos vectores se pueden buscar mediante la búsqueda de vectores de IA de Oracle Database 23ai. La segunda demostración mostrará un prototipo de prueba de concepto que utiliza GPU NVIDIA, NVIDIA cuVS y un marco de descarga desarrollado por Oracle para acelerar la generación de índices de gráficos vectoriales, lo que reduce significativamente el tiempo necesario para crear índices para búsquedas vectoriales eficientes. La tercera demostración ilustra cómo NVIDIA NIM , un conjunto de microservicios de inferencia fáciles de usar, puede mejorar el rendimiento de la IA generativa para casos de uso de generación y traducción de texto en una variedad de tamaños de modelos y niveles de concurrencia. En conjunto, estas nuevas capacidades y demostraciones de Oracle Database resaltan cómo se pueden usar las GPU NVIDIA para ayudar a las empresas a incorporar IA generativa a sus datos estructurados y no estructurados alojados o administrados por una Oracle Database. Inteligencia artificial soberana en todo el mundo NVIDIA y Oracle están colaborando para ofrecer infraestructura de IA soberana en todo el mundo, ayudando a abordar las necesidades de residencia de datos de gobiernos y empresas. La startup brasileña Wide Labs entrenó e implementó Amazonia IA, uno de los primeros modelos de lenguaje de gran tamaño para portugués brasileño, utilizando GPU NVIDIA H100 Tensor Core y el marco NVIDIA NeMo en los centros de datos brasileños de OCI para ayudar a garantizar la soberanía de los datos. “El desarrollo de un LLM soberano nos permite ofrecer a los clientes un servicio que procesa sus datos dentro de las fronteras brasileñas, lo que le otorga a Amazônia una posición única en el mercado”, afirmó Nelson Leoni, director ejecutivo de Wide Labs. “Usando el marco NVIDIA NeMo, capacitamos con éxito a Amazônia IA”. En Japón, Nomura Research Institute, un proveedor líder

NVIDIA y Oracle acelerarán la inteligencia artificial y el procesamiento de datos para las empresas Leer más »

Scroll al inicio