El Portal de las Tecnologías para la Innovación

Categoría: Papers de Investigación Científica

La contaminación del aire y los costos de la IA para la salud pública

Con la creciente adopción de modelos de lenguaje de gran tamaño, como ChatGPT de OpenAI, la enorme huella ambiental de la inteligencia artificial (IA) es cada vez más noticia. Este costo se suele analizar en términos de electricidad consumida, carbono liberado a la atmósfera y agua necesaria para operar centros de datos masivos. Pero la IA tiene un coste oculto que es necesario tener en cuenta: el impacto en la salud pública asociado al aumento de la contaminación del aire, según afirma un nuevo estudio realizado por científicos de Caltech y UC Riverside (UCR) publicado en línea el 9 de diciembre en el servidor de preimpresión arXiv. Se estima que esta contaminación del aire provocará hasta 1.300 muertes prematuras al año en Estados Unidos en 2030. Los costos totales de salud pública derivados del cáncer, el asma y otras enfermedades, así como las ausencias en el trabajo y en la escuela, se acercan a los 20.000 millones de dólares al año. «Cuando hablamos de los costos de la IA, se ha puesto mucho énfasis en las mediciones de aspectos como el uso de carbono y agua. Y si bien esos costos son realmente importantes, no son lo que afectará a las comunidades locales donde se están construyendo los centros de datos», dice Adam Wierman , profesor Carl F Braun de Ciencias de la Computación y Matemáticas y director de Ciencias de la Información y Tecnología en Caltech, quien es uno de los autores correspondientes del artículo. «La salud es una forma de centrarse en el impacto local que estos centros de datos están teniendo en sus comunidades y comprender, cuantificar y gestionar esos impactos, que son significativos». Wierman señala que la IA va a ser una parte importante de nuestras vidas y ofrecerá beneficios claros que tienen el potencial de mejorar los sistemas sociales. «Al mismo tiempo», dice, «debemos asegurarnos de que tenemos nuestra casa en orden y de que los impactos negativos que se derivan de ella se reconozcan, cuantifiquen, minimicen y compartan de manera equitativa». Los autores, entre ellos Shaolei Ren , profesor asociado de ingeniería eléctrica e informática de la UCR, recomiendan que se adopten normas y métodos que obliguen a las empresas tecnológicas a informar sobre la contaminación del aire causada por su consumo de energía y sus generadores de respaldo. Los investigadores recomiendan además que las empresas tecnológicas compensen adecuadamente a las comunidades más afectadas por la contaminación del aire por la carga sanitaria causada por la producción de electricidad de los centros de procesamiento de datos. Los autores también descubrieron que la contaminación del aire derivada de la IA afecta desproporcionadamente a ciertas comunidades de bajos ingresos, en parte debido a su proximidad a las centrales eléctricas o a los generadores de respaldo en los centros de procesamiento de datos. Además, la contaminación se propaga a través de las fronteras de los condados y estados, lo que genera impactos en la salud de comunidades de todo el mundo, dice Ren. «Los centros de datos pagan impuestos locales sobre la propiedad al condado donde operan», dice Ren, «pero este impacto en la salud no se limita a una pequeña comunidad. En realidad, se extiende a todo el país, por lo que esos otros lugares no reciben ninguna compensación». Por ejemplo, la contaminación de los generadores de reserva de los centros de datos del norte de Virginia se traslada a Maryland, Virginia Occidental, Pensilvania, Nueva York, Nueva Jersey, Delaware y el Distrito de Columbia, lo que genera unos costes de salud pública regionales de entre 190 y 260 millones de dólares al año. Si estos generadores de reserva emiten al nivel máximo permitido, los costes anuales se multiplicarán por diez y alcanzarán entre 1.900 y 2.600 millones de dólares. En algunas áreas, el costo de salud pública asociado con los centros de procesamiento de IA puede exceder lo que las empresas tecnológicas pagan por la electricidad, muestra el estudio. A medida que las empresas tecnológicas compiten por ofrecer servicios de inteligencia artificial que están transformando la forma en que trabajamos y nos divertimos, se espera que la contaminación del aire resultante en forma de partículas finas que penetran en los pulmones (aquellas de menos de 2,5 micrómetros) y otros contaminantes regulados por el gobierno federal, como los óxidos de nitrógeno, aumente drásticamente. Se espera que la carga para la salud pública sea el doble de la de la industria siderúrgica estadounidense para 2030, cuando podría rivalizar con la de todos los automóviles, autobuses y camiones de California, según proyecta el estudio. «El crecimiento de la IA está impulsando un enorme aumento en la demanda de centros de datos y energía, lo que lo convierte en el sector de consumo de energía de más rápido crecimiento en todas las industrias», afirma Ren. Como ejemplo, los científicos calcularon las emisiones derivadas del entrenamiento de un modelo de lenguaje grande (LLM, por sus siglas en inglés) a escala de Llama-3.1 de Meta, un modelo de lenguaje avanzado de peso abierto lanzado por la empresa matriz de Facebook en julio para competir con los principales modelos propietarios como el GPT-4 de OpenAI. Los investigadores descubrieron que generar la electricidad necesaria para entrenar este modelo producía una contaminación del aire equivalente a más de 10.000 viajes de ida y vuelta en coche entre Los Ángeles y la ciudad de Nueva York. Los autores calcularon los costos para la salud, incluidas las muertes prematuras, utilizando métodos estadísticos desarrollados por la Agencia de Protección Ambiental de Estados Unidos; estos métodos tienen en cuenta los riesgos epidemiológicos conocidos asociados con la contaminación del aire proveniente de las centrales eléctricas y los generadores diésel de respaldo. Las 1.300 muertes anuales esperadas para 2030 representan el punto medio de un rango entre 940 y 1.590. «Si tienes familiares con asma u otros problemas de salud, la contaminación del aire de estos centros de datos podría estar afectándolos en este momento. Es un problema de salud pública que debemos abordar con urgencia», afirma Ren. Otros autores de «El costo no pagado: cuantificación

Leer más »

Diseños de automóviles más eficientes con IA

El diseño de nuevos vehículos es costoso y lleva mucho tiempo, por lo que los fabricantes suelen realizar cambios menores de una generación de modelos a la siguiente. Con DriverAerNet++, investigadores de la Universidad Técnica de Múnich (TUM) y del Instituto Tecnológico de Massachusetts (MIT) han desarrollado la mayor base de datos de código abierto para el diseño aerodinámico de vehículos. Más de 8000 modelos que representan los tipos de vehículos más comunes permitirán crear diseños más eficientes con la ayuda de la inteligencia artificial. El objetivo es hacer que los procesos de desarrollo sean más rentables, al tiempo que se mejora la eficiencia del combustible y se logran avances en los vehículos eléctricos. Los fabricantes de automóviles suelen invertir muchos años en el diseño de un vehículo. Esto comienza con simulaciones utilizando modelos 3D antes de probar los diseños más prometedores en el túnel de viento. Los detalles y especificaciones de estas pruebas, incluida la aerodinámica de un diseño determinado, generalmente no se hacen públicos. En consecuencia, el progreso en áreas como la eficiencia de combustible o la autonomía de los vehículos eléctricos tiende a ser lento y limitado a las empresas individuales. Diseños de automóviles utilizando IA generativa Como punto de partida para DrivAerNet++, los investigadores utilizaron modelos 3D de 2014 proporcionados por Audi y BMW y que representan distintas formas de carrocería. Además, se ajustaron sistemáticamente 26 parámetros como la longitud, las características de los bajos y el ángulo del parabrisas. El equipo también realizó complejas simulaciones del flujo de aire para calcular la resistencia al viento para los distintos diseños de automóviles generados. El objetivo era utilizar DriverAerNet++ como datos de entrenamiento para la IA generativa. Esto permite analizar enormes cantidades de datos en segundos para generar diseños innovadores. Aunque ya existen herramientas de este tipo, en el pasado los datos necesarios no estaban disponibles de forma gratuita. Mayor eficiencia de combustible y avances con los coches eléctricos Angela Dai, profesora de Inteligencia Artificial 3D en la TUM, afirma: “Nuestro conjunto de datos se puede utilizar como una amplia biblioteca para generar nuevos diseños rápidamente con la ayuda de modelos de IA con el objetivo de diseñar automóviles más eficientes en términos de combustible en el futuro o mejorar la autonomía de los vehículos eléctricos”. Mohamed Elrefaie, primer autor del estudio, afirma: “Este conjunto de datos sienta las bases para la próxima generación de aplicaciones de IA en el diseño automotriz, promueve procesos de diseño eficientes, reduce los costos de I+D y promoverá el progreso hacia un futuro automotriz más sostenible». TUM News. Traducido al español

Leer más »

Más frío que el espacio exterior y cubierto de oro: la UCPH alberga la computadora cuántica más grande de Dinamarca

Investigadores de renombre mundial tenían sus ojos puestos en Copenhague cuando Niels Bohr cambió el mundo con sus teorías de física cuántica. La investigación cuántica en la UCPH vuelve a atraer la atención internacional. En un nuevo proyecto de gran envergadura, el profesor asociado Morten Kjaergaard y su equipo han construido los ordenadores cuánticos más grandes de Dinamarca. Ahora empiezan a experimentar. Cuando el diminuto chip de la computadora cuántica alcanza los -273 grados, se produce la magia. Las partículas comienzan a comportarse de acuerdo con las inescrutables leyes de la física cuántica. Sin embargo, a pesar de su naturaleza desconcertante, estas leyes también brindan a las computadoras cuánticas el potencial para abordar algunos de los mayores desafíos del mundo. «Si la mecánica cuántica no te ha impactado profundamente, no la has entendido», dijo el físico danés Niels Bohr hace casi un siglo. Pero el profesor asociado Morten Kjaergaard, de la Universidad de Copenhague, mantiene el pulso firme mientras diseña el desarrollo de los ordenadores cuánticos más potentes de Dinamarca. Si la mecánica cuántica no te ha impactado profundamente, no la has entendido. La aventura comenzó en 2007, cuando Morten Kjaergaard era estudiante de física. Ahora dirige una gran iniciativa cuántica en la Universidad de Copenhague.Morten Kjaergaard aparece en la imagen debajo de uno de los ordenadores cuánticos, que están suspendidos de 200 kilos de aluminio en el techo para evitar vibraciones molestas. Este año, él y su grupo de investigación están dando un gran paso adelante al poner en funcionamiento uno de los ordenadores cuánticos más grandes de Europa. Su objetivo es explorar cómo se pueden aplicar los principios de Bohr a un tipo de superordenador totalmente nuevo. Los desafíos son numerosos y nadie conoce aún todo el potencial de las computadoras cuánticas. ¿Pueden acelerar la transición ecológica? ¿Enseñarnos más sobre los componentes fundamentales del universo? ¿O allanar el camino para una investigación bioquímica más eficiente para desarrollar medicamentos? Los científicos y los líderes mundiales tienen grandes esperanzas. En apenas unos años, Copenhague ha vuelto a convertirse en un centro de investigación cuántica internacional, como en la época de Niels Bohr hace cien años. Cuando el nuevo centro de computación cuántica alcance su capacidad máxima, los dos nuevos ordenadores cuánticos podrán estudiar hasta 25 bits cuánticos (o cúbits) simultáneamente, es decir, aproximadamente cinco veces más que el segundo ordenador cuántico más grande de Dinamarca en la actualidad. Computadora versus computadora cuántica En 2019, Google logró utilizar 53 cúbits superconductores en un ordenador cuántico para realizar un cálculo en tan solo tres minutos. Se estima que el superordenador más grande del mundo tardaría unas cuatro semanas en realizar el mismo cálculo, incluso si funcionara a plena capacidad. La supercomputadora Summit de IBM tiene miles de millones de bits ordinarios y está construida alrededor de miles de servidores conectados. Ocupa nada menos que 520 metros cuadrados y pesa más de 340 toneladas. Un ordenador cuántico, con todo el equipamiento incluido, pesa unos cientos de kilos y cabe sin problemas en un espacio de oficina estándar. El ordenador cuántico abierto y brillante es algo poco común incluso para los investigadores. Cuando se enciende, está envuelto en múltiples capas de aislamiento para mantener el nivel de temperatura de congelación que es esencial para que funcione. Cuando se reemplaza un componente, se eliminan las capas de aislamiento y el criostato debe calentarse lo suficiente para funcionar. Cuando se reemplaza el componente y se sella el ordenador, comienza el largo proceso de enfriamiento. Muchos de los componentes del ordenador están recubiertos de oro. El oro refleja el calor y lo mantiene alejado de las partes del ordenador que necesitan estar cerca del cero absoluto para funcionar.El mecanico Morten Kjaergaard se define a sí mismo como un mecánico cuántico. Está particularmente interesado en el desarrollo y la construcción de la mecánica real –los bloques de construcción fundamentales– de un ordenador cuántico. Como profesor asociado y líder del grupo de proyecto en QDev – Center for Quantum Devices y NQCP – Novo Nordisk Foundation Quantum Computing Programme, actualmente está involucrado en la construcción del nuevo ordenador cuántico. Junto con un gran equipo de investigadores y estudiantes, Morten Kjaergaard está decidido a hacer que los cúbits sean más estables y utilizables. Cuando era estudiante, era difícil imaginar que un día Dinamarca acogería proyectos multimillonarios para desarrollar ordenadores cuánticos.El chip cuántico tiene el tamaño de la uña del dedo meñique. En el patrón que forma los cúbits, los investigadores han colocado material superconductor que se comporta de manera cuántica a las temperaturas adecuadas. El material puede ser, por ejemplo, aluminio. Al mismo tiempo, los investigadores están experimentando con el corte de diferentes patrones en el chip, ya que el patrón es crucial para el comportamiento de las partículas. Frío extremo Un ordenador cuántico como éste consta de un congelador –un criostato– con un chip cuántico en la parte inferior. Han sido necesarios tres descubrimientos que merecieron el Premio Nobel para conseguir que un criostato fuera lo suficientemente frío como para que funcionara un ordenador cuántico. El enfriamiento se realiza mediante helio. Los últimos grados de refrigeración hacia el cero absoluto se consiguen mediante dos cilindros situados a la derecha de la imagen. Detrás de uno de los otros componentes clave se encuentra una startup danesa originaria de la UCPH.Cada detalle está cuidadosamente planificado. La construcción de ordenadores cuánticos avanzados requiere tanto ingenio práctico como una planificación meticulosa. Antes de suspender los ordenadores, el grupo de investigación ha planificado cuidadosamente cada detalle y seleccionado todos los componentes de los ordenadores. El trabajo de una semana se condensa en un minuto: https://video.ku.dk/v.ihtml/player.html?token=459ba14aca315110d1f5a4dba108b00e&source=embed&photo%5fid=103390721Dos especialistas habían llegado desde Finlandia para ayudar al equipo de SQuID a instalar el sistema informático cuántico. Otros empleados de la UCPH también prestaron su ayuda. La culminación de años y meses de trabajo.Enfoque experimental El viaje de Morten Kjaergaard hacia el mundo de los ordenadores cuánticos comenzó en 2007. Un comentario casual sobre los ordenadores cuánticos por parte de un profesor en uno de sus primeros cursos

Leer más »

Financiación de proyectos: ¿Cómo conseguimos ordenadores cuánticos de bolsillo?

FAU Física recibe más de 900.000 euros de financiación para un proyecto pionero Un ordenador cuántico del tamaño de un teléfono inteligente: los científicos de la Universidad Friedrich-Alexander de Erlangen-Núremberg (FAU) investigan cómo podría hacerse realidad. Físico Prof. Dr. Para ello, Vojislav Krstić y su equipo de investigación se dedican al desarrollo de bits cuánticos (qubits) que funcionan sobre la base de aislantes topológicos, una clase de materiales que en los últimos años se ha convertido cada vez más en el centro de la investigación debido a su extraordinario propiedades. Este proyecto pionero está siendo financiado con más de 900.000 euros. Desde el campo de la medicina hasta la inteligencia artificial (IA), las computadoras cuánticas adecuadas para el uso diario podrían acelerar muchos procesos muchas veces. Pero los modelos anteriores tienen un inconveniente crucial: sólo funcionan a temperaturas extremadamente bajas. “Esto se debe a los bits cuánticos, también llamados qubits, que controlan el ordenador y pueden adoptar varios estados al mismo tiempo. Con estos qubits, las computadoras cuánticas pueden alcanzar una gran potencia informática. Sin embargo, los qubits habituales sólo funcionan justo por encima del cero absoluto, es decir, unos -273 grados Celsius», explica el Prof. Dr. Vojislav Krstić, Instituto de Física de la Materia Condensada. Por este motivo, actualmente es necesario refrigerar los ordenadores cuánticos en un sistema complejo y de gran escala. «Para integrar los ordenadores cuánticos en la vida cotidiana, necesitamos encontrar qubits direccionables eléctricamente que funcionen de forma estable incluso a temperaturas más altas», afirma Krstić. Esto no sólo haría que los dispositivos fueran más pequeños y asequibles, sino que también reduciría significativamente su consumo de energía. La búsqueda del qubit del futuro Por lo tanto, el proyecto de investigación se centra en los aislantes topológicos: una clase de materiales que no se ven afectados por influencias externas y, por tanto, pueden transmitir información de forma especialmente segura. Esto significa que los aislantes topológicos también tienen el potencial de revolucionar la computación cuántica. Hasta ahora se han examinado principalmente a escala macroscópica, es decir, lo que es visible al ojo. “Si reducimos la estructura de estos materiales a unos pocos nanómetros y rompemos específicamente las simetrías, sus propiedades energéticas cambian y podríamos utilizarlos como qubits”, explica Krstić. Los investigadores tienen que romper las simetrías del material para que permanezca estable y al mismo tiempo tenga las propiedades deseadas para su uso en ordenadores cuánticos. “Este es un gran desafío. Pero si encontramos un qubit que funcione de esta manera a temperaturas más altas, se abrirán nuevas posibilidades. Por ejemplo, se podrían instalar ordenadores cuánticos en los automóviles que regulan el suministro de energía”. Sobre el proyecto de investigación El proyecto de investigación de la FAU se financiará durante dos años y tiene como objetivo ayudar a avanzar significativamente la investigación internacional en el campo de la computación cuántica. La financiación se destina principalmente al personal y a equipos y consumibles especiales. El trabajo de Krstić y su equipo no sólo podría revolucionar la tecnología, sino también contribuir a un uso más sostenible de los recursos, una ventaja decisiva en tiempos de cambio climático. Las computadoras cuánticas que requieren menos refrigeración no solo serían más respetuosas con el medio ambiente, sino que también podrían usarse en todas partes, desde computadoras portátiles en escritorios hasta IA en el campo médico. La investigación del grupo de Vojislav Krstić se centra en sistemas de fermiones novedosos (que interactúan) de baja dimensionalidad en sólidos, materiales y sistemas materiales. La atención se centra en las propiedades electrónicas y ópticas de tales sistemas de fermiones en relación con estados (macroscópicamente) cuantificados, de ruptura de simetría y topológicos y sus propiedades. FAU News. Traducido al español

Leer más »

El sesgo en la IA amplifica nuestros propios sesgos

Los sistemas de inteligencia artificial (IA) tienden a asumir los prejuicios humanos y amplificarlos, lo que provoca que las personas que usan esa IA se vuelvan más parciales, según un nuevo estudio de investigadores de la UCL. Los sesgos humanos y de la IA pueden crear un ciclo de retroalimentación en el que pequeños sesgos iniciales aumentan el riesgo de error humano, según los hallazgos publicados en Nature Human Behaviour . Los investigadores demostraron que el sesgo de la IA puede tener consecuencias en el mundo real, ya que descubrieron que las personas que interactuaban con IA sesgadas tenían más probabilidades de subestimar el desempeño de las mujeres y sobreestimar la probabilidad de los hombres blancos de ocupar puestos de alto estatus. La profesora Tali Sharot (UCL Psychology & Language Sciences, Max Planck UCL Centre for Computational Psychiatry and Ageing Research, y Massachusetts Institute of Technology) y coautora principal afirmó: “Las personas tienen prejuicios por naturaleza, por lo que cuando entrenamos sistemas de IA con conjuntos de datos producidos por personas, los algoritmos de IA aprenden los prejuicios humanos que están incorporados en los datos. Luego, la IA tiende a explotar y amplificar estos prejuicios para mejorar la precisión de sus predicciones. “Aquí, hemos descubierto que las personas que interactúan con sistemas de IA sesgados pueden volverse aún más sesgadas, lo que crea un posible efecto de bola de nieve en el que los sesgos minúsculos en los conjuntos de datos originales son amplificados por la IA, lo que aumenta los sesgos de la persona que usa la IA”. Los investigadores realizaron una serie de experimentos con más de 1.200 participantes del estudio que completaban tareas e interactuaban con sistemas de IA. Como paso previo a uno de los experimentos, los investigadores entrenaron un algoritmo de IA con un conjunto de datos de respuestas de los participantes. Se pidió a las personas que juzgaran si un grupo de rostros en una foto parecía feliz o triste, y demostraron una ligera tendencia a juzgar los rostros como tristes con más frecuencia que como felices. La IA aprendió este sesgo y lo amplificó hasta convertirlo en un sesgo mayor hacia juzgar los rostros como tristes. Otro grupo de participantes completó la misma tarea, pero también se les dijo qué juicio había hecho la IA sobre cada foto. Después de interactuar con este sistema de IA durante un tiempo, este grupo de personas internalizó el sesgo de la IA y era incluso más propenso a decir que las caras se veían tristes que antes de interactuar con la IA. Esto demuestra que la IA aprendió un sesgo de un conjunto de datos derivado de humanos y luego amplificó los sesgos inherentes de otro grupo de personas. Los investigadores encontraron resultados similares en experimentos en los que se utilizaron tareas muy diferentes, como evaluar la dirección en la que se movía un conjunto de puntos en una pantalla o, en particular, evaluar el desempeño de otra persona en una tarea, en los que las personas eran particularmente propensas a sobrestimar el desempeño de los hombres después de interactuar con un sistema de IA sesgado (que se creó con un sesgo de género inherente para imitar los sesgos de muchas IA existentes). Los participantes en general desconocían el alcance de la influencia de la IA. Cuando a las personas se les dijo falsamente que estaban interactuando con otra persona, pero en realidad estaban interactuando con una IA, internalizaron los sesgos en menor medida, lo que según los investigadores podría deberse a que las personas esperan que la IA sea más precisa que un humano en algunas tareas. Los investigadores también realizaron experimentos con un sistema de inteligencia artificial generativa ampliamente utilizado, Stable Diffusion. En un experimento, los investigadores pidieron a la IA que generara fotos de gerentes financieros, lo que arrojó resultados sesgados, ya que los hombres blancos estaban sobrerrepresentados más allá de su proporción real. Luego pidieron a los participantes del estudio que vieran una serie de fotos de rostros y seleccionaran qué persona tenía más probabilidades de ser gerente financiero antes y después de que se les presentaran las imágenes generadas por la IA. Los investigadores descubrieron que los participantes estaban incluso más inclinados a indicar que un hombre blanco tenía más probabilidades de ser gerente financiero después de ver las imágenes generadas por Stable Diffusion que antes. El coautor principal, el Dr. Moshe Glickman (UCL Psychology & Language Sciences y Max Planck UCL Centre for Computational Psychiatry and Ageing Research) dijo: “No solo las personas sesgadas contribuyen a las IA sesgadas, sino que los sistemas de IA sesgados pueden alterar las propias creencias de las personas, de modo que las personas que usan herramientas de IA pueden terminar volviéndose más sesgadas en dominios que van desde los juicios sociales hasta la percepción básica. “Sin embargo, también descubrimos que interactuar con IA precisas puede mejorar el juicio de las personas, por lo que es vital que los sistemas de IA se perfeccionen para que sean lo más imparciales y precisos posible”. El profesor Sharot añadió: “Los desarrolladores de algoritmos tienen una gran responsabilidad en el diseño de sistemas de IA; la influencia de los sesgos de la IA podría tener profundas implicaciones a medida que la IA se vuelve cada vez más frecuente en muchos aspectos de nuestras vidas”. UCL. News. Traducido al español

Leer más »

Estudiantes llevan ideas de estrategia nuclear a la Casa Blanca

Cuatro estudiantes de ingeniería desarrollaron propuestas para apoyar la transición de Estados Unidos a la energía nuclear y las presentaron al Consejo de Seguridad Nacional en Washington, DC. La energía nuclear está llamada a convertirse en el futuro de la energía, y la carrera mundial por liderar esta industria se está intensificando. Pero, ¿cómo puede Estados Unidos competir y dinamizar su industria de energía nuclear, en particular en medio del crecimiento explosivo de la inteligencia artificial? Los estudiantes de Stanford Mandy Alevra, Nuri Capanoglu, Elena Kopstein y Jackson Painter tienen algunas ideas. La semana pasada, viajaron a la capital del país para presentar las propuestas que desarrollaron en el curso del trimestre de otoño MS&E 296: Tecnología, innovación y competencia entre grandes potencias , que exploró cómo las nuevas tecnologías plantean desafíos y crean oportunidades para que Estados Unidos compita más eficazmente con sus rivales globales.  Tarun Chhabra, promoción 2002, es un abogado que actualmente se desempeña como director sénior de tecnología y seguridad nacional en el Consejo de Seguridad Nacional (NSC). Después de conocer el trabajo de los estudiantes, los invitó a Washington, DC, para compartir sus propuestas. Con el apoyo del Stanford Gordian Knot Center for National Security Innovation , Alevra, Capanoglu, Kopstein y Painter hicieron una presentación ante Chhabra y otros miembros del NSC en la Casa Blanca el 10 de diciembre. También se reunieron con expertos en energía nuclear del Nuclear Energy Institute y Clear Path. La recepción de su presentación fue positiva y los asistentes expresaron interés en su memorando.  El desafío energético de la IA  El proyecto de los estudiantes examinó cómo el crecimiento exponencial de la IA podría poner a prueba el suministro de energía del país. Esto se debe a que el entrenamiento futuro de modelos lingüísticos de gran tamaño (LLM, por sus siglas en inglés) requerirá una enorme cantidad de energía, mucho más de la que las fuentes de energía actuales de Estados Unidos pueden gestionar. “Las necesidades energéticas previstas para los próximos 10 años podrían destruir nuestra red si no mejoramos nuestro suministro energético”, afirmó Painter. “La energía nuclear es una gran solución para satisfacer la creciente demanda de energía –y de energía limpia– que la gente quiere”.  Los estudiantes desarrollaron tres recomendaciones de políticas que, según ellos, podrían ayudar a Estados Unidos a realizar una transición efectiva hacia la energía nuclear.  Propuestas de políticas para una transición nuclear  La primera es acelerar el proceso de obtención de permisos nucleares mediante la creación de una base de datos centralizada para todos los códigos de permisos asociados con la energía nuclear. Kopstein señaló que en China, obtener un permiso para la construcción de un pequeño reactor modular (que produce energía nuclear) lleva sólo entre uno y tres años, mientras que en los Estados Unidos el proceso demora entre cinco y diez años.  “Con una base de datos centralizada, integración de IA y una interfaz utilizable, proyectamos que el cronograma de permisos podría reducirse entre un 15 y un 25 por ciento y los costos asociados con los permisos podrían reducirse entre un 20 y un 30 por ciento”, dijo Kopstein.  Su segunda propuesta apunta a reducir el riesgo de invertir en tecnología nuclear. Un estudio reciente de caso sobre la construcción de plantas de energía nuclear en Georgia concluyó que los costos eran significativamente superiores a las proyecciones iniciales, lo que llevó a algunas empresas de capital privado a evitar tales emprendimientos.  “Recomendamos ofrecer un seguro contra sobrecostos que los desarrolladores puedan contratar para que el gobierno pueda ayudar a cubrir parte del riesgo e incentivar la inversión privada”, dijo Painter. “La mejor manera de hacerlo sería a través de la oficina del programa de préstamos del Departamento de Energía”. Por último, alentaron a Estados Unidos a aumentar las exportaciones de energía nuclear para competir con Rusia y China, que dominan el mercado global. Alevra explicó que China lidera el desarrollo de tecnologías nucleares, incluidos los diseños de reactores más avanzados. Mientras tanto, Rusia es el principal productor del combustible de uranio que alimenta los reactores, lo que crea una dependencia global de sus exportaciones.  “Ambos países, que son competidores de Estados Unidos, están a la vanguardia en términos de construcción, tecnología y producción de combustible”, dijo Alevra. “Por lo tanto, Estados Unidos necesita mejorar sus políticas para seguir siendo competitivo”.  Capanoglu señaló que tanto China como Rusia utilizan un proceso de exportación que es estatal y, por lo tanto, simplificado y libre de problemas para los países que compran sus productos y servicios nucleares. Pero en Estados Unidos, el proceso es un mosaico de contratistas que diseñan, construyen y operan reactores nucleares, producen combustible y eliminan los desechos nucleares. China y Rusia ofrecen lo que Capanoglu llamó «acuerdos en paquete» para el mismo trabajo.  “Proponemos adoptar un enfoque que abarque a todo el gobierno y que involucre a diferentes agencias y partes interesadas que tienen algo que decir sobre este asunto de las exportaciones, incluidos los departamentos de Estado, Energía y Comercio de Estados Unidos, y el Consejo de Seguridad Nacional”, dijo Capanoglu. “Luego, incorporar a empresas privadas para que ofrezcan paquetes similares que compitan con los de Rusia y China”. Los estudiantes señalaron que mejorar la transición de Estados Unidos a la energía nuclear es un asunto bipartidista, con un fuerte apoyo tanto de la administración actual como de la entrante de la Casa Blanca y de ambas cámaras del Congreso.  “Estoy muy agradecido con el equipo docente de esta clase y con los recursos generales que brinda Stanford, porque fue una experiencia única en la vida”, dijo Kopstein. “Estamos muy agradecidos con Stanford, el Gordian Knot Center y el departamento de MS&E por hacer esto posible”. Stanford Report. A. K. Traducido al español

Leer más »

¿Podemos convencer a la IA para que responda a solicitudes dañinas?

Una nueva investigación de la EPFL demuestra que incluso los modelos de lenguaje grande (LLM) más recientes, a pesar de haber recibido capacitación en seguridad, siguen siendo vulnerables a simples manipulaciones de entrada que pueden hacer que se comporten de manera no deseada o dañina. Los LLM actuales tienen capacidades notables que, sin embargo, pueden utilizarse de forma indebida. Por ejemplo, un actor malintencionado puede utilizarlos para producir contenido tóxico, difundir información errónea y respaldar actividades dañinas. El entrenamiento de alineación de seguridad o de rechazo —donde se guía a los modelos para generar respuestas que los humanos consideran seguras y para rechazar respuestas a preguntas potencialmente dañinas— se utiliza comúnmente para mitigar los riesgos de mal uso. Sin embargo, una nueva investigación de la EPFL , presentada en el Taller sobre Seguridad de IA de Próxima Generación de la Conferencia Internacional sobre Aprendizaje Automático de 2024ha demostrado que incluso los LLM más recientes alineados con la seguridad no son robustos a simples ataques de jailbreak adaptativos –esencialmente manipulaciones a través del aviso para influenciar el comportamiento de un modelo y generar resultados que se desvían de su propósito previsto. Cómo eludir las salvaguardas del LLM Como se describe en su artículo, ‘ Jailbreaking leading safety-aligned LLMs with simple adaptive attack ‘, los investigadores Maksym Andriushchenko, Francesco Croce y Nicolas Flammarion del Laboratorio de Teoría del Aprendizaje Automático (TML) de la Facultad de Ciencias de la Computación y la Comunicación lograron una tasa de ataques exitosa del 100 % por primera vez en muchos de los principales LLM. Esto incluye los LLM más recientes de OpenAI y Anthropic, como GPT-4o y Claude 3.5 Sonnet. “Nuestro trabajo demuestra que es posible aprovechar la información disponible sobre cada modelo para construir ataques adaptativos simples, que definimos como ataques diseñados específicamente para atacar una defensa determinada, que esperamos sirvan como una valiosa fuente de información sobre la solidez de los LLM de frontera”, explicó Nicolas Flammarion, director del TML y coautor del artículo. La herramienta clave de los investigadores fue una plantilla de solicitud diseñada manualmente que se utilizó para todas las solicitudes no seguras para un modelo determinado. Utilizando un conjunto de datos de 50 solicitudes dañinas, obtuvieron una puntuación perfecta de jailbreaking (100 %) en Vicuna-13B, Mistral-7B, Phi-3-Mini, Nemotron-4-340B, Llama-2-Chat-7B/13B/70B, Llama-3-Instruct-8B, Gemma-7B, GPT-3.5, GPT-4o, Claude-3/3.5 y el R2D2 entrenado de forma adversa. Utilizando la adaptabilidad para evaluar la robustez El tema común detrás de estos ataques es que la adaptabilidad de los ataques es crucial: diferentes modelos son vulnerables a diferentes plantillas de solicitud, por ejemplo, algunos modelos tienen vulnerabilidades únicas basadas en su interfaz de programación de aplicaciones y, en algunas configuraciones, es crucial restringir el espacio de búsqueda de tokens en función del conocimiento previo. “Nuestro trabajo demuestra que la aplicación directa de los ataques existentes no es suficiente para evaluar con precisión la solidez adversarial de los LLM y, en general, conduce a una sobrestimación significativa de la solidez. En nuestro estudio de caso, ningún enfoque funcionó lo suficientemente bien, por lo que es crucial probar tanto las técnicas estáticas como las adaptativas”, afirmó Maksym Andriushchenko , estudiante de doctorado de la EPFL y autor principal del artículo. Esta investigación se basa en la tesis doctoral de Andriushchenko, Understanding generalization and robustness in modern deep learning (Entender la generalización y la robustez en el aprendizaje profundo moderno) , que, entre otras contribuciones, investigó métodos para evaluar la robustez adversaria. La tesis exploró cómo evaluar y comparar la resiliencia de las redes neuronales a pequeñas perturbaciones de entrada y analizó cómo estos cambios afectan los resultados del modelo. Fomentando la seguridad en el LLM Este trabajo se ha utilizado para informar sobre el desarrollo de Gemini 1.5 (como se destaca en su informe técnico ), uno de los últimos modelos lanzados por Google DeepMind diseñado para aplicaciones de IA multimodal. La tesis de Andriushchenko también ganó recientemente el Premio Memorial Patrick Denantes , creado en 2010 para honrar la memoria de Patrick Denantes, un estudiante de doctorado en Sistemas de Comunicación en la EPFL que murió trágicamente en un accidente de escalada en 2009. «Estoy entusiasmado de que mi trabajo de tesis haya dado lugar a la investigación posterior sobre los LLM, que es muy relevante y de gran impacto en la práctica, y es maravilloso que Google DeepMind haya utilizado los resultados de nuestra investigación para evaluar sus propios modelos», afirmó Andriushchenko. «También me sentí honrado de ganar el premio Patrick Denantes, ya que hubo muchos otros estudiantes de doctorado muy destacados que se graduaron el año pasado. Andriushchenko cree que la investigación sobre la seguridad de los LLM es importante y prometedora. A medida que la sociedad avanza hacia el uso de los LLM como agentes autónomos (por ejemplo, como asistentes personales de inteligencia artificial), es fundamental garantizar su seguridad y su adecuación a los valores sociales. “No pasará mucho tiempo antes de que los agentes de IA puedan realizar diversas tareas por nosotros, como planificar y reservar nuestras vacaciones, tareas que requerirían acceso a nuestros calendarios, correos electrónicos y cuentas bancarias. Aquí es donde surgen muchas preguntas sobre seguridad y alineación. Si bien puede ser apropiado que un agente de IA elimine archivos individuales cuando se lo solicitemos, eliminar un sistema de archivos completo sería catastrófico para el usuario. Esto resalta las sutiles distinciones que debemos hacer entre los comportamientos aceptables e inaceptables de la IA”, explicó. En última instancia, si queremos implementar estos modelos como agentes autónomos, es importante asegurarnos primero de que estén adecuadamente entrenados para comportarse de manera responsable y minimizar el riesgo de causar daños graves. “Nuestros hallazgos ponen de relieve una brecha crítica en los enfoques actuales sobre la seguridad de los LLM. Necesitamos encontrar formas de hacer que estos modelos sean más robustos, para que puedan integrarse en nuestra vida diaria con confianza, garantizando que sus potentes capacidades se utilicen de forma segura y responsable”, concluyó Flammarion. El premio Patrick Denantes Memorial Prize es otorgado anualmente por un jurado al autor de una tesis doctoral destacada de la Facultad de Ciencias de la Computación y la Comunicación .

Leer más »

Estudio de IBM: cada vez más empresas recurren a herramientas de inteligencia artificial de código abierto para desbloquear el retorno de la inversión

ARMONK, NY , 19 de diciembre de 2024 / PRNewswire / — Una nueva investigación encargada por IBM (NYSE: IBM ) descubrió que las empresas encuestadas están invirtiendo en IA a largo plazo, con un creciente interés en utilizar herramientas de código abierto para impulsar el ROI y la innovación en el futuro. El estudio  de más de 2.400 responsables de la toma de decisiones en materia de TI (ITDMs), realizado por Morning Consult y desarrollado en colaboración con Lopez Research, reveló que el 85 % de los encuestados afirman haber avanzado en la ejecución de su estrategia de IA para 2024, y casi la mitad (47 %) ya está viendo un retorno de la inversión positivo de sus inversiones en IA. Los datos también confirman que el uso de herramientas de código abierto para soluciones de IA puede estar relacionado con una mayor viabilidad financiera: el 51 % de las empresas encuestadas que utilizan actualmente herramientas de IA de código abierto afirman haber visto un retorno de la inversión positivo, en comparación con solo el 41 % de las que no utilizan código abierto. Casi dos tercios (62 %) de todos los encuestados indican que aumentarán sus inversiones en IA en 2025, mientras que el 48 % planea aprovechar los ecosistemas de código abierto para optimizar sus implementaciones de IA. En el caso de las empresas encuestadas que actualmente no utilizan código abierto, 2 de cada 5 afirman que planean utilizar código abierto para la implementación de IA en 2025. «A medida que las organizaciones comienzan a implementar la IA a gran escala, muchas están dando mayor importancia a las métricas de éxito, como las ganancias de productividad, en parte porque los beneficios tradicionales del retorno de la inversión en dólares aún no se han reflejado en los balances», dijo Maribel López de Lopez Research. «Sin embargo, las empresas continúan avanzando rápidamente en sus estrategias de IA, sin señales de desaceleración. Las empresas ahora reconocen el valor de definir casos de uso específicos y optimizar los proyectos de IA. Están aprovechando las estrategias de nube híbrida y código abierto para impulsar la innovación en IA y generar retornos financieros». Otros hallazgos del estudio incluyen: Las empresas están aumentando la inversión en IA, pero con un enfoque estratégico mayor  El código abierto se está volviendo crucial para las estrategias de IA de las empresas Las organizaciones informan que avanzan con éxito en sus proyectos de IA, pero a menudo a través de métricas de ROI menos tradicionales Para ver el estudio completo, visite: https://newsroom.ibm.com/image/IBM_ROI_of_AI_Report-December_2024.pdf Metodología del estudio:Morning Consult realizó una encuesta del 30 de octubre al 13 de noviembre de 2024 entre una muestra total de 2413 tomadores de decisiones de TI (ITDMS) en EE. UU., Canadá , México , Brasil , Reino Unido, Francia , Alemania , España , India , Singapur , Indonesia y Corea del Sur . Las entrevistas se realizaron en línea y los datos no están ponderados. Los encuestados están empleados en empresas con 101 empleados o más, que desempeñan funciones de nivel de director o superior dentro de un rol tecnológico, con autoridad para tomar decisiones sobre al menos uno de los siguientes: gestión de consultores comerciales/servicios de consultoría, compras de productos de TI o compras de servicios de consultoría comercial. IBM News. Traducido al español

Leer más »

¿Puede la IA influir en los resultados electorales?

La inteligencia artificial (IA) puede ser un arma de desinformación masiva, pero un informe reciente ha demostrado que hasta ahora su impacto ha sido limitado Este año, los votantes de casi 100 países, incluidos Taiwán, Estados Unidos y Senegal, acudieron a las urnas y la IA se utilizó a menudo durante las campañas electorales. Esta tecnología, cuando se utiliza de forma maliciosa, como a través de deepfakes y chatbots, erosiona la confianza de los ciudadanos en la información proporcionada por los medios de comunicación, ya sea en televisión, en línea o en las redes sociales. Los programas impulsados ​​por IA han afectado claramente a la fiabilidad de la información que recibimos, pero ¿ha tenido eso un impacto en los resultados electorales? Un equipo de investigadores de la Iniciativa para la Innovación en los Medios (IMI) con sede en la EPFL realizó un estudio para investigar la influencia que tuvo la IA en las elecciones de todo el mundo en 2024. Los hallazgos aparecen en el primer número de la revista Décryptage de IMI (solo en francés). El número fue escrito por el periodista suizo Gilles Labarthe en asociación con Mounir Krichane y Julie Schüpbach, ambos de IMI, y Christophe Shenk, presidente del Comité Científico de IMI y jefe de coordinación de noticias digitales de la empresa de radiodifusión suiza RTS. Personajes políticos resucitados Los investigadores trabajaron con expertos locales para analizar las distintas campañas electorales y sus resultados. Descubrieron que los programas impulsados ​​por IA tuvieron un impacto marginal y no inclinaron las elecciones en un sentido u otro. Sin embargo, el estudio sí encontró que la difusión de contenido manipulado, impulsada por algoritmos, dividió aún más la opinión política y creó un clima generalizado de desconfianza. Por ejemplo, en las campañas electorales de Estados Unidos y Suiza se utilizaron deepfakes (vídeos alterados digitalmente para que parecieran mostrar personas reales). Mientras tanto, la IA generativa alcanzó un nivel completamente nuevo en India e Indonesia, donde los programadores resucitaron a figuras políticas mediante la creación de avatares destinados a influir en los votantes. “La tecnología por sí sola no será suficiente”, afirma. “Los usuarios humanos son el eslabón débil”.Touradj Ebrahimi, director del grupo de procesamiento de señales multimedia de la EPFL Los autores del estudio subrayan que el uso de contenidos manipulados digitalmente con fines propagandísticos no es nada nuevo; la inteligencia artificial no ha hecho más que intensificar esta práctica. La producción a gran escala y la rápida difusión de contenidos falsos (ya sea en formato de vídeo, imagen o texto) durante las campañas electorales han socavado la confianza de los ciudadanos. Los autores también señalan un vacío regulatorio que ha permitido que estos contenidos circulen libremente. En una entrevista para la revista, el profesor Touradj Ebrahimi, director del grupo de procesamiento de señales multimedia de la EPFL, afirma que los deepfakes están creando desafíos técnicos, sociales y éticos sin precedentes. «Es un juego del gato y el ratón entre los creadores de tecnología de inteligencia artificial para generar deepfakes y los desarrolladores de software para detectarlos». Su grupo de investigación está trabajando para desarrollar sistemas para identificar y limitar la difusión de contenido manipulado (ver más abajo). Un esfuerzo colectivo La revista IMI ofrece una visión general de los riesgos que supone la inteligencia artificial para las campañas electorales. También ofrece recomendaciones concretas de científicos, otros expertos y profesionales de los medios de comunicación para reducir el impacto de la desinformación y sugiere medidas que pueden adoptar los ciudadanos. Una de las recomendaciones es implementar sistemas de detección y rastreo de contenidos falsos, como los que está desarrollando el grupo de Ebrahimi. La revista destaca la importancia de introducir regulaciones internacionales y exigir responsabilidades a los medios de comunicación. Por su parte, Ebrahimi afirma que será esencial fomentar la verificación colaborativa de los hechos y promover la educación como un poderoso aliado en la lucha contra la desinformación. “La tecnología por sí sola no será suficiente”, afirma. “Los usuarios humanos son el eslabón débil: tenemos que concienciarlos de los riesgos asociados a las noticias falsas y darles recursos para verificar las fuentes de la información que reciben”. Por último, la revista destaca el papel crucial que pueden desempeñar los gobiernos, las empresas y la sociedad civil para lograr que el espacio digital sea ético y seguro. Esto requerirá un esfuerzo colectivo para restablecer la confianza en el proceso democrático a medida que la IA se vuelve cada vez más frecuente. Para ganar la batalla contra la desinformación no basta con desarrollar la tecnología adecuada, sino también, como explica la revista IMI, un esfuerzo concertado entre científicos e ingenieros, gobiernos, empresas y ciudadanos. Juntos podemos hacer que la información vuelva a ser fiable y restablecer la confianza en el proceso democrático. La EPFL, con su experiencia única en la lucha contra los contenidos manipuladosEn el grupo de procesamiento de señales multimedia del profesor Ebrahimi, los ingenieros están trabajando para desarrollar una tecnología que pueda detectar y frenar eficazmente la difusión de contenidos manipulados. Esto incluye la implementación del estándar JPEG Trust para que se pueda verificar la autenticidad de las imágenes desde el momento de su creación hasta su publicación.»No hay una fórmula mágica», dice Ebrahimi. «En lugar de eso, tendremos que combinar varios indicadores para generar confianza y reducir los riesgos». Este enfoque proactivo podría implicar, por ejemplo, agregar firmas digitales al contenido, para que los usuarios puedan rastrearlo y detectar cualquier cambio no autorizado.El grupo de Ebrahimi también está estudiando el uso de redes generativas adversarias (GAN), que son redes en las que dos programas de aprendizaje automático compiten entre sí: uno produce contenido falso mientras que el otro intenta detectarlo. Las GAN pueden mejorar la capacidad de la tecnología de detección para detectar incluso los deepfakes más sofisticados, lo que proporciona una herramienta valiosa para los medios de comunicación en línea y otras plataformas de contenido. Fomentar la innovación en los medios digitalesEl IMI fue fundado en 2018 por organizaciones del sector público y privado para promover la

Leer más »
Scroll al inicio