El Portal de las Tecnologías para la Innovación

Categoría: La IA aplicada a la Educación

Físicos del MIT predicen una forma exótica de materia con potencial para la computación cuántica

Un nuevo trabajo sugiere la capacidad de crear electrones fraccionados, conocidos como anyones no abelianos, sin un campo magnético, lo que abre nuevas posibilidades para la investigación básica y futuras aplicaciones. Los físicos del MIT han demostrado que debería ser posible crear una forma exótica de materia que pudiera manipularse para formar los bloques de construcción qubit (bit cuántico) de futuras computadoras cuánticas que serían incluso más potentes que las computadoras cuánticas que se están desarrollando hoy en día. El trabajo se basa en un descubrimiento realizado el año pasado de materiales que albergan electrones que pueden dividirse en fracciones de sí mismos pero, lo que es más importante, pueden hacerlo sin la aplicación de un campo magnético.  El fenómeno general de la fraccionación de electrones fue descubierto por primera vez en 1982 y resultó en un premio Nobel . Sin embargo, ese trabajo requirió la aplicación de un campo magnético. La capacidad de crear electrones fraccionados sin un campo magnético abre nuevas posibilidades para la investigación básica y hace que los materiales que los albergan sean más útiles para las aplicaciones. Cuando los electrones se dividen en fracciones de sí mismos, esas fracciones se conocen como anyones. Los anyones vienen en una variedad de sabores o clases. Los anyones descubiertos en los materiales de 2023 se conocen como anyones abelianos. Ahora, en un artículo publicado en la edición del 17 de octubre de  Physical Review Letters , el equipo del MIT señala que debería ser posible crear la clase más exótica de anyones, los anyones no abelianos. “Los anyones no abelianos tienen la asombrosa capacidad de ‘recordar’ sus trayectorias espaciotemporales; este efecto de memoria puede ser útil para la computación cuántica”, afirma Liang Fu, profesor del Departamento de Física del MIT y líder del trabajo.  Fu señala además que “los experimentos de 2023 sobre fraccionamiento de electrones superaron ampliamente las expectativas teóricas. Mi conclusión es que los teóricos deberíamos ser más audaces”. Fu también está afiliado al Laboratorio de Investigación de Materiales del MIT. Sus colegas en el trabajo actual son los estudiantes de posgrado Aidan P. Reddy y Nisarga Paul, y el posdoctorado Ahmed Abouelkomsan, todos del Departamento de Física del MIT. Reddy y Paul son coautores principales del artículo de Physical Review Letters . El trabajo del MIT y dos estudios relacionados también aparecieron en un  artículo del 17 de octubre en la revista Physics Magazine . “Si esta predicción se confirma experimentalmente, podría conducir a computadoras cuánticas más confiables que puedan ejecutar una gama más amplia de tareas… Los teóricos ya han ideado formas de aprovechar los estados no abelianos como cúbits viables y manipular las excitaciones de estos estados para permitir una computación cuántica robusta”, escribe Ryan Wilkinson. El trabajo actual se basó en los recientes avances en materiales 2D, es decir, aquellos que constan de una o varias capas de átomos. “Todo el mundo de los materiales bidimensionales es muy interesante porque se pueden apilar y torcer, y es como jugar con Legos para obtener todo tipo de estructuras sándwich interesantes con propiedades inusuales”, dice Paul. Esas estructuras sándwich, a su vez, se denominan materiales muaré. Los aniones sólo pueden formarse en materiales bidimensionales. ¿Podrían formarse en materiales muaré? Los experimentos de 2023 fueron los primeros en demostrar que es posible. Poco después, un grupo dirigido por Long Ju, profesor adjunto de física del MIT, informó de la existencia de aniones en otro material muaré. (Fu y Reddy también participaron en el trabajo de Ju). En el trabajo actual, los físicos demostraron que debería ser posible crear aniones no abelianos en un material muaré compuesto por capas atómicamente delgadas de ditelururo de molibdeno. Paul afirma que “los materiales muaré ya han revelado fases fascinantes de la materia en los últimos años, y nuestro trabajo demuestra que las fases no abelianas podrían agregarse a la lista”. Reddy añade: “Nuestro trabajo demuestra que cuando se añaden electrones a una densidad de 3/2 o 5/2 por celda unitaria, pueden organizarse en un intrigante estado cuántico que alberga anyones no abelianos”. El trabajo fue emocionante, dice Reddy, en parte porque «a menudo hay sutilezas en la interpretación de los resultados y lo que realmente te dicen. Así que fue divertido pensar en nuestros argumentos» en apoyo de los anyons no abelianos. Paul comenta: “Este proyecto abarcó desde cálculos numéricos muy concretos hasta teoría bastante abstracta y conectó ambos. Aprendí mucho de mis colaboradores sobre algunos temas muy interesantes”. Este trabajo recibió el apoyo de la Oficina de Investigación Científica de la Fuerza Aérea de los Estados Unidos. Los autores también agradecen al MIT SuperCloud y al Centro de Supercomputación del Laboratorio Lincoln, al Instituto Kavli de Física Teórica, a la Fundación Knut y Alice Wallenberg y a la Fundación Simons. MIT News. Traducido al español

Leer más »

Parte 3: Creación de IA: creación de chatbots

En la semana 3 del curso en línea de Aprendizaje de IA , cada participante comenzó a construir su propio chatbot funcional .  Para ello, tuvimos que utilizar un tema con el que estuviéramos familiarizados para asegurarnos de que más tarde pudiéramos verificar la precisión de los resultados de nuestros chatbots. También necesitábamos recopilar y cargar conjuntos de datos, redactar indicaciones del sistema y elegir un modelo de lenguaje grande (LLM) para cada bot. Todos estos pasos deben tomarse con cuidado. Como creadores de los chatbots, nuestras elecciones sirven como límites para nuestros chatbots , influyendo en su nivel de imprevisibilidad, a menudo denominado «alucinaciones» , aunque prefiero el término «aleatoriedad» porque parece más preciso. La aleatoriedad refleja con mayor precisión la forma en que estos resultados inesperados surgen de la compleja interacción de datos y algoritmos (he explorado el concepto de aleatoriedad con más detalle en la parte 2.5 de mi serie de blogs). Pero volvamos a nuestra tarea. El propósito es personal La naturaleza diseña todo generosamente para nosotros, pero en el ámbito tecnológico debemos elaborar nuestras creaciones con mucho cuidado. El diseño de nuestros robots comienza por darles un propósito . Estoy creando dos robots y su propósito, francamente, es personal. Ambos servirán a mis objetivos personales, pero espero que el resultado final también sea útil para otros.  ¿Cuáles son entonces sus propósitos? Mis robots están diseñados para ayudarme a superar mis limitaciones humanas. Dicho de otra forma, su propósito es ampliar mis capacidades. Más concretamente, me permitirán mantener el ritmo de la velocidad y el alcance de las publicaciones en mi campo de investigación.  ¿Cómo? Mejorando mis capacidades de procesamiento y memoria, que son naturalmente limitadas . Un bot se dedicará a preservar y ampliar mis conocimientos adquiridos sobre el tema de la «seguridad infantil en el metaverso», mientras que el otro me ayudará a examinar la avalancha de documentos publicados recientemente por la UIT como parte de la Iniciativa de Mundos Virtuales de la ONU. Para decirlo sucintamente: estos bots serán una extensión de mí . Son, después de todo, artefactos.  Empecemos. La relación entre los avisos del sistema y los LLM La existencia de nuestros bots comienza con la provisión de indicaciones del sistema . En la metáfora de Geppetto que utilicé en mi primera publicación, estas indicaciones equivaldrían a tomar un trozo de madera y comenzar a cincelar los contornos de Pinocho. Los carpinteros experimentados saben que cada pieza de madera tiene su propio carácter, expresado a través de su veta y otras cualidades. Nuestras indicaciones del sistema sirven como modelo fundamental para nuestros chatbots, definiendo su propósito central y guiando su desarrollo . Son como la visión inicial de Geppetto de Pinocho como un títere con el potencial de convertirse en un niño. Los LLM son donde ocurre la magia. Piense en un LLM como la fuerza que anima a Pinocho al permitirle hablar de manera similar a la humana; proporciona los patrones lingüísticos y la comprensión fundamentales, extraídos de un vasto bosque de información. En nuestro caso, se trata de estadísticas y reconocimiento de patrones, no de magia.  Los datos y el bosque de información En la segunda parte de esta serie de blogs, exploramos cómo la IA interpreta los datos mediante la identificación de patrones y correlaciones, de forma similar a cómo las banderas transmiten significado a través de colores y símbolos. Ahora, imaginemos que Internet es un vasto bosque lleno de diferentes tipos de madera, cada uno con su propia textura y resistencia. Esta es la materia prima a partir de la cual se tallará nuestro chatbot. Nuestro conjunto de datos cuidadosamente seleccionado es como una selección de bloques de madera de alta calidad, elegidos por sus propiedades específicas. Esto garantiza que el chatbot aprenda de información confiable y relevante. El LLM, a su vez, ayuda al chatbot a «ver el bosque detrás de los árboles», revelando conexiones ocultas dentro de esta gran cantidad de datos y ensamblándolas en una estructura significativa. Guía al chatbot para navegar por el bosque y descubrir los conocimientos más relevantes para nuestras necesidades. DiploAI como nuestro taller Si bien los conjuntos de datos garantizan una alta calidad y relevancia para un aprendizaje automático eficaz, los datos de Internet proporcionan una amplia gama de patrones de lenguaje. Sin embargo, estos datos requieren un filtrado significativo para eliminar el ruido y las imprecisiones. DiploAI proporciona el taller, las herramientas y el entorno para dar forma a este material. Y nosotros, como escultores, utilizamos las indicaciones como nuestros cinceles, dando forma activamente a la madera (datos) y tallando la forma y las características deseadas. Pero, ¿en qué consiste exactamente este «taller»? Pues bien, DiploAI es una plataforma de IA desarrollada por el Laboratorio de IA y Datos de Diplo. Se centra en explorar las posibilidades del aprendizaje automático, las redes neuronales y los algoritmos de procesamiento del lenguaje natural. DiploAI participa activamente en la búsqueda de nuevos conjuntos de datos, la prueba de diferentes modelos de aprendizaje automático y la difusión de los conocimientos recién adquiridos a través de un diario semanal. Desempeña un papel importante en la mejora de la comprensión de la IA y la ciencia de datos en el contexto de la diplomacia y la gobernanza global. (Si quieres saber más sobre DiploAI y sus actividades, puedes visitar el siguiente enlace: Diplo AI .) La IA aprende a través de la experiencia Del mismo modo que Pinocho se encuentra con varios personajes que influyen en su camino (el Honrado Juan, Geppetto o el Hada Azul), los usuarios desempeñan un papel crucial en la configuración del desarrollo del chatbot. Sus interacciones, comentarios e incluso malentendidos brindan información valiosa para refinar los mensajes y conjuntos de datos del sistema del chatbot. Por ejemplo, los malentendidos frecuentes o las respuestas irrelevantes indican la necesidad de realizar ajustes en las indicaciones del sistema o los conjuntos de datos del chatbot . Los comentarios diversos de los usuarios también pueden revelar nuevas funcionalidades para el bot. Además, los usuarios pueden beneficiarse de aprender más sobre las habilidades que necesitan adquirir para comunicarse con las tecnologías emergentes y utilizarlas. Inteligencia artificial a medida para

Leer más »

Intel y la administración Biden-Harris ultiman la concesión de financiación por 7.860 millones de dólares en virtud de la Ley CHIPS de EE.UU.

Premio para apoyar los planes de inversión de 100 mil millones de dólares de Intel para expandir el liderazgo en tecnología y fabricación de semiconductores en Estados Unidos. Una foto de septiembre de 2024 muestra una poderosa grúa en el sitio de construcción de Intel Ohio One en el condado de Licking, Ohio. Los estudiantes de la cercana escuela secundaria Johnstown Monroe llamaron a la poderosa grúa «Ms. Armstrong», en homenaje a la historia de Ohio en innovación, aviación y espacio. Con una altura de más del doble de la Estatua de la Libertad, la grúa puede levantar 5,5 millones de libras. (Crédito: Intel Corporation) Descargue un conjunto completo de imágenes del proyecto de construcción Ohio One de Intel (ZIP, 88 MB) NOTICIAS DESTACADAS SANTA CLARA, California, 26 de noviembre de 2024 – Intel Corporation y la Administración Biden-Harris anunciaron hoy que el Departamento de Comercio de los EE. UU. e Intel llegaron a un acuerdo sobre los términos para otorgar a la empresa hasta $7,86 mil millones en fondos directos para sus proyectos de fabricación de semiconductores comerciales bajo la Ley CHIPS y Ciencia de los EE. UU. La adjudicación respaldará los planes previamente anunciados de Intel para avanzar en proyectos críticos de fabricación de semiconductores y empaquetado avanzado en sus plantas de Arizona, Nuevo México, Ohio y Oregón. Intel también planea reclamar el Crédito Fiscal a la Inversión del Departamento del Tesoro de los EE. UU., que se espera que sea de hasta el 25 % de las inversiones calificadas de más de $100 mil millones. “Con el Intel 3 ya en producción a gran escala y el Intel 18A, que se fabricará el año que viene, se están fabricando semiconductores de vanguardia una vez más en suelo estadounidense”, afirmó Pat Gelsinger, director ejecutivo de Intel. “El sólido apoyo bipartidista para restablecer el liderazgo tecnológico y manufacturero estadounidense está impulsando inversiones históricas que son fundamentales para el crecimiento económico a largo plazo del país y la seguridad nacional. Intel está profundamente comprometida con la promoción de estas prioridades compartidas a medida que expandimos aún más nuestras operaciones en Estados Unidos durante los próximos años”. El anuncio demuestra la confianza del gobierno de Estados Unidos en el papel esencial de Intel en la construcción de una cadena de suministro de semiconductores resistente y confiable en suelo nacional. Desde la aprobación de la Ley CHIPS y Ciencia hace más de dos años, Intel ha anunciado planes para invertir más de 100 mil millones de dólares en Estados Unidos para expandir la fabricación de chips y la capacidad de empaquetado avanzado y las capacidades críticas para la seguridad económica y nacional. Las inversiones históricas respaldarán decenas de miles de puestos de trabajo, fortalecerán las cadenas de suministro estadounidenses, fomentarán la I+D en Estados Unidos y ayudarán a garantizar el liderazgo estadounidense en capacidades de fabricación y tecnología de semiconductores de vanguardia. Dossier de prensa: Financiación de la Ley CHIPS de EE. UU. para Intel “El programa CHIPS for America potenciará la tecnología y la innovación estadounidenses y hará que nuestro país sea más seguro, y se espera que Intel desempeñe un papel importante en la revitalización de la industria de semiconductores de Estados Unidos”, afirmó la secretaria de Comercio de Estados Unidos, Gina Raimondo. “Gracias al liderazgo del presidente Biden y la vicepresidenta Harris, nuestro premio CHIPS está catalizando a Intel para realizar una de las mayores inversiones en fabricación de semiconductores en la historia de Estados Unidos”. La adjudicación se produce tras el memorando preliminar de condiciones firmado previamente y la finalización de la diligencia debida del Departamento de Comercio, además del crédito fiscal por inversión anunciado. La adjudicación total final es menor que la adjudicación preliminar propuesta debido a un requisito del Congreso de utilizar fondos de CHIPS para pagar el programa Secure Enclave de $3 mil millones. Inversiones en I+D y fabricación en EE.UU. La adjudicación de la Ley CHIPS apoyará directamente las inversiones de Intel en los sitios donde la compañía desarrolla y produce muchos de los chips y tecnologías de empaquetado de semiconductores más avanzados del mundo, incluidos Arizona, Silicon Desert; Nuevo México, Silicon Mesa; Ohio, Silicon Heartland; y Oregón, Silicon Forest. Intel se fundó en los EE. UU. y lleva más de 50 años innovando, invirtiendo y apoyando la fabricación y la investigación y el desarrollo de semiconductores a nivel mundial. Actualmente, Intel emplea a aproximadamente 45 000 personas en los EE. UU. Impulso de la fundición y liderazgo tecnológico Intel está a punto de completar un ritmo histórico de desarrollo de nodos de semiconductores para recuperar el liderazgo en tecnología de procesos. Intel 18A, el quinto nodo de procesos de la empresa en cuatro años, está previsto que se lance en 2025 y sigue ganando terreno entre los clientes. La empresa está ultimando un compromiso multianual y multimillonario de Amazon Web Services para ampliar su asociación existente e incluir un nuevo chip Intel® Xeon® 6 personalizado en Intel 3 y un nuevo chip de estructura de IA en Intel 18A. En septiembre de 2024, Intel obtuvo un contrato de fabricación por hasta 3000 millones de dólares para el programa Secure Enclave  . Este programa está diseñado para ampliar la fabricación confiable de semiconductores de vanguardia para el gobierno de los EE. UU. y se basa en la relación de Intel con el Departamento de Defensa de los EE. UU. a través de los programas Rapid Assured Microelectronics Prototypes – Commercial (RAMP-C) y State-of-the-Art Heterogeneous Integrated Packaging (SHIP). Además, Intel anunció hitos clave en la fabricación avanzada de semiconductores con el ensamblaje completo del primer escáner litográfico ultravioleta extremo (EUV) de alta apertura numérica (alta NA) comercial de la industria y la recepción de una herramienta de alta NA adicional instalada en el sitio de investigación y desarrollo de la empresa en Hillsboro, Oregón. Esto permitirá a Intel liderar avances de vanguardia que definirán la fabricación de chips de próxima generación. Beneficios para el desarrollo de la fuerza laboral y el cuidado infantil Además de sus inversiones en fabricación y tecnología,

Leer más »

Thingsat: un avance para el Internet de las cosas por satélite

Coordinado por CSUG* en colaboración con varios laboratorios como LIG,(1) CROMA(2) y OSUG (3), el proyecto Thingsat pretende proporcionar una plataforma de investigación en órbita para probar comunicaciones de radio robustas y de ahorro de energía en el espacio. El proyecto de nanosatélites Thingsat, lanzado en 2019, tiene como principal objetivo desarrollar y probar protocolos de comunicación por radio de larga distancia y bajo consumo energético. “Al reducir la cantidad de energía necesaria para la transmisión de información entre el espacio y la Tierra, podemos reducir el tamaño de los paneles solares y las baterías de a bordo de los satélites” , explica Didier Donsez, investigador del LIG y coordinador del proyecto. “Cuando sabes que enviar un gramo de carga útil en órbita cuesta aproximadamente 250 euros, ¡medis el impacto económico de un avance de este calibre!”. Financiado por varios socios(4), el proyecto Thingsat permitirá probar y mejorar la calidad de la comunicación (robustez, sostenibilidad, etc.) entre un satélite y objetos conectados o una estación situada en tierra. El reto es inmenso: se trata de transmitir datos a distancias de unos 500 km, utilizando la energía de un simple mando a distancia de coche. Cientos de objetos IoT ya están equipados con modulación de radio LoRa, inventada en Grenoble. Es una de las tecnologías estudiadas en el contexto del New Space para superar los límites de la transmisión. Enlaces de radio optimizados en tierra y en el espacio Este tipo de red de comunicación robusta y de bajo consumo energético podría permitir, por ejemplo, la conexión de sensores instalados en zonas aisladas o extremas, como una boya en medio del Pacífico que mida las condiciones ambientales o dispositivos de vigilancia del clima en la Antártida. En tránsito entre el satélite y una estación terrestre en Europa, estos datos podrían recogerse y analizarse casi en tiempo real para seguir la evolución de las condiciones meteorológicas y oceanográficas. “Evaluamos la robustez y la modulación de las señales y examinamos la posibilidad de nuevos servicios, como la distribución de la hora segura a los objetos en tierra desde el satélite o la sincronización de los relojes de los satélites desde tierra”, explica Didier Donsez. Thingsat también se posiciona como una herramienta de investigación accesible a otros laboratorios en Francia. Por ejemplo, se están realizando pruebas de protocolos de cifrado y compresión de mensajes, en colaboración con otros centros espaciales universitarios, en particular a través de AMI CMA COMETES.(5) Próximamente el segundo lanzamiento En 2022, una primera misión Thingsat terminó con la pérdida del satélite. Por ello, el equipo repitió el experimento con el objetivo de un segundo lanzamiento, inicialmente previsto para octubre de 2024, pero pospuesto varios meses. El próximo lanzamiento está previsto entre marzo y junio de 2025. A la espera del lanzamiento en órbita, el equipo Thingsat está realizando pruebas a bordo de globos estratosféricos para reproducir las condiciones de comunicación a varios cientos de kilómetros. Al explorar escenarios de aplicación concretos y compartir su plataforma de prueba, el proyecto Thingsat coloca a Grenoble a la vanguardia de la Internet de las cosas por satélite, un campo en rápido crecimiento que podría transformar la forma en que los objetos conectados se comunican en la Tierra y en el espacio. * Centre Spatial Universitaire de Grenoble, Centro Espacial Universitario de Grenoble** Observatoire des Sciences de l’Univers de Grenoble, Observatorio de Ciencias de la Tierra y Astronomía de Grenoble (1) CNRS / Inria / UGA / Grenoble INP – UGA(2) CNRS / Université Savoie Mont-Blanc / UGA / Grenoble INP – UGA(3) CNRS / UGA / IRD / INRAE ​​/ Meteo France(4) El proyecto está financiado por patrocinadores industriales como la Fondation UGA, INS2I (Institut des Sciences de l’Information et de leurs Interactions, Instituto de Ciencias de la Información y sus Interacciones), LIG, así como otros apoyos puntuales como Persyval Lab y Carnot LSI, lo que lo convierte en una colaboración verdaderamente interdisciplinaria.(5) Seleccionado como parte de la convocatoria de expresión de interés «Competencias futuras y líneas de negocio», el proyecto COMETES (COmpétences Et METiers pour l’ESpace, Habilidades y Profesiones para el Espacio) está coordinado por la Universidad de Toulouse. Se ha desarrollado en colaboración con 25 socios de cinco regiones, con la estrecha participación del Grupo ISAE, de las universidades y centros espaciales universitarios, de las regiones de Occitania y Nouvelle-Aquitaine y de los industriales. Grenoble INP UGA News. Traducido al español

Leer más »

Nuevo método para diseñar proteínas artificiales

Diseño de nuevas proteínas de gran tamaño con IA. El diseño de proteínas tiene como objetivo crear anticuerpos personalizados para terapias, biosensores para diagnósticos o enzimas para reacciones químicas. Un equipo internacional de investigadores ha desarrollado un método para diseñar nuevas proteínas de gran tamaño mejor que antes y producirlas con las propiedades deseadas en el laboratorio. Su enfoque implica una nueva forma de utilizar las capacidades del software basado en inteligencia artificial Alphafold2, por el que se otorgó el Premio Nobel de Química en 2024. Las proteínas, ya sean componentes básicos, sistemas de transporte, enzimas o anticuerpos, desempeñan un papel fundamental en nuestro organismo. Por ello, los investigadores intentan recrearlas o diseñar las denominadas proteínas de novo que no existen en la naturaleza. Estas proteínas artificiales están diseñadas, por ejemplo, para unirse a determinados virus o transportar fármacos. Los científicos utilizan cada vez más el aprendizaje automático para diseñarlas. Recientemente, los avances en este campo fueron galardonados con el Premio Nobel de Química: el premio Nobel de este año fue para David Baker, pionero del diseño de proteínas de novo, y para los desarrolladores del software Alphafold2 Demis Hassabis y John Jumper. Este software permite predecir las estructuras de las proteínas en el ordenador con gran precisión. Un equipo internacional dirigido por Hendrik Dietz , profesor de nanotecnología biomolecular en la Universidad Técnica de Múnich (TUM), y Sergey Ovchinnikov, profesor de biología en el MIT, ha desarrollado un método que utiliza la predicción precisa de la estructura de Alphafold2 junto con un enfoque denominado descenso de gradiente para el diseño eficiente de proteínas. El trabajo se publicó en la revista Science. El descenso de gradiente es un método común para la optimización de modelos. En un proceso paso a paso, se puede utilizar para identificar desviaciones de la función objetivo deseada y ajustar los parámetros hasta que se logre el resultado óptimo. En el diseño de proteínas, el descenso de gradiente se puede utilizar para comparar la estructura de las nuevas proteínas predichas por AlphaFold2 con la estructura proteica deseada. Esto permite a los científicos optimizar aún más su nueva cadena de aminoácidos diseñada y la estructura resultante. Esta última determina en gran medida la estabilidad y la función de la proteína y depende de interacciones energéticas sutiles. Mostrar contenido externo En este punto se integran contenidos de un proveedor externo (fuente: www.youtube-nocookie.com ). Al visualizarlos, es posible que se transmitan datos a terceros o que se almacenen cookies, por lo que se requiere su consentimiento. Puede encontrar más información y la posibilidad de revocar su consentimiento en www.tum.de/datenschutz .Estoy de acuerdoLos investigadores han desarrollado un nuevo método para diseñar proteínas de novo con propiedades personalizadas. Su enfoque aprovecha las capacidades de predicción de la estructura de AlphaFold2, combinándolas con una superposición virtual de aminoácidos y un proceso de optimización conocido como descenso de gradiente. Mediante la optimización por descenso de gradiente, mejoran la estructura de la proteína predicha paso a paso hasta que se logra la estructura deseada. Codificación de colores en la animación: cuanto más se acerca el tono al azul oscuro, más seguro está el programa en la predicción de la estructura. Superposición virtual de los bloques de construcción El nuevo método permite diseñar nuevas proteínas de gran tamaño mejor que antes y adaptarlas a las propiedades deseadas, por ejemplo, para que se unan con precisión a otras proteínas. Su proceso de diseño difiere de los enfoques anteriores en varios aspectos. «Hemos diseñado el proceso de creación de nuevas proteínas de tal forma que, en un principio, ignoramos los límites de lo físicamente posible. Normalmente, en cada punto de la cadena de aminoácidos solo se supone uno de los 20 bloques de construcción posibles. En su lugar, utilizamos una variante en la que todas las posibilidades están virtualmente superpuestas», explica Christopher Frank, doctorando en la Cátedra de Nanotecnología Biomolecular y primer autor del estudio. Esta superposición virtual no se puede traducir directamente en una proteína realmente producible, pero permite optimizar la proteína iterativamente. «Mejoramos la disposición de los aminoácidos en varias iteraciones hasta que la nueva proteína se acerca mucho a la estructura deseada», explica Christopher Frank. A partir de esta estructura optimizada, se determina la secuencia de aminoácidos que realmente se puede ensamblar para formar una proteína en el laboratorio. La prueba crucial: ¿cómo se sostienen las predicciones en la vida real? La prueba definitiva para todas las proteínas recién diseñadas: ¿la estructura real se corresponde con la estructura prevista y la función deseada? Con el nuevo método, el equipo diseñó virtualmente más de 100 proteínas, las produjo en el laboratorio y las probó experimentalmente. «Pudimos demostrar que las estructuras que diseñamos son muy parecidas a las que realmente se producen», afirma Christopher Frank. Con su nuevo método, han conseguido producir proteínas compuestas por hasta 1.000 aminoácidos. “Esto nos acerca al tamaño de los anticuerpos y, al igual que con ellos, podemos integrar en una proteína de este tipo varias funciones deseadas”, explica Hendrik Dietz. “Podrían ser, por ejemplo, motivos para reconocer y suprimir patógenos”.

Leer más »

El Dr. Prabhakar Raghavan de Google analiza el futuro de la IA en Imperial College

El Dr. Prabhakar Raghavan, director de tecnología de Google, dio una conferencia en Imperial sobre el potencial, la ética y las innovaciones futuras de la IA. El Imperial College de Londres recibió recientemente al Dr. Prabhakar Raghavan, director de tecnología y vicepresidente sénior de Google, para una distinguida conferencia sobre el futuro de la inteligencia artificial (IA) y la tecnología de búsqueda. El evento, que se celebró en el edificio Sir Alexander Fleming, atrajo a una audiencia numerosa y entusiasta de toda la universidad, que reunió a estudiantes, personal y figuras destacadas de las comunidades tecnológica y académica. Organizada por la Escuela de Convergencia en Inteligencia Humana y Artificial del Imperial como parte de su estrategia «Ciencia para la Humanidad», la conferencia destacó el papel de las universidades a la hora de abordar los desafíos sociales que presenta la IA avanzada. El profesor Hugh Brady, presidente de Imperial College, inauguró el evento presentando la nueva estrategia de la universidad, «Ciencia para la humanidad», que enfatiza el papel de la investigación interdisciplinaria para abordar problemas globales urgentes. La IA de vanguardia, como parte de esta visión más amplia, contará con el apoyo de las próximas Escuelas de Ciencia de Convergencia. Brady analizó cómo Imperial está colaborando cada vez más con la industria y el gobierno para mejorar la seguridad de la IA, mejorar la calidad de los datos y la información y crear aplicaciones prácticas para la IA en todos los sectores, con el objetivo de generar un impacto en la innovación, la toma de decisiones sociales y la competitividad. De la historia de los motores de búsqueda al potencial transformador de la IA: una visión más amplia El Dr. Prabhakar Raghavan, director de tecnología y vicepresidente sénior de Google, aportó una gran experiencia académica e industrial a su conferencia sobre el desarrollo del motor de búsqueda y el potencial emergente de la IA, con un enfoque tanto en los desafíos técnicos como en las responsabilidades éticas. Con una trayectoria que abarca funciones de liderazgo en importantes empresas tecnológicas (donde desarrolló la búsqueda y el aprendizaje automático en Yahoo! Labs y Verity antes de unirse a Google), el Dr. Raghavan habló desde una profunda experiencia académica y técnica. Pasó de una distinguida carrera académica a dirigir una de las divisiones más importantes de Google, centrada en los avances impulsados ​​por la IA en la tecnología de búsqueda. En su charla, el Dr. Raghavan destacó el potencial transformador de la IA y pidió cautela con respecto a las complejidades éticas que introduce. Señaló que, a medida que las tecnologías de IA continúan avanzando, persiste una brecha entre lo que los usuarios esperan de la IA y sus limitaciones técnicas actuales, y enfatizó que tanto los desarrolladores como los usuarios necesitan una comprensión sólida de estas capacidades y límites. Fomentar la «alfabetización en IA» es esencial, sostuvo, para garantizar un uso responsable e informado, una visión que se alinea con iniciativas educativas y colaborativas más amplias en el campo. El Dr. Raghavan analizó las formas en que la IA podría reconfigurar el descubrimiento de información, yendo más allá de los métodos de búsqueda estáticos para crear experiencias de descubrimiento interactivas y personalizadas que podrían revolucionar la forma en que se accede al conocimiento y se lo utiliza. Sus ideas reflejaron un compromiso compartido entre las instituciones de desarrollar tecnologías que sirvan a la sociedad de manera responsable, beneficiando a campos como la educación, la atención médica y la ciencia ambiental. Lograr un equilibrio para el futuro En sus comentarios finales, el Dr. Raghavan destacó la necesidad de que los creadores, las plataformas y los desarrolladores de IA logren un equilibrio entre la libertad y la responsabilidad. El uso responsable de la IA puede fomentar una relación transparente y basada en la confianza entre los usuarios y la tecnología, garantizando que la IA sirva como una herramienta beneficiosa en lugar de una fuente de desinformación o daño. El profesor Hugh Brady, presidente de Imperial College, se hizo eco de estos sentimientos y destacó la importancia de las alianzas entre el mundo académico y la industria para desarrollar una IA responsable. Señaló: “A través de nuestras alianzas con líderes como Google, no solo estamos ampliando los límites de la innovación tecnológica, sino que también estamos co-creando estándares para una IA ética y responsable. Esta es la esencia de nuestra estrategia Science for Humanity: garantizar que la IA sirva al bien común en la salud, el medio ambiente y más allá”. Una visión colaborativa para el futuro de la IA El evento concluyó con una sesión de preguntas y respuestas, moderada por la profesora Mary Ryan, vicerrectora de Investigación y Empresa del Imperial, que ofreció a los estudiantes la oportunidad de interactuar con el Dr. Raghavan y aprender más sobre su propia trayectoria, desde la academia hasta el liderazgo de la industria. “Ya estamos viendo un rápido despliegue de la IA en el ámbito de la innovación. La próxima frontera en el desarrollo de la IA debe incluir la mejora de la transparencia y la rendición de cuentas, para permitir un despliegue rápido y responsable que pueda acelerar el progreso”Profesora Mary RyanVicerrector (Investigación y Empresa) Reflexionando sobre el futuro de la IA, la profesora Mary Ryan concluyó: “Ya estamos viendo un rápido despliegue de la IA en el ámbito de la innovación. La próxima frontera en el desarrollo de la IA debe abarcar la mejora de la transparencia y la rendición de cuentas, para permitir un despliegue rápido y responsable que pueda acelerar el progreso. Nuestra red de más de 1000 investigadores que trabajan en IA ya está desarrollando nuevas herramientas y enfoques para garantizar el despliegue ético de la IA para el beneficio global”. La conferencia reforzó la importancia de la investigación interdisciplinaria y la rendición de cuentas en el desarrollo de la IA. Las ideas del Dr. Raghavan, combinadas con la colaboración continua entre el mundo académico, la industria y el gobierno, ofrecen un camino prometedor para una IA que sirva al bien

Leer más »

Investigadores del MIT desarrollan una forma eficiente de entrenar agentes de IA más confiables

La técnica podría hacer que los sistemas de IA sean mejores en tareas complejas que implican variabilidad. Diversos campos, desde la robótica hasta la medicina y la ciencia política, están intentando entrenar sistemas de IA para que tomen decisiones significativas de todo tipo. Por ejemplo, el uso de un sistema de IA para controlar de forma inteligente el tráfico en una ciudad congestionada podría ayudar a los automovilistas a llegar a sus destinos más rápido, al tiempo que mejora la seguridad o la sostenibilidad. Desafortunadamente, enseñar a un sistema de IA a tomar buenas decisiones no es una tarea fácil. Los modelos de aprendizaje por refuerzo, que son la base de estos sistemas de toma de decisiones basados ​​en IA, aún suelen fallar cuando se enfrentan a variaciones incluso pequeñas en las tareas para las que están entrenados. En el caso del tráfico, un modelo podría tener dificultades para controlar un conjunto de intersecciones con diferentes límites de velocidad, cantidad de carriles o patrones de tráfico. Para aumentar la fiabilidad de los modelos de aprendizaje de refuerzo para tareas complejas con variabilidad, los investigadores del MIT han introducido un algoritmo más eficiente para entrenarlos. El algoritmo selecciona estratégicamente las mejores tareas para entrenar a un agente de IA, de modo que pueda realizar de manera eficaz todas las tareas de un conjunto de tareas relacionadas. En el caso del control de semáforos, cada tarea podría ser una intersección en un espacio de tareas que incluye todas las intersecciones de la ciudad. Al centrarse en un número menor de intersecciones que más contribuyen a la eficacia general del algoritmo, este método maximiza el rendimiento y mantiene bajo el costo de entrenamiento. Los investigadores descubrieron que su técnica era entre cinco y cincuenta veces más eficiente que los métodos estándar en una serie de tareas simuladas. Esta mejora en la eficiencia ayuda al algoritmo a aprender una mejor solución de manera más rápida, lo que en última instancia mejora el rendimiento del agente de IA. “Pudimos ver mejoras increíbles en el rendimiento con un algoritmo muy simple, pensando de manera innovadora. Un algoritmo que no es muy complicado tiene más posibilidades de ser adoptado por la comunidad porque es más fácil de implementar y más fácil de entender para otros”, dice la autora principal Cathy Wu, profesora asociada de Desarrollo Profesional Thomas D. y Virginia W. Cabot en Ingeniería Civil y Ambiental (CEE) y el Instituto de Datos, Sistemas y Sociedad (IDSS), y miembro del Laboratorio de Sistemas de Información y Decisiones (LIDS). En el artículo colaboran con ella el autor principal Jung-Hoon Cho, estudiante de posgrado de la CEE; Vindula Jayawardana, estudiante de posgrado del Departamento de Ingeniería Eléctrica y Ciencias de la Computación (EECS); y Sirui Li, estudiante de posgrado del IDSS. La investigación se presentará en la Conferencia sobre sistemas de procesamiento de información neuronal. Encontrar un punto medio Para entrenar un algoritmo que controle los semáforos en muchas intersecciones de una ciudad, un ingeniero normalmente elegiría entre dos enfoques principales. Puede entrenar un algoritmo para cada intersección de forma independiente, utilizando solo los datos de esa intersección, o entrenar un algoritmo más grande utilizando datos de todas las intersecciones y luego aplicarlo a cada una. Pero cada enfoque tiene sus desventajas. Entrenar un algoritmo independiente para cada tarea (como una intersección determinada) es un proceso que consume mucho tiempo y requiere una enorme cantidad de datos y cálculos, mientras que entrenar un algoritmo para todas las tareas suele dar como resultado un rendimiento inferior al esperado. Wu y sus colaboradores buscaron un punto intermedio entre estos dos enfoques. Para su método, eligen un subconjunto de tareas y entrenan un algoritmo para cada tarea de forma independiente. Es importante destacar que seleccionan estratégicamente las tareas individuales que tienen más probabilidades de mejorar el rendimiento general del algoritmo en todas las tareas. Aprovechan un truco común en el campo del aprendizaje de refuerzo llamado aprendizaje de transferencia de disparo cero, en el que un modelo ya entrenado se aplica a una nueva tarea sin volver a entrenarlo. Con el aprendizaje de transferencia, el modelo suele tener un rendimiento notablemente bueno en la nueva tarea vecina. “Sabemos que lo ideal sería entrenar en todas las tareas, pero nos preguntamos si podríamos entrenar en un subconjunto de esas tareas, aplicar el resultado a todas las tareas y aun así ver un aumento en el rendimiento”, dice Wu. Para identificar qué tareas deberían seleccionar para maximizar el rendimiento esperado, los investigadores desarrollaron un algoritmo llamado Aprendizaje de Transferencia Basado en Modelos (MBTL). El algoritmo MBTL consta de dos partes. Por un lado, modela el rendimiento de cada algoritmo si se lo entrenara de forma independiente en una tarea. Luego, modela cuánto se degradaría el rendimiento de cada algoritmo si se lo transfiriera a cada una de las otras tareas, un concepto conocido como rendimiento de generalización. El modelado explícito del rendimiento de generalización permite a MBTL estimar el valor del entrenamiento en una nueva tarea. MBTL hace esto secuencialmente, eligiendo primero la tarea que genera la mayor ganancia de rendimiento y luego seleccionando tareas adicionales que brindan las mayores mejoras marginales posteriores al rendimiento general. Dado que MBTL solo se centra en las tareas más prometedoras, puede mejorar drásticamente la eficiencia del proceso de capacitación. Reducción de costes de formación Cuando los investigadores probaron esta técnica en tareas simuladas, incluido el control de señales de tráfico, la gestión de avisos de velocidad en tiempo real y la ejecución de varias tareas de control clásicas, resultó entre cinco y cincuenta veces más eficiente que otros métodos. Esto significa que podrían llegar a la misma solución entrenando con muchos menos datos. Por ejemplo, con un aumento de eficiencia de 50 veces, el algoritmo MBTL podría entrenarse con solo dos tareas y lograr el mismo rendimiento que un método estándar que utiliza datos de 100 tareas. “Desde la perspectiva de los dos enfoques principales, eso significa que los datos de las otras 98 tareas no fueron necesarios

Leer más »

El grupo de inteligencia artificial de Kempner, considerado uno de los superordenadores «verdes» más rápidos del mundo

Las unidades de procesamiento de gráficos del clúster de inteligencia artificial del Instituto Kempner están conectadas en red para permitir un procesamiento paralelo increíblemente rápido. 19 de noviembre de 2024 lectura larga El poder computacional se puede utilizar para entrenar y ejecutar redes neuronales artificiales, lo que genera avances clave en la comprensión de la base de la inteligencia en sistemas naturales y artificiales. Los investigadores de Harvard ahora tienen acceso a una de las supercomputadoras más rápidas y ecológicas del mundo. Creado para respaldar la investigación de vanguardia en el Instituto Kempner para el Estudio de la Inteligencia Natural y Artificial y en la Universidad de Harvard en general, el clúster de IA de Kempner acaba de ser nombrado el 32.º superordenador «verde» más rápido del mundo en Green500, la clasificación independiente más importante de la industria de los superordenadores más eficientes energéticamente a nivel mundial. Además de entrar en la lista de los 50 mejores superordenadores verdes, el clúster ha sido certificado como el 85.º superordenador más rápido en general en el TOP500, lo que lo convierte en uno de los superordenadores más rápidos y ecológicos del planeta.  “La clasificación del clúster de IA de Kempner en las últimas listas Green500 y TOP500 nos sitúa claramente entre los clústeres de IA más rápidos y ecológicos del mundo académico y del mundo”, afirmó Max Shad, director sénior de ingeniería de investigación de IA/ML de Kempner. “No es poca cosa haber creado este tipo de potencia informática ecológica de alto rendimiento en tan poco tiempo, lo que permite una investigación de vanguardia que innova en tiempo real y permite avances verdaderamente importantes en la intersección de la inteligencia artificial y la neurociencia”. La computación de alto rendimiento constituye la columna vertebral del crecimiento masivo en el campo del aprendizaje automático, y los investigadores del Instituto Kempner están aprovechando este inmenso poder computacional para entrenar y ejecutar redes neuronales artificiales, lo que conduce a avances clave en la comprensión de la base de la inteligencia en sistemas naturales y artificiales. Medición de la potencia informática ecológica, desde flops hasta gigaflops El grupo de IA de Kempner abrió con una instalación piloto inicial en la primavera de 2023 y ahora representa la vanguardia del creciente compromiso de Harvard con los recursos informáticos de última generación. Compuesto por 528 procesadores informáticos especializados llamados unidades de procesamiento gráfico (GPU), que están conectados en red en paralelo con «conmutadores» para permitir un cálculo rápido y simultáneo, el grupo puede ejecutar cálculos rápidos en cientos de proyectos de investigación a la vez.  Para medir la potencia de procesamiento ecológico del clúster y la potencia de procesamiento general, los ingenieros de Lenovo midieron la velocidad de las GPU de mayor rendimiento del clúster (denominadas H100) utilizando el LINPACK Benchmark , que requiere resolver vastos problemas de álgebra lineal. Esto se expresa en términos de operaciones de punto flotante por segundo o «flops». La eficiencia del sistema, o la capacidad de procesamiento «ecológico», depende de la cantidad de flops que pueden realizar las H100 con una cantidad determinada de energía, que se expresa en gigaflops por vatio de energía utilizada.  Los H100 de Kempner demostraron la capacidad de realizar 16,29 petaflops, con una eficiencia de 48,065 gigaflops por vatio de potencia utilizada. ¿Qué tan rápido es el clúster de inteligencia artificial de Kempner? Para tener una idea de la perspectiva de los 16,29 petaflops de potencia de cálculo del Kempner, considere lo siguiente: los ordenadores a bordo del Apolo 11, que llevaron a Neil Armstrong y Buzz Aldrin a la Luna en 1969, eran capaces de realizar 12.250 flops. Eso parece mucho, pero en la década de 1980 eran posibles cálculos mucho más rápidos: el superordenador CRAY-2 registró un rendimiento de 1,9 gigaflops. Eso es 1.900 millones de flops. Y ahora tenemos mucho más poder de cálculo en nuestros bolsillos. El iPhone 15 es capaz de más de 1.700 gigaflops. Y el clúster de inteligencia artificial de Kempner tiene más de 16 petaflops de potencia de cálculo (es decir, 16 seguido de 15 ceros), lo que es cuatro órdenes de magnitud mayor que el iPhone que lleva en el bolsillo. Estas cifras sugieren que la capacidad de un Gran Modelo de Lenguaje (LLM) para producir un lenguaje gramaticalmente correcto y simular la cognición requiere un uso computacional más intensivo que navegar un cohete a la luna, al menos por ahora.  Una supercomputadora que respalda nuevas investigaciones en Kempner y en Harvard Con esta magnitud de potencia informática, los investigadores de Kempner pueden entrenar sistemas de IA de última generación como los modelos de lenguaje de gran tamaño (LLM), de los cuales ChatGPT es quizás el más conocido, de forma rápida y eficiente. Por ejemplo, el clúster de Kempner puede entrenar los populares modelos de lenguaje Meta Llama 3.1 8B y Meta Llama 3.1 70B en aproximadamente una semana y dos meses, respectivamente. Antes de que se estableciera y estuviera operativo el clúster de Kempner, el entrenamiento de los modelos Llama en el siguiente sistema informático más rápido de Harvard habría llevado años.  Además de utilizar el clúster para crear modelos más rápidos, los investigadores también lo están empleando para comprender mejor cómo y por qué funcionan. “Con esta mayor potencia computacional, podemos profundizar en cómo los modelos generativos aprenden a razonar y completar tareas con mayor eficiencia”, afirma Binxu Wang, investigador del Instituto Kempner.  Además de brindarles a los investigadores la capacidad de entrenar modelos complejos de manera rápida y eficiente, y comprender los mecanismos detrás de cómo aprenden, el clúster Kempner permite a los científicos comparar una gran cantidad de arquitecturas de modelos y algoritmos de aprendizaje en paralelo, con importantes aplicaciones en campos que van desde la medicina hasta la neurociencia. Un ejemplo: en una investigación publicada recientemente en Nature Medicine, la profesora asociada de Kempner y profesora adjunta de la Facultad de Medicina de Harvard Marinka Zitnik y sus colegas utilizaron el clúster para desarrollar y entrenar TxGNN , un sistema de IA que destila grandes cantidades de datos médicos en gráficos de conocimiento y luego utiliza los gráficos para

Leer más »

Re-Invoke: reescritura de la invocación de herramientas para la recuperación de herramientas de disparo cero

Proponemos Re-Invoke, un método de recuperación de herramientas no supervisado que recupera de manera eficaz y eficiente las herramientas más relevantes de un gran conjunto de herramientas dada la consulta del usuario con múltiples intenciones subyacentes. Aumentar los modelos de lenguaje grandes (LLM) con herramientas externas, en lugar de depender únicamente de su conocimiento interno, podría liberar su potencial para resolver problemas más desafiantes. Los enfoques comunes para este «aprendizaje de herramientas» se dividen en dos categorías: (1) métodos supervisados ​​para generar funciones de llamada de herramientas , o (2) aprendizaje en contexto, que utiliza documentos de herramientas que describen el uso previsto de la herramienta junto con demostraciones de pocos intentos. Los documentos de herramientas brindan instrucciones sobre las funcionalidades de la herramienta y cómo invocarla, lo que permite a los LLM dominar las herramientas individuales. Sin embargo, estos métodos enfrentan desafíos prácticos cuando se escalan a una gran cantidad de herramientas. En primer lugar, sufren límites de token de entrada. Es imposible alimentar la lista completa de herramientas dentro de una sola solicitud y, incluso si fuera posible, los LLM aún a menudo luchan por procesar de manera efectiva la información relevante de contextos de entrada largos . En segundo lugar, el conjunto de herramientas está evolucionando. Los LLM a menudo se combinan con un recuperador entrenado en pares de consulta-herramienta etiquetados para recomendar una lista corta de herramientas. Sin embargo, el conjunto de herramientas LLM ideal debería ser amplio y dinámico, con herramientas que se actualizan con frecuencia. Proporcionar y mantener etiquetas para entrenar a un recuperador para un conjunto de herramientas tan extenso y en evolución sería poco práctico. Finalmente, uno debe lidiar con intenciones ambiguas del usuario. El contexto del usuario en las consultas podría ofuscar las intenciones subyacentes, y no identificarlas podría llevar a llamar a las herramientas incorrectas. En “ Re-Invoke: Tool Invocation Rewriting for Zero-Shot Tool Retrieval ”, presentado en EMNLP 2024 , presentamos un nuevo método de recuperación no supervisado diseñado específicamente para el aprendizaje de herramientas para abordar estos desafíos únicos. Re-Invoke aprovecha los LLM tanto para el enriquecimiento de documentos de herramientas como para la extracción de intenciones del usuario para mejorar el rendimiento de la recuperación de herramientas en varios casos de uso. Demostramos que el método Re-Invoke propuesto mejora de manera consistente y significativa las líneas de base que cubren las tareas de recuperación de una sola herramienta y de múltiples herramientas en conjuntos de datos de referencia de uso de herramientas. Re-invocar La tarea de recuperación de herramientas se formula como la recuperación de las herramientas más relevantes que un agente posterior puede ejecutar para satisfacer las consultas del usuario, dada una lista de documentos de herramientas que describen el uso previsto de la herramienta. Re-Invoke es un método de recuperación de herramientas totalmente no supervisado diseñado para tales tareas. Consta de dos componentes principales: Descripción general de Re-Invoke en las tareas de recuperación de herramientas. Arriba: un generador de consultas produce diversas consultas sintéticas a partir de la documentación de la herramienta. Cada consulta sintética se concatena con la documentación de la herramienta para crear varias copias de la documentación de la herramienta ampliada. Abajo: un extractor de intenciones sintetiza varias intenciones subyacentes a partir de las consultas del usuario para recuperar las herramientas relevantes. Como se pueden recuperar diferentes herramientas relevantes de cada intención extraída de las consultas del usuario, presentamos un nuevo método de clasificación de similitud de múltiples vistas para considerar todas las intenciones relacionadas con las herramientas expresadas en la consulta del usuario. Clasificamos las herramientas individualmente por la puntuación de relevancia dentro de cada intención y recuperamos la herramienta principal de cada intención (consulte el ejemplo a continuación). Para lograr esto, diseñamos una función de ordenamiento para considerar tanto la clasificación de la herramienta recuperada dentro de cada intención como el valor de la puntuación de similitud entre la herramienta y la intención en el espacio de incrustación. La formulación propuesta nos permite capturar la relevancia de cada intención para diferentes aspectos del documento de la herramienta, como se representa mediante las consultas sintéticas. Una ilustración del algoritmo de clasificación de similitud de múltiples vistas durante la recuperación. Se pueden extraer múltiples intenciones de la consulta del usuario. Primero calculamos los puntajes de similitud entre los documentos de herramientas expandidos y cada intención en el espacio de incrustación y luego clasificamos y recuperamos las mejores herramientas de cada intención. Experimento Seleccionamos los conjuntos de datos ToolBench y ToolE para evaluar el rendimiento de recuperación de herramientas de Re-Invoke. Ambos conjuntos de datos proporcionan pares de documentos de herramientas de consulta y de verdad fundamental que reflejan escenarios del mundo real. El conjunto de datos ToolBench consta de más de 10 000 herramientas extraídas del centro RapidAPI , adecuadas para evaluaciones de recuperación de herramientas a gran escala. Usamos la métrica nDCG@k para evaluar el rendimiento de recuperación de herramientas considerando solo las k herramientas recuperadas principales. Usamos el mismo conjunto de datos ToolBench para evaluar el rendimiento de extremo a extremo al integrar el agente LLM con el método de recuperación Re-Invoke propuesto. Para Re-Invoke, utilizamos el modelo text-bison@001 de Google Vertex AI en el generador de consultas con una temperatura de muestreo de 0,7 (para introducir variaciones en la respuesta del modelo) para generar 10 consultas sintéticas diversas por documento de herramienta. El mismo modelo text-bison@001 (con una temperatura de muestreo de 0,0) se utiliza en el extractor de intenciones para sintetizar las intenciones de las consultas del usuario. Luego, extraemos vectores de incrustación densos de los documentos de herramientas aumentados y las intenciones extraídas utilizando el modelo textembedding-gecko@003 de Google Vertex AI . Para el método de recuperación dispersa, utilizamos vectores de incrustación BM25 . Promediamos los valores de incrustación de varias copias del documento de herramienta expandido como una representación del documento de herramienta. Replicamos nuestro experimento utilizando otros LLM, incluido el modelo turbo gpt-3.5 de OpenAI y el modelo Mistral-7B-Instruct-v0.3 de Mistral AI con los mismos parámetros de modelo y solicitud. Tenga en cuenta que esta investigación se realizó principalmente en noviembre de 2023 y, por lo tanto, utilizamos modelos text-bison@001 en nuestro experimento. Re-Invoke supera las líneas base

Leer más »
Scroll al inicio