El Portal de las Tecnologías para la Innovación

Categoría: Inteligencia Artificial en la Salud Humana

El Instituto McGovern de MITM está dando forma a la ciencia del cerebro y mejorando las vidas humanas a escala global

Un cuarto de siglo después de su fundación, el Instituto McGovern reflexiona sobre sus descubrimientos en las áreas de neurociencia, neurotecnología, inteligencia artificial, conexiones cerebro-cuerpo y terapéutica. En 2000, Patrick J. McGovern ’59 y Lore Harp McGovern hizo un regalo extraordinario establecer el Instituto McGovern para la Investigación del Cerebro en el MIT, impulsado por su profunda curiosidad sobre la mente humana y su creencia en el poder de la ciencia para cambiar vidas. Su promesa de $350 millones comenzó con una visión simple pero audaz: comprender el cerebro humano en toda su complejidad y aprovechar esa comprensión para el mejoramiento de la humanidad. Veinticinco años después, el Instituto McGovern es un testimonio del poder de la colaboración interdisciplinaria, continuando dando forma a nuestra comprensión del cerebro y mejorando la calidad de vida de las personas en todo el mundo. https://www.youtube.com/embed/WTP-D7UlLMkMcGovern a los 25Video: El Instituto McGovern Al principio “Este es, en cualquier medida, un momento verdaderamente histórico para el MIT,” dijo el 15o presidente del MIT, Charles M. Vest, durante sus comentarios de apertura en un evento en 2000 para celebrar el acuerdo de regalo de McGovern. “La creación del Instituto McGovern lanzará una de las empresas científicas más profundas e importantes de este siglo en lo que seguramente será una piedra angular de las contribuciones científicas del MIT de las próximas décadas.” Chaleco roscado Felipe A. Afilar, profesor emérito de biología del Instituto MIT y premio Nobel, para dirigir el instituto, y nombró a seis profesores del MIT — Emilio Bizzi, Martha Constantino-Paton, Ann Graybiel PhD ’71, H. Robert Horvitz ’68, Nancy Kanwisher ’80, PhD ’86, y Tomaso Poggio — para representar a su facultad fundadora.  La construcción comenzó en 2003 en el Edificio 46, un complejo de investigación de 376,000 pies cuadrados en el extremo noreste del campus. La nueva puerta de entrada de MIT de “desde el norte” eventualmente albergaría el Instituto McGovern, el Instituto Picower para el Aprendizaje y la Memoria, y Departamento de Cerebro y Ciencias Cognitivas del MIT. J Patrick. McGovern ’59 (quinto desde la derecha) y Lore Harp McGovern (a la derecha de Patrickis) se reúnen con miembros fundadores de la facultad y la administración del MIT en la inauguración del Edificio 46 en 2003.Foto: Donna Coveney Robert Desimoneél, el Profesor Doris y Don Berkey de Neurociencia en el MIT, sucedió a Sharp como director del Instituto McGovern en 2005, y reunió una distinguida lista de 22 miembros de la facultad, incluyendo un premio Nobel, un ganador del Premio Breakthrough, dos ganadores de la Medalla Nacional de Ciencia/Tecnología, y 15 miembros de la Academia Americana de Artes y Ciencias. Un cuarto de siglo de innovación El 11 de abril de 2025, el Instituto McGovern celebró su 25 aniversario con un simposio de medio día con presentaciones del Profesor del Instituto MIT Robert Langer, ex alumnos oradores de varios laboratorios McGovern, y Desimone, que está en su 20o año como director del instituto. Desimone destacó los descubrimientos recientes de los institutos, incluido el desarrollo del sistema de edición del genoma CRISPR, que ha culminado en la primera terapia génica CRISPR aprobada para humanos —, un logro notable que está marcando el comienzo de una nueva era de medicina transformadora. En otros hitos, los investigadores de McGovern desarrollaron la primera extremidad protésica totalmente controlada por el sistema nervioso del bodyum; una sonda flexible que aprovecha la comunicación intestino-cerebro; una técnica de microscopía de expansión que allana el camino para que los laboratorios de biología de todo el mundo realicen imágenes a nanoescala; y modelos computacionales avanzados que demuestran cómo vemos, escuchamos, usamos el lenguaje e incluso pensamos en lo que otros están pensando. Igualmente transformador ha sido el trabajo de McGovern Institute en neuroimagendescubrir la arquitectura del pensamiento humano y establecer marcadores que señalan la aparición temprana de enfermedades mentales, incluso antes de que aparezcan los síntomas. La comunidad McGovern se reúne en la forma del número 25 para celebrar el 25 aniversario del Instituto McGovern.Foto: Steph Stevens Sinergia y ciencia abierta “A menudo me preguntan qué nos hace diferentes de otros institutos y programas de neurociencia en todo el mundo,” dice Desimone. “Mi respuesta es simple. En el Instituto McGovern, el todo es mayor que la suma de sus partes.” Muchos descubrimientos en el Instituto McGovern han dependido de colaboraciones en múltiples laboratorios, desde ingeniería biológica hasta imágenes cerebrales humanas e inteligencia artificial. En la investigación moderna del cerebro, los avances significativos a menudo requieren la experiencia conjunta de las personas que trabajan en neurofisiología, comportamiento, análisis computacional, neuroanatomía y biología molecular. Más de una docena de departamentos diferentes del MIT están representados por profesores de McGovern y estudiantes de posgrado, y esta sinergia ha llevado a ideas e innovaciones que son mucho mayores de lo que cualquier disciplina podría lograr sola. También integrado en el espíritu de McGovern hay un espíritu de ciencia abierta, donde las tecnologías recientemente desarrolladas se comparten con colegas de todo el mundo. A través de asociaciones hospitalarias, por ejemplo, los investigadores de McGovern están probando sus herramientas e intervenciones terapéuticas en entornos clínicos, acelerando sus descubrimientos en soluciones del mundo real. Profesora Nancy Kanwisher (centro) con tres de sus científicos “niños”: (de izquierda a derecha) profesores del MIT Evelina Fedorenko, Josh McDermott y Rebecca Saxe.Foto: Steph Stevens El legado de McGovern   Cientos de artículos científicos han surgido de los laboratorios McGovern en los últimos 25 años, pero la mayoría de los profesores argumentarían que es la gente — los jóvenes investigadores — lo que realmente define el Instituto McGovern. La facultad galardonada a menudo atrae a las mentes jóvenes más brillantes, pero muchos profesores de McGovern también sirven como mentores, creando una comunidad científica diversa y vibrante que está estableciendo el estándar global para la investigación del cerebro y sus aplicaciones. Kanwisher, por ejemplo, ha guiado a más de 70 estudiantes de doctorado y postdoctorados que se han convertido en científicos líderes en todo el mundo. Tres de sus antiguos alumnos, Evelina Fedorenko PhD ’07, Josh McDermott PhD ’06, y Rebecca Saxe PhD ’03, el John W. Jarve (1978) Profesor de Cerebro y Ciencias Cognitivas, son ahora

Leer más »

AI Bites Back: Investigadores Desarrollan Modelo para Detectar Malaria en Medio de la Fiebre del Oro Venezolana

Una vez libre de malaria, Venezuela se enfrenta a un resurgimiento de la enfermedad infecciosa, pero los investigadores han entrenado un modelo para ayudar en la detección. La prospección de oro en Venezuela ha llevado a un resurgimiento de la malaria, pero los investigadores han desarrollado IA para eliminar el problema. En el estado venezolano de Bolívar, la deforestación para la extracción de oro en las aguas ha perturbado las poblaciones de mosquitos, que están mordiendo a los mineros e infectándolos con el parásito mortal. Venezuela fue certificada como libre de malaria en 1961 por la Organización Mundial de la Salud. Se estima que en todo el mundo hubo 263 millones de casos de malaria y 597,000 muertes en 2023, según la OMS. En el brote venezolano, el área afectada es rural y tiene acceso limitado a clínicas médicas, por lo que falta detección con microscopía por profesionales capacitados. Pero los investigadores en la intersección de la medicina y la tecnología han aprovechado las GPU AI y NVIDIA para encontrar una solución. Recientemente ellos publicó un artículo en Naturaleza, describiendo el desarrollo de a red neuronal convolucional (CNN) para detectar automáticamente parásitos de la malaria en muestras de sangre. “En algún momento de Venezuela, la malaria casi fue erradicada,” dijo Diego Ramos-Briceño, de 25 años, quien tiene una licenciatura en ingeniería que obtuvo mientras también cursaba un doctorado en medicina. “Creo que fueron alrededor de 135,000 casos el año pasado.” Identificación de Parásitos de Malaria en Muestras de Sangre Los investigadores — Ramos-Briceño, Alessandro Flammia-DadAleo, Gerardo Fernández-López, Fhabián Carrión-Nessi y David Forero-Peña — utilizaron la CNN para identificar Plasmodium falciparum y Plasmodium vivax en frotis de sangre gruesos, logrando una precisión del 99.51%. Para desarrollar el modelo, el equipo adquirió un conjunto de datos de 5,941 imágenes de microscopio de frotis de sangre gruesa etiquetadas del Hospital Chittagong Medical College, en Bangladesh. Procesaron este conjunto de datos para crear casi 190,000 imágenes etiquetadas. “Lo que queríamos que la red neuronal aprendiera es la morfología del parásito, por lo que de las casi 6,000 imágenes a nivel de microscopio, extrajimos cada parásito, y de todo ese aumento y segmentación de datos, terminamos teniendo casi 190,000 imágenes para el entrenamiento de modelos,” dijo Ramos-Briceño. El modelo se presenta como los métodos tradicionales de microscopía también se ven desafiados por las limitaciones en la precisión y la consistencia, según el documento de investigación. Aprovechamiento de GPU de juegos y CUDA para Model Training, Inference Para ejecutar la capacitación de modelos, el equipo de paperings de malaria aprovechó una GPU RTX 3060 de un maestro de informática que asesora a su investigación. “Usamos PyTorch Lightning con NVIDIA CUDA aceleración que nos permitió hacer un cálculo paralelo eficiente que aceleró significativamente las operaciones de la matriz y los preparativos de la red neuronal en comparación con lo que habría hecho una CPU,” dijo Ramos-Briceño. Para la inferencia, las determinaciones de la malaria a partir de muestras de sangre se pueden hacer en varios segundos, dijo, usando tales GPU. Las clínicas que carecen de microscopistas capacitados podrían usar el modelo e introducir sus propios datos para el aprendizaje de transferencia para que el modelo funcione de manera óptima con los tipos de imágenes que envían, manejando las condiciones de iluminación y otros factores, dijo. “Para las comunidades que están lejos del entorno urbano, donde hay más acceso a los recursos, esta podría ser una forma de abordar el problema de la malaria,” dijo Ramos-Briceño. NVIDIA Blog. S. M. Traducido al español

Leer más »

Los modelos de IA del cerebro podrían servir como ‘gemelos digitales’ en investigación

En un nuevo estudio, los investigadores crearon un modelo de IA de la corteza visual del ratón que predice respuestas neuronales a imágenes visuales. Por mucho que un piloto pueda practicar maniobras en un simulador de vuelo, los científicos pronto podrán realizar experimentos en una simulación realista del cerebro del ratón. En un nuevo estudio, los investigadores y colaboradores de Stanford Medicine utilizaron un modelo de inteligencia artificial para construir una “” gemela digital de la parte del cerebro del ratón que procesa la información visual. El gemelo digital fue entrenado en grandes conjuntos de datos de actividad cerebral recolectados de la corteza visual de ratones reales mientras veían clips de películas. Luego podría predecir la respuesta de decenas de miles de neuronas a nuevos videos e imágenes. Los gemelos digitales podrían hacer que estudiar el funcionamiento interno del cerebro sea más fácil y eficiente. “Si construyes un modelo del cerebro y es muy preciso, eso significa que puedes hacer muchos más experimentos,” dijo Andreas Tolias, PhD, profesor de oftalmología de Stanford Medicine y autor principal del estudio publicado el 9 de abril en Nature. “Los más prometedores que puedes probar en el cerebro real.” El autor principal del estudio es Eric Wang, PhD, un estudiante de medicina en el Baylor College of Medicine. Más allá de la distribución de la formación A diferencia de los modelos anteriores de IA de la corteza visual, que podrían simular la respuesta de los cerebros solo al tipo de estímulos que vieron en los datos de entrenamiento, el nuevo modelo puede predecir la respuesta de los cerebros a una amplia gama de nuevas entradas visuales. Incluso puede suponer características anatómicas de cada neurona. Eventualmente, creo que será posible construir gemelos digitales de al menos partes del cerebro humano.” El nuevo modelo es un ejemplo de un modelo de base, una clase relativamente nueva de modelos de IA capaces de aprender de grandes conjuntos de datos, luego aplicar ese conocimiento a nuevas tareas y nuevos tipos de datos – o lo que los investigadores llaman “generalizando fuera de la distribución de entrenamiento (ChatGPT es un ejemplo familiar de un modelo de base que puede aprender de grandes cantidades de texto para luego entender y generar nuevo texto) “En muchos sentidos, la semilla de la inteligencia es la capacidad de generalizar de manera sólida,” dijo Tolias. “El objetivo final – el santo grial – es generalizar a escenarios fuera de su distribución de entrenamiento.” Películas de ratón Para entrenar el nuevo modelo de IA, los investigadores primero registraron la actividad cerebral de ratones reales mientras veían películas – películas hechas para personas. Las películas idealmente se aproximarían a lo que los ratones podrían ver en entornos naturales. “Es muy difícil probar una película realista para ratones, porque nadie hace películas de Hollywood para ratones,” dijo Tolias. Pero las películas de acción se acercaron lo suficiente. Los ratones tienen visión de baja resolución – similar a nuestra visión periférica –, lo que significa que principalmente ven movimiento en lugar de detalles o color. “A los ratones les gusta el movimiento, que activa fuertemente su sistema visual, por lo que les mostramos películas que tienen mucha acción,” dijo Tolias. Durante muchas sesiones de visualización cortas, los investigadores registraron más de 900 minutos de actividad cerebral de ocho ratones viendo clips de películas llenas de acción, como Mad Max. Las cámaras monitorearon sus movimientos y comportamiento oculares. Los investigadores utilizaron los datos agregados para entrenar un modelo central, que luego podría personalizarse en un gemelo digital de cualquier ratón individual con un poco de capacitación adicional. Predicciones precisas Estos gemelos digitales pudieron simular de cerca la actividad neuronal de sus contrapartes biológicas en respuesta a una variedad de nuevos estímulos visuales, incluidos videos e imágenes estáticas. La gran cantidad de datos agregados de entrenamiento fue clave para el éxito de los gemelos digitales’, dijo Tolias. “Fueron impresionantemente precisos porque fueron entrenados en conjuntos de datos tan grandes.” Aunque entrenados solo en actividad neuronal, los nuevos modelos podrían generalizarse a otros tipos de datos. El gemelo digital de un ratón en particular fue capaz de predecir las ubicaciones anatómicas y el tipo de célula de miles de neuronas en la corteza visual, así como las conexiones entre estas neuronas. Los investigadores verificaron estas predicciones contra las imágenes de microscopio electrónico de alta resolución de la corteza visual de ese ratón, que era parte de un proyecto más grande para mapear la estructura y función de la corteza visual del ratón con un detalle sin precedentes. Los resultados de ese proyecto, conocido como MICRONES, fue publicado simultáneamente en Naturaleza. Abriendo la caja negra Debido a que un gemelo digital puede funcionar mucho más allá de la vida útil de un ratón, los científicos podrían realizar un número virtualmente ilimitado de experimentos en esencialmente el mismo animal. Los experimentos que tomarían años podrían completarse en horas, y millones de experimentos podrían ejecutarse simultáneamente, acelerando la investigación sobre cómo el cerebro procesa la información y los principios de la inteligencia. “Weisre está tratando de abrir la caja negra, por así decirlo, para comprender el cerebro a nivel de neuronas individuales o poblaciones de neuronas y cómo trabajan juntas para codificar información, ” Tolias dijo. De hecho, los nuevos modelos ya están produciendo nuevas ideas. En otro relacionado estudio, también publicado simultáneamente en Naturalezalos investigadores utilizaron un gemelo digital para descubrir cómo las neuronas en la corteza visual eligen otras neuronas con las que formar conexiones. Los científicos sabían que las neuronas similares tienden a formar conexiones, como las personas que forman amistades. El gemelo digital reveló qué similitudes importaban más. Las neuronas prefieren conectarse con neuronas que responden al mismo estímulo – el color azul, por ejemplo – sobre neuronas que responden a la misma área del espacio visual. “Es como alguien que selecciona amigos en función de lo que les gusta y no de dónde están,” dijo Tolias. “Aprendimos esta regla más precisa de cómo se organiza el cerebro.” Los investigadores planean extender su modelado a

Leer más »

¿Qué es la Inteligencia Artificial?

La IA generativa utiliza nuevos enfoques como transformadores y modelos de difusión para producir texto, imágenes y código similares a los humanos. Los humanos han soñado con construir máquinas inteligentes desde al menos la época de los antiguos griegos, pero no fue hasta la llegada de las computadoras digitales que la IA se hizo posible. John McCarthy, profesor del Dartmouth College, acuñó el término «inteligencia artificial» en 1955, y a pesar de los periodos fluctuantes de progreso y estancamiento, la IA se ha integrado progresivamente en la vida cotidiana. Hoy en día, la IA está en todas partes, desde sistemas de recomendación basados ​​en aprendizaje automático (Amazon, Netflix), asistentes digitales (Siri, Alexa) y millones de aspiradoras robot. ¿Qué es la IA y de dónde surgió?  En esencia, la IA utiliza las computadoras para discernir patrones y predecir resultados a partir de conjuntos de datos, grandes o pequeños, ya sean tendencias climáticas, patrones de compra personales o montones de imágenes. Un modelo de IA es un sistema que puede aprender de los datos y tomar decisiones o predicciones sin estar programado explícitamente para ello. La aceleración del campo se debe en gran medida a la Ley de Moore y a la rápida innovación tecnológica, pero varios cambios estructurales han sido fundamentales: Big Data: una explosión de generación de datos, incluida la información pública disponible en Internet, ha potenciado el entrenamiento de la IA. Procesamiento paralelo: la IA ha adoptado técnicas de supercomputación y computación en la nube, lo que permite el uso simultáneo de miles de procesadores. Aceleradores de hardware:El hardware especializado aumenta drásticamente la velocidad de ciertos tipos de computación, como la multiplicación de matrices. Los aceleradores abarcan desde dispositivos dedicados hasta piezas de silicio dedicadas y bloques de propiedad intelectual integrados en un microprocesador. Computación de precisión baja o mixta:la IA se ha beneficiado al representar números con menos bits, mejorando la velocidad sin comprometer la precisión. Paralelamente a estos cambios tecnológicos se produjeron avances en un componente central que había sido parte de la IA desde el principio: las redes neuronales. Las redes neuronales, un tipo de modelo matemático inspirado en el cerebro humano, toman una entrada (es decir, imágenes de automóviles), la pasan a través de neuronas o nodos dentro de capas ocultas de la red para producir una salida (un modelo de un «automóvil»). Cómo se construye la IA El primer paso importante para construir un modelo de IA se llama entrenamiento , que puede requerir una inmensa velocidad y escala computacional (o mucha paciencia). Al recorrer la red neuronal hacia adelante y hacia atrás en un bucle de retroalimentación rápido y ajustarla a los aspectos conocidos del conjunto de datos, el modelo de IA aprende variables internas, también conocidas como parámetros , que se ajustan durante el entrenamiento para ayudar al modelo a realizar predicciones precisas. El comportamiento de la red depende de la fuerza (o peso ) de las conexiones entre neuronas. El siguiente paso es el ajuste , donde el modelo de IA previamente entrenado se ajusta para incorporar nueva información o adaptarse mejor a un conjunto de datos o una tarea específicos. Una vez que se entrena un modelo, se puede aplicar una y otra vez para realizar inferencias, que utilizan el modelo para tomar nuevas entradas y generar nuevos resultados relevantes. De la IA que toma decisiones a la IA que crea cosas El aprendizaje profundo potenció las redes neuronales al incorporar múltiples capas que mejoran la precisión y la eficiencia del entrenamiento. Las redes neuronales y el aprendizaje profundo son la base de muchas de las herramientas más populares y potentes de la IA. (No son las únicas: los grafos de conocimiento, el aprendizaje por refuerzo y la IA neurosimbólica son otros enfoques que están teniendo un impacto). Los avances tecnológicos más recientes dieron lugar a la IA generativa (GenAI), donde las máquinas pueden crear respuestas similares a las humanas y contenido visual original, algo así como tener un asistente superinteligente y creativo que responde a tus preguntas y mejora sus creaciones. La GenAI actual se presenta en diferentes variantes, cada una posible gracias a varias innovaciones clave. Los transformadores son un tipo de arquitectura de red neuronal introducida por Google en 2017. Se entrenan con grandes volúmenes de texto y no requieren supervisión humana, ya que procesan oraciones completas simultáneamente, lo que mejora la comprensión de las palabras en contexto al prestar atención a las más relevantes. Ejemplos: GPT (Transformador Generativo Preentrenado), BERT (Representaciones de Codificador Bidireccional a partir de Transformadores). Los transformadores, y los grandes modelos lingüísticos (LLM) que han permitido, revolucionaron la traducción de idiomas, los chatbots y la creación de contenido. Incluso han demostrado capacidades emergentes en la generación de texto, la codificación y la predicción meteorológica. Ejemplos: GPT-3, GPT-4. Para la generación de imágenes, los modelos de difusión , conceptualizados en Stanford en 2015 e inspirados en los procesos de difusión de la física, han demostrado avances y capacidades increíbles. Ejemplos: DALL-E 2, Difusión estable. Los modelos multimodales , capaces de interpretar diversos tipos de datos, han mejorado la comprensión y versatilidad de la IA. Ejemplos: CLIP (Preentrenamiento Contrastivo de Lenguaje e Imagen), DALL-E. Aún estamos en las primeras etapas de la IA. El potencial de este campo para transformar casi todos los aspectos de la vida impulsa una gran inversión en capacidad informática e investigación y desarrollo; al mismo tiempo, genera entusiasmo y preocupación a nivel mundial. Resumen Intel News. Traducido al español

Leer más »

Semana Nacional de Robótica — Última Investigación, Avances y Recursos de IA Física

Todas las noticias de este año celebran a los innovadores, investigadores y desarrolladores que avanzan en la robótica e inspiran a la próxima generación de líderes de la industria. En esta Semana Nacional de la Robótica, NVIDIA destacó las tecnologías pioneras que están dando forma al futuro de las máquinas inteligentes e impulsando el progreso en la fabricación, la atención médica, la logística y más. Los avances en simulación robótica y aprendizaje robótico están impulsando este cambio fundamental en la industria. Además, la aparición de modelos de base mundial está acelerando la evolución de robots con IA, capaces de adaptarse a escenarios dinámicos y complejos. Por ejemplo, al proporcionar modelos básicos de robots como NVIDIA GR00T N1 , marcos como NVIDIA Isaac Sim e Isaac Lab para simulación y entrenamiento de robots, y canales de generación de datos sintéticos para ayudar a entrenar robots para diversas tareas, las plataformas NVIDIA Isaac y GR00T están empoderando a los investigadores y desarrolladores para superar los límites de la robótica. Continúe leyendo para conocer lo último sobre la IA física , que permite a las máquinas percibir, planificar y actuar con mayor autonomía e inteligencia en entornos del mundo real. Lo último sobre IA física y robótica, tal como se reveló en NVIDIA GTC 🔗 Mire las sesiones a pedido de la conferencia global de inteligencia artificial NVIDIA GTC para ponerse al día con los últimos avances en robótica, presentados por los principales expertos en el campo. En su discurso inaugural, Jensen Huang, fundador y CEO de NVIDIA, anunció NVIDIA Isaac GR00T N1 , el primer modelo básico abierto y totalmente personalizable del mundo para el razonamiento y las habilidades generalizadas de los robots humanoides. También presentó Newton , un motor de física extensible y de código abierto desarrollado por NVIDIA, Google DeepMind y Disney Research para impulsar el aprendizaje y el desarrollo de robots. Los desarrolladores, investigadores y entusiastas pueden explorar lo siguiente para obtener más información: Iníciate en robótica con cursos gratuitos y datos de código abierto 🔗 Quienes deseen profundizar en el desarrollo robótico pueden comenzar con la Ruta de Aprendizaje de Fundamentos de Robótica gratuita de NVIDIA . Esta serie de cursos a su propio ritmo del Instituto de Aprendizaje Profundo (DLI) de NVIDIA abarca conceptos básicos de robótica y flujos de trabajo esenciales en simulación y aprendizaje robótico. Cada curso ofrece capacitación práctica en la plataforma NVIDIA Isaac, incluyendo Isaac ROS , Isaac Sim e Isaac Lab . Este año, en GTC, NVIDIA organizó talleres de capacitación presenciales para desarrolladores de robótica, que ahora están disponibles en línea. Estos incluyen: Estos cursos estarán disponibles próximamente: NVIDIA también lanzó un conjunto de datos físicos de IA de código abierto y gratuito que incluye datos de calidad comercial y prevalidados para ayudar a investigadores y desarrolladores a impulsar sus proyectos. El conjunto de datos inicial ofrece 15 terabytes de datos que representan más de 320 000 trayectorias para entrenamiento robótico y 1000 recursos de Descripción Universal de Escenas (OpenUSD), incluidos los que están listos para SimReady. Acceda al conjunto de datos de IA física de NVIDIA sobre Hugging Face . Scaled Foundations agiliza la transición de la simulación a la aplicación en el mundo real 🔗 Los robots tienen el potencial de automatizar y escalar tareas complejas y repetitivas. Sin embargo, programarlos para que realicen estas tareas de forma segura ha sido tradicionalmente un reto, costoso y especializado. Scaled Foundations , miembro del programa NVIDIA Inception para startups innovadoras, está reduciendo las barreras de entrada con su plataforma GRID. Al integrar NVIDIA Isaac Sim en GRID , Scaled Foundations ofrece a los usuarios la oportunidad de acelerar el desarrollo y la implementación de soluciones avanzadas de IA robótica para nuevos tipos de robots. Desarrolladores y estudiantes pueden acceder a herramientas de vanguardia para desarrollar, simular e implementar sistemas de IA robótica, todo desde un navegador. Acceda, cree y administre inteligencia robótica integrada directamente desde su navegador. Obtenga más información sobre cómo implementar soluciones utilizando la plataforma GRID de Scaled Foundations mirando la sesión de NVIDIA GTC, “ Introducción a la simulación de robots: aprenda a desarrollar, simular e implementar inteligencia de robots escalable ”. Enfoque en Wheeled Lab: Avanzando en la robótica de simulación a realidad con NVIDIA Isaac Lab 🔗 Wheeled Lab , un proyecto de investigación de la Universidad de Washington, está llevando la robótica de simulación a la realidad a plataformas de código abierto y de bajo costo. Wheeled Lab, integrado con NVIDIA Isaac Lab —un marco unificado para el aprendizaje robótico— , permite que los modelos de aprendizaje por refuerzo entrenen robots con ruedas en tareas complejas como la deriva controlada, la evasión de obstáculos, el desplazamiento en elevación y la navegación visual. Este proceso utiliza aleatorización de dominios, simulación de sensores y aprendizaje integral para acortar la distancia entre el entrenamiento simulado y la implementación en el mundo real, garantizando al mismo tiempo una transferencia de la simulación a la realidad sin interrupciones. Izquierda: Política de deriva. Derecha: Entrenamiento en simulación de Isaac Lab.  Toda la pila (que abarca la simulación, el entrenamiento y la implementación) es completamente de código abierto, lo que brinda a los desarrolladores la libertad de iterar, modificar políticas y experimentar con técnicas de aprendizaje de refuerzo en un entorno reproducible. Izquierda: Política de deriva. Derecha: Entrenamiento en simulación de Isaac Lab.  Comience con el código en GitHub . Enseñar a los robots a pensar: los avances en IA de Nicklas Hansen ¿Qué se necesita para enseñar a los robots la toma de decisiones complejas en el mundo real? Para Nicklas Hansen , doctorando en la UC San Diego e investigador de posgrado de NVIDIA, la respuesta reside en algoritmos de aprendizaje automático escalables y robustos. Con experiencia en la Universidad de California, Berkeley, Meta AI (FAIR) y la Universidad Técnica de Dinamarca, Hansen está revolucionando la percepción, planificación y actuación de los robots en entornos dinámicos. Su investigación se sitúa en la intersección de la robótica, el aprendizaje por refuerzo y la visión artificial, conectando la simulación con la práctica. El trabajo reciente de Hansen aborda uno de los desafíos más complejos de la robótica: la manipulación a largo plazo. Su artículo, » Manipulación Multietapa con Demostración-Recompensa Aumentada, Política y Aprendizaje de Modelos Mundiales» , presenta un marco que mejora la eficiencia de los datos en entornos con escasa recompensa

Leer más »

Announcing OpenAI Pioneers Program

Advancing model performance and real world evaluation in applied domains. Today, we’re announcing the OpenAI Pioneers Program, an effort designed to advance the deployment of AI to real world use cases. The program will be focused on creating evals that set the bar for what good looks like, and giving builders the tools to optimize model performance in their domains. As the pace of AI adoption accelerates across industries, there is a need to understand and improve its impact in the world. Creating domain-specific evals are one way to better reflect real-world use cases, helping teams assess model performance in practical, high-stakes environments. Fine-tuning reasoning models is also proving to be a powerful way to improve performance across a wide range of applications — with less data and effort required. With the OpenAI Pioneers program, we will be working with companies building new products in high-impact verticals to expand their product capabilities through individualized efforts with our research teams. Companies in the program will be supported by researchers of the OpenAI team to create: Domain-specific evals for industry We believe that industries like legal, finance, insurance, healthcare, accounting, and many others are missing a unified source of truth for model benchmarking. We are excited to spend time assisting eval creation with multiple companies in each sector over the coming months. Our team will work intensively with each company to design evals tailored to their domain—establishing clear benchmarks that guide model development and improve trust in AI systems, and sharing them publicly. Industry specific evals will be published at a later date. Custom fine-tuned models for three industry-specific use cases Companies in the program will have the opportunity to collaborate with our team to create model improvements with reinforcement fine tuning (RFT)—a model customization technique that enables the creation of “expert models” for a narrow set of tasks in their domain—and train custom models for the company’s top three use cases. With RFT companies can better solve customers’ pain points and improve model inefficiencies. Our team will guide companies through the fine-tuning process. Companies can then choose how to deploy these models—which should be ready for production use at scale. The first cohort will focus on startups who will help lay the foundations of the OpenAI Pioneers Program. We’re selecting a handful of startups for this initial cohort, each working on high-value, applied use cases where AI can drive real-world impact. OpenAI News.

Leer más »

Anunciando el Programa de Pioneros de OpenAI

Avanzar en el rendimiento del modelo y la evaluación del mundo real en dominios aplicados. Hoy, estamos anunciando el Programa de Pioneros de OpenAI, un esfuerzo diseñado para avanzar en el despliegue de la IA en casos de uso del mundo real. El programa se centrará en la creación de evaluaciones que establezcan el listón para lo que parece bueno, y dar a los constructores las herramientas para optimizar el rendimiento del modelo en sus dominios. A medida que el ritmo de adopción de la IA se acelera en todas las industrias, es necesario comprender y mejorar su impacto en el mundo. La creación de evaluaciones específicas de dominio es una forma de reflejar mejor los casos de uso del mundo real, ayudando a los equipos a evaluar el rendimiento del modelo en entornos prácticos y de alto riesgo. Los modelos de razonamiento de ajuste fino también están demostrando ser una forma poderosa de mejorar el rendimiento en una amplia gama de aplicaciones — con menos datos y esfuerzo requeridos. Con el programa OpenAI Pioneers, trabajaremos con compañías que construyen nuevos productos en verticales de alto impacto para expandir sus capacidades de productos a través de esfuerzos individualizados con nuestros equipos de investigación. Las empresas del programa contarán con el apoyo de investigadores del equipo de OpenAI para crear: Evalúos específicos de dominio para la industria Creemos que industrias como la legal, las finanzas, los seguros, la salud, la contabilidad y muchas otras carecen de una fuente unificada de verdad para la evaluación comparativa de modelos. Estamos entusiasmados de dedicar tiempo a ayudar a la creación de evaluaciones con múltiples compañías en cada sector en los próximos meses. Nuestro equipo trabajará intensamente con cada compañía para diseñar evaluaciones adaptadas a su dominio, estableciendo puntos de referencia claros que guíen el desarrollo del modelo y mejoren la confianza en los sistemas de IA, y compartiéndolos públicamente. Las evaluaciones específicas de la industria se publicarán en una fecha posterior. Modelos ajustados personalizados para tres casos de uso específicos de la industria Las empresas en el programa tendrán la oportunidad de colaborar con nuestro equipo para crear mejoras de modelo conajuste fino de refuerzo (RFT)—una técnica de personalización de modelos que permite la creación de “modelos expertos” para un conjunto estrecho de tareas en su dominio—y entrenar modelos personalizados para los tres principales casos de uso de la compañía. Con RFT, las empresas pueden resolver mejor los puntos de dolor de customers’ y mejorar las ineficiencias del modelo. Nuestro equipo guiará a las empresas a través del proceso de ajuste. Las empresas pueden elegir cómo implementar estos modelos—, que deberían estar listos para el uso de producción a escala. La primera cohorte se centrará en las nuevas empresas que ayudarán a sentar las bases del Programa de Pioneros de OpenAI. Weiremos seleccionando un puñado de nuevas empresas para esta cohorte inicial, cada una trabajando en casos de uso aplicados de alto valor donde la IA puede impulsar el impacto en el mundo real.  Si usted es una empresa que está interesada en participar en el Programa de Pioneros de OpenAI, complete el siguiente formulario. Esperamos saber de usted. Permisos comienzan con sus datos: Nombre * Apellido * Dirección de correo electrónico * ¿Dónde estás basado? Ciudad * País *Seleccione un país…AfganistánAlbaniaArgeliaAndorraAngolaAntigua y BarbudaArgentinaArmeniaAustraliaAustriaAzerbaiyánBahamasBahreinBangladeshBarbadosBielorrusiaBélgicaBeliceBenínButánBoliviaBosnia y HerzegovinaBotswanaBrasilBruneiBulgariaBurkina FasoBurundiCabo VerdeCamboyaCamerúnCanadáRepública CentroafricanaChadChileChinaColombiaComorasCongo – BrazzavilleCosta RicaCôte d’IvoireCroatiaCubaCyprusCzechiaCongo – KinshasaDenmarkDjiboutiDominicaDominican RepublicEcuadorEgyptEl SalvadorEquatorial GuineaEritreaEstoniaEswatiniEthiopiaFijiFinlandFranceGabonGambiaGeorgiaGermanyGhanaGreeceGrenadaGuatemalaGuineaGuinea-BissauGuyanaHaitiVatican CityHondurasHungaryIcelandIndiaIndonesiaIranIraqIrelandIsraelItalyJamaicaJapanJordanKazakhstanKenyaKiribatiKuwaitKyrgyzstanLaosLatviaLebanonLesothoLiberiaLibyaLiechtensteinLithuaniaLuxembourgMadagascarMalawiMalaysiaMaldivesMaliMaltaMarshall IslandsMauritaniaMauritiusMexicoMicronesiaMoldovaMonacoMongoliaMontenegroMoroccoMozambiqueMyanmar (Burma)NamibiaNauruNepalNetherlandsNew ZealandNicaraguaNigerNigeriaNorth KoreaNorth MacedoniaNorwayOmanPakistanPalauPalestinePanamaPapua New GuineaParaguayPeruPhilippinesPolandPortugalQatarRomaniaRussiaRwandaSan. Kitts y NevisSan. LucíaSan. Vicente y GranadinasSamoaSan MarinoSão Tomé y PríncipeArabia SauditaSenegalSerbiaSeychellesSierra LeonaSingapurEslovaquiaEsloveniaIslas SalomónSomaliaSudáfricaCorea del SurSudán del SurEspañaSri LankaSudánSurinamSueciaSuizaSiriaTaiwánTayikistánTanzaniaTailandiaTimor-LesteTogoTongaTrinidad y TobagoTúnezTürkiyeTurkmenistánTuvaluUgandaUcraniaEmiratos Árabes UnidosReino UnidoEstados UnidosUruguayUzbekistánVanuatuVenezuelaVietnamYemenZambiaZimbabwe Cuéntanos sobre lo que estás construyendo: Nombre de la empresa * Sitio web de la empresa (si corresponde) Etapa de la empresa *Selecciona tu etapaIncepciónSemillaSerie ASerie BSerie C+Empresa Qué sector estás construyendo en *Seleccione su sectorFinanzasSeguroSaludBiotecnologíaCPACodificaciónCreatividadEducaciónOtro ¿Cuáles son los casos de uso específicos de la industria en los que los modelos le están fallando a usted y a sus clientes? * ¿En qué casos las evaluaciones específicas de dominio beneficiarían a su industria? * ¿Hay algo más que te gustaría que supiéramos? * Hoy, weimre anuncia el Programa de Pioneros de OpenAI, un esfuerzo diseñado para avanzar en el despliegue de la IA en casos de uso del mundo real. El programa se centrará en la creación de evaluaciones que establezcan el listón para lo que parece bueno, y dar a los constructores las herramientas para optimizar el rendimiento del modelo en sus dominios. A medida que el ritmo de adopción de la IA se acelera en todas las industrias, es necesario comprender y mejorar su impacto en el mundo. La creación de evaluaciones específicas de dominio es una forma de reflejar mejor los casos de uso del mundo real, ayudando a los equipos a evaluar el rendimiento del modelo en entornos prácticos y de alto riesgo. Los modelos de razonamiento de ajuste fino también están demostrando ser una forma poderosa de mejorar el rendimiento en una amplia gama de aplicaciones — con menos datos y esfuerzo requeridos. Con el programa OpenAI Pioneers, trabajaremos con compañías que construyen nuevos productos en verticales de alto impacto para expandir sus capacidades de productos a través de esfuerzos individualizados con nuestros equipos de investigación. Las empresas del programa contarán con el apoyo de investigadores del equipo de OpenAI para crear: Evalúos específicos de dominio para la industria Creemos que industrias como la legal, las finanzas, los seguros, la salud, la contabilidad y muchas otras carecen de una fuente unificada de verdad para la evaluación comparativa de modelos. Estamos entusiasmados de dedicar tiempo a ayudar a la creación de evaluaciones con múltiples compañías en cada sector en los próximos meses. Nuestro equipo trabajará intensamente con cada compañía para diseñar evaluaciones adaptadas a su dominio, estableciendo puntos de referencia claros que guíen el desarrollo del modelo y mejoren la confianza en los sistemas de IA, y compartiéndolos públicamente. Las evaluaciones específicas de la industria se publicarán en una fecha posterior. Modelos ajustados personalizados para tres casos de uso específicos de la

Leer más »

¿Podrían los LLM ayudar a diseñar nuestros próximos medicamentos y materiales?

Un nuevo método permite a los usuarios pedir, en lenguaje sencillo, una nueva molécula con ciertas propiedades, y recibir una descripción detallada de cómo sintetizarla. El proceso de descubrimiento de moléculas que tienen las propiedades necesarias para crear nuevos medicamentos y materiales es engorroso y costoso, consumiendo vastos recursos computacionales y meses de trabajo humano para reducir el enorme espacio de candidatos potenciales. Los modelos de lenguaje grande (LLM) como ChatGPT podrían agilizar este proceso, pero permitir que un LLM comprenda y razone sobre los átomos y enlaces que forman una molécula, de la misma manera que lo hace con las palabras que forman oraciones, ha presentado un obstáculo científico. Investigadores del MIT y el MIT-IBM Watson AI Lab crearon un enfoque prometedor que aumenta un LLM con otros modelos de aprendizaje automático conocidos como modelos basados en gráficos, que están diseñados específicamente para generar y predecir estructuras moleculares. Su método emplea un LLM base para interpretar consultas de lenguaje natural que especifican las propiedades moleculares deseadas. Cambia automáticamente entre el LLM base y los módulos de IA basados en gráficos para diseñar la molécula, explicar la justificación y generar un plan paso a paso para sintetizarla. Intercala la generación de pasos de texto, gráfico y síntesis, combinando palabras, gráficos y reacciones en un vocabulario común para que el LLM lo consuma. En comparación con los enfoques existentes basados en LLM, esta técnica multimodal generó moléculas que coincidían mejor con las especificaciones del usuario y tenían más probabilidades de tener un plan de síntesis válido, mejorando la relación de éxito del 5 al 35 por ciento. También superó a los LLM que tienen más de 10 veces su tamaño y que diseñan moléculas y rutas de síntesis solo con representaciones basadas en texto, lo que sugiere que la multimodalidad es clave para el éxito de las nuevas systemas. “Con suerte, esta podría ser una solución de extremo a extremo en la que, de principio a fin, automatizaríamos todo el proceso de diseño y fabricación de una molécula. Si un LLM pudiera darte la respuesta en unos segundos, sería un gran ahorro de tiempo para las compañías farmacéuticas,” dice Michael Sun, un estudiante graduado del MIT y coautor de un papel sobre esta técnica. Los coautores de Suns incluyen al autor principal Gang Liu, un estudiante graduado en la Universidad de Notre Dame; Wojciech Matusik, profesor de ingeniería eléctrica y ciencias de la computación en el MIT que dirige el Grupo de Diseño y Fabricación Computacional dentro del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL); Meng Jiang, profesor asociado en la Universidad de Notre Dame; y el autor principal Jie Chen un científico investigador senior y gerente en el MIT-IBM Watson AI Lab. La investigación se presentará en la Conferencia Internacional sobre Representaciones de Aprendizaje. Lo mejor de ambos mundos Los modelos de lenguaje grande están diseñados para comprender los matices de la química, que es una de las razones por las que luchan con el diseño molecular inverso, un proceso de identificación de estructuras moleculares que tienen ciertas funciones o propiedades. Los LLM convierten el texto en representaciones llamadas tokens, que utilizan para predecir secuencialmente la siguiente palabra en una oración. Pero las moléculas son “estructuras gráficas,” compuestas de átomos y enlaces sin un orden particular, lo que las hace difíciles de codificar como texto secuencial. Por otro lado, los potentes modelos de IA basados en gráficos representan átomos y enlaces moleculares como nodos y bordes interconectados en un gráfico. Si bien estos modelos son populares para el diseño molecular inverso, requieren entradas complejas, pueden comprender el lenguaje natural y producir resultados que pueden ser difíciles de interpretar. Los investigadores del MIT combinaron un LLM con modelos de IA basados en gráficos en un marco unificado que obtiene lo mejor de ambos mundos. Llamole, que significa modelo de lenguaje grande para el descubrimiento molecular, utiliza un LLM base como guardián para comprender una consulta de los usuarios — una solicitud en lenguaje sencillo para una molécula con ciertas propiedades. Por ejemplo, tal vez un usuario busca una molécula que pueda penetrar la barrera hematoencefálica e inhibir el VIH, dado que tiene un peso molecular de 209 y ciertas características de enlace. A medida que el LLM predice el texto en respuesta a la consulta, cambia entre módulos de gráficos. Un módulo utiliza un modelo de difusión de gráficos para generar la estructura molecular condicionada a los requisitos de entrada. Un segundo módulo utiliza una red neuronal gráfica para codificar la estructura molecular generada de nuevo en tokens para que los LLM consuman. El módulo gráfico final es un predictor de reacción gráfica que toma como entrada una estructura molecular intermedia y predice un paso de reacción, buscando el conjunto exacto de pasos para hacer la molécula a partir de bloques de construcción básicos. Los investigadores crearon un nuevo tipo de token de activación que le dice al LLM cuándo activar cada módulo. Cuando el LLM predice un token de disparo “design”, cambia al módulo que esboza una estructura molecular, y cuando predice un token de disparo “retro”, cambia al módulo de planificación retrospectiva que predice el siguiente paso de reacción. “La belleza de esto es que todo lo que el LLM genera antes de activar un módulo en particular se alimenta en ese módulo. El módulo está aprendiendo a operar de una manera que sea consistente con lo que vino antes, dice” Sun. De la misma manera, la salida de cada módulo se codifica y retroalimenta en el proceso de generación del LLM, por lo que entiende lo que hizo cada módulo y continuará prediciendo tokens basados en esos datos. Estructuras moleculares mejores y más simples Al final, Llamole produce una imagen de la estructura molecular, una descripción textual de la molécula y un plan de síntesis paso a paso que proporciona los detalles de cómo hacerlo, hasta las reacciones químicas individuales. En experimentos que involucraron el diseño de moléculas que coincidían con las especificaciones del usuario,

Leer más »

Una nueva forma de llevar los artículos personales a la realidad mixta

“InteRecon” permite a los usuarios capturar elementos en una aplicación móvil y reconstruir sus características interactivas en realidad mixta. La herramienta podría ayudar en educación, entornos médicos, museos y más. Piensa en tus pertenencias más preciadas. En un mundo cada vez más virtual, ¿no sería genial guardar una copia de ese precioso artículo y todos los recuerdos que contiene? En configuraciones de realidad mixta, puede crear un gemelo digital de un elemento físico, como una muñeca vieja. Pero es difícil replicar elementos interactivos, como la forma en que se mueve o los sonidos, hace que — sea el tipo de características interactivas únicas que hicieron que el juguete fuera distinto en primer lugar. Investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT, buscaron cambiar eso y tienen una solución potencial. Su programa “InteRecon” permite a los usuarios recuperar objetos del mundo real en una aplicación móvil y luego animarlos en entornos de realidad mixta.  Este prototipo podría recrear las funciones de interacción en el mundo físico, como los movimientos de la cabeza de tu bobblehead favorito, o reproducir un video clásico en una versión digital de tu TV vintage. Crea un entorno digital más realista y personal al tiempo que preserva una memoria. La capacidad de InteRecononans para reconstruir la experiencia interactiva de diferentes elementos podría convertirla en una herramienta útil para que los maestros expliquen conceptos importantes, como demostrar cómo la gravedad tira de un objeto hacia abajo. También podría agregar un nuevo componente visual a las exhibiciones del museo, como animar una pintura o dar vida a un maniquí histórico (sin los sustos de los personajes de “Night at the Museum”). Eventualmente, InteRecon puede enseñar a un aprendiz de cirugía de órganos o un procedimiento cosmético visualizando cada movimiento necesario para completar la tarea. El programa “InteRecon” permite a los usuarios recuperar objetos del mundo real en una aplicación móvil y luego animarlos en entornos de realidad mixta.Vídeo: MIT CSAIL MIT News. A. S. Traducido al español

Leer más »
Scroll al inicio