Categoría: Inteligencia Artificial en la Salud Humana

Una IA similar a ChatGPT ahora puede diseñar genomas completamente nuevos desde cero

Toda la vida en la Tierra está escrita con cuatro “letras” de ADN. Una IA utilizó esas letras para idear un genoma completamente nuevo desde cero. La IA, llamada Evo , se inspiró en los grandes modelos de lenguaje (LLM, por sus siglas en inglés) que sustentan chatbots populares como ChatGPT de OpenAI y Claude de Anthropic. Estos modelos han conquistado al mundo por su habilidad para generar respuestas similares a las humanas. Desde tareas simples, como definir una palabra confusa, hasta resumir artículos científicos o soltar versos aptos para una batalla de rap, los LLM han entrado en nuestra vida cotidiana. Si los LLM pueden dominar los lenguajes escritos, ¿podrían hacer lo mismo con el lenguaje de la vida? Este mes, un equipo de la Universidad de Stanford y el Instituto Arc puso a prueba la teoría. En lugar de entrenar a Evo con contenido extraído de Internet, entrenaron a la IA con casi tres millones de genomas (que equivalen a miles de millones de líneas de código genético) de varios microbios y virus que infectan bacterias. Evo fue mejor que los modelos de IA anteriores a la hora de predecir cómo las mutaciones del material genético (ADN y ARN) podrían alterar la función. La IA también se puso creativa, ideando varios componentes nuevos para la herramienta de edición genética, CRISPR. Aún más impresionante fue que la IA generó un genoma de más de una megabase de longitud, aproximadamente el tamaño de algunos genomas bacterianos. “En general, Evo representa un modelo de base genómica”, escribió Christina Theodoris del Instituto Gladstone en San Francisco, que no participó en el trabajo. Una vez aprendido el vocabulario genómico, algoritmos como Evo podrían ayudar a los científicos a investigar la evolución, descifrar el funcionamiento interno de nuestras células, abordar misterios biológicos y acelerar la biología sintética mediante el diseño de nuevas biomoléculas complejas. El multiverso del ADN En comparación con las 26 letras del alfabeto inglés, el ADN solo tiene A, T, C y G. Estas «letras» son la abreviatura de las cuatro moléculas (adenina (A), timina (T), citosina (C) y guanina (G)) que, combinadas, forman nuestros genes. Si las LLM pueden conquistar los idiomas y generar nueva prosa, reescribir el manual genético con solo cuatro letras debería ser pan comido. No exactamente. El lenguaje humano está organizado en palabras, frases y oraciones para transmitir información. El ADN, en cambio, es más continuo y los componentes genéticos son complejos. Las mismas letras del ADN llevan “hilos paralelos de información”, escribió Theodoris. La más conocida es la función del ADN como portador genético. Una combinación específica de tres letras de ADN, llamada codón, codifica un bloque de construcción de proteínas. Estas se unen para formar las proteínas que forman nuestros tejidos y órganos, y dirigen el funcionamiento interno de nuestras células. Pero la misma secuencia genética, dependiendo de su estructura, también puede reclutar las moléculas necesarias para convertir los codones en proteínas. Y, a veces, las mismas letras de ADN pueden convertir un gen en proteínas diferentes, dependiendo de la salud y el entorno de la célula, o incluso desactivar el gen. En otras palabras, las letras del ADN contienen una gran cantidad de información sobre la complejidad del genoma, y ​​cualquier cambio puede poner en peligro la función de una proteína, lo que deriva en enfermedades genéticas y otros problemas de salud. Esto hace que sea fundamental que la IA trabaje en la resolución de letras individuales del ADN. Pero es difícil para la IA capturar múltiples hilos de información a gran escala analizando únicamente las letras genéticas, en parte debido a los altos costos computacionales. Al igual que las escrituras romanas antiguas, el ADN es un continuo de letras sin puntuación clara. Por lo tanto, podría ser necesario «leer» cadenas completas para obtener una imagen general de su estructura y función, es decir, para descifrar el significado. En intentos anteriores se han “agrupado” letras de ADN en bloques, algo así como crear palabras artificiales. Si bien son más fáciles de procesar, estos métodos alteran la continuidad del ADN, lo que da como resultado la retención de “algunos hilos de información a expensas de otros”, escribió Theodoris. Fundamentos de construcción Evo abordó estos problemas de frente. Sus diseñadores se propusieron preservar todos los hilos de información, al tiempo que operaban con una resolución de una sola letra de ADN y con menores costos computacionales. El truco consistía en dar a Evo un contexto más amplio para cualquier fragmento dado del genoma aprovechando un tipo específico de configuración de IA utilizada en una familia de algoritmos llamada StripedHyena. En comparación con GPT-4 y otros modelos de IA, StripedHyena está diseñado para ser más rápido y más capaz de procesar entradas de gran tamaño, por ejemplo, grandes longitudes de ADN. Esto amplió la llamada «ventana de búsqueda» de Evo, lo que le permitió encontrar mejor patrones en un paisaje genético más amplio. Los investigadores entrenaron a la IA con una base de datos de casi tres millones de genomas de bacterias y virus que infectan a las bacterias, conocidos como fagos. También aprendió de plásmidos, fragmentos circulares de ADN que suelen encontrarse en las bacterias y que transmiten información genética entre microbios, lo que estimula la evolución y perpetúa la resistencia a los antibióticos. Una vez entrenado, el equipo enfrentó a Evo con otros modelos de IA para predecir cómo las mutaciones en una secuencia genética dada podrían afectar la función de la secuencia, como la codificación de proteínas. Aunque nunca se le dijo qué letras genéticas forman codones, Evo superó a un modelo de IA entrenado explícitamente para reconocer letras de ADN que codifican proteínas en la tarea. Sorprendentemente, Evo también predijo el efecto de las mutaciones en una amplia variedad de moléculas de ARN: por ejemplo, las que regulan la expresión genética, las que transportan los componentes básicos de las proteínas a la fábrica de producción de proteínas de la célula y las que actúan como enzimas para ajustar la función de las proteínas. Evo parecía haber adquirido una “comprensión

Leer más »

Una herramienta de inteligencia artificial “ve” las firmas genéticas del cáncer en imágenes de biopsia

Los investigadores utilizaron inteligencia artificial para predecir la actividad de miles de genes en tumores basándose en imágenes de biopsias tumorales obtenidas de forma rutinaria. Esto podría guiar el tratamiento sin necesidad de realizar costosas pruebas genómicas. Para determinar el tipo y la gravedad de un cáncer, los patólogos suelen analizar cortes finos de una biopsia del tumor bajo un microscopio. Pero para averiguar qué cambios genómicos impulsan el crecimiento del tumor (información que puede orientar su tratamiento), los científicos deben realizar la secuenciación genética del ARN aislado del tumor, un proceso que puede llevar semanas y cuesta miles de dólares. Ahora, investigadores de Stanford Medicine han desarrollado un programa computacional impulsado por inteligencia artificial que puede predecir la actividad de miles de genes dentro de las células tumorales basándose únicamente en imágenes microscópicas estándar de la biopsia. La herramienta, descrita en línea en Nature Communications el 14 de noviembre, se creó utilizando datos de más de 7.000 muestras tumorales diversas. El equipo demostró que podía utilizar imágenes de biopsias recopiladas de manera rutinaria para predecir variaciones genéticas en cánceres de mama y para predecir los resultados de los pacientes. «Este tipo de software podría utilizarse para identificar rápidamente las firmas genéticas en los tumores de los pacientes, acelerando la toma de decisiones clínicas y ahorrándole al sistema de salud miles de dólares», dijo Olivier Gevaert , PhD, profesor de ciencia de datos biomédicos y autor principal del artículo. El trabajo también fue dirigido por la estudiante de posgrado de Stanford Marija Pizuria y los investigadores postdoctorales Yuanning Zheng , PhD, y Francisco Pérez , PhD. Impulsado por la genómica Los médicos clínicos han guiado cada vez más la selección de los tratamientos contra el cáncer (incluidas las quimioterapias, inmunoterapias y terapias basadas en hormonas) que recomiendan a sus pacientes, no solo en función del órgano afectado por el cáncer del paciente, sino también de los genes que utiliza el tumor para impulsar su crecimiento y propagación. La activación o desactivación de ciertos genes podría hacer que un tumor sea más agresivo, más propenso a hacer metástasis o más o menos propenso a responder a ciertos medicamentos. Sin embargo, acceder a esta información a menudo requiere una secuenciación genómica costosa y que consume mucho tiempo. Gevaert y sus colegas sabían que la actividad genética dentro de células individuales puede alterar la apariencia de esas células de maneras que a menudo son imperceptibles para el ojo humano. Recurrieron a la inteligencia artificial para encontrar esos patrones. Los investigadores comenzaron con 7.584 biopsias de cáncer de 16 tipos diferentes. Cada biopsia había sido cortada en secciones finas y preparadas utilizando un método conocido como tinción con hematoxilina y eosina, que es el estándar para visualizar el aspecto general de las células cancerosas. También estaba disponible información sobre los transcriptomas de los cánceres (qué genes utilizan activamente las células). Un modelo de trabajo Después de que los investigadores integraran sus nuevas biopsias de cáncer, así como otros conjuntos de datos, incluidos datos transcriptómicos e imágenes de miles de células sanas, el programa de IA, al que llamaron SEQUOIA (cuantificación de expresión basada en diapositivas utilizando atención linealizada), pudo predecir los patrones de expresión de más de 15.000 genes diferentes a partir de las imágenes teñidas. Para algunos tipos de cáncer, la actividad genética predicha por la IA tenía una correlación de más del 80% con los datos de actividad genética real. En general, cuantas más muestras de un tipo de cáncer determinado se incluían en los datos iniciales, mejor funcionaba el modelo en ese tipo de cáncer. “Fueron necesarias varias iteraciones del modelo para llegar al punto en el que estábamos satisfechos con el rendimiento”, dijo Gevaert. “Pero, en última instancia, para algunos tipos de tumores, llegó a un nivel en el que puede ser útil en la clínica”. Gevaert señaló que los médicos no suelen analizar los genes uno a uno para tomar decisiones clínicas, sino las firmas genéticas que incluyen cientos de genes diferentes. Por ejemplo, muchas células cancerosas activan los mismos grupos de cientos de genes relacionados con la inflamación o cientos de genes relacionados con el crecimiento celular. En comparación con su desempeño en la predicción de la expresión genética individual, SEQUOIA fue incluso más preciso en la predicción de si se activaron programas genómicos tan grandes. Para que los datos fueran accesibles y fáciles de interpretar, los investigadores programaron SEQUOIA para mostrar los hallazgos genéticos como un mapa visual de la biopsia del tumor, permitiendo a los científicos y médicos ver cómo las variaciones genéticas podrían ser distintas en diferentes áreas de un tumor. Predicción de los resultados del paciente Para comprobar la utilidad de SEQUOIA en la toma de decisiones clínicas, Gevaert y sus colegas identificaron genes del cáncer de mama cuya expresión el modelo podía predecir con precisión y que ya se utilizan en pruebas genómicas comerciales para el cáncer de mama. (Por ejemplo, la prueba MammaPrint, aprobada por la Administración de Alimentos y Medicamentos, analiza los niveles de 70 genes relacionados con el cáncer de mama para proporcionar a las pacientes una puntuación del riesgo de que su cáncer vuelva a aparecer). “El cáncer de mama tiene una serie de firmas genéticas muy bien estudiadas que, como se ha demostrado en la última década, están altamente correlacionadas con las respuestas al tratamiento y los resultados de los pacientes”, afirmó Gevaert. “Esto lo convirtió en un caso de prueba ideal para nuestro modelo”. El equipo demostró que SEQUOIA podía proporcionar el mismo tipo de puntuación de riesgo genómico que MammaPrint utilizando únicamente imágenes teñidas de biopsias tumorales. Los resultados se repitieron en varios grupos diferentes de pacientes con cáncer de mama. En cada caso, las pacientes identificadas como de alto riesgo por SEQUOIA tuvieron peores resultados, con mayores tasas de recurrencia del cáncer y un tiempo más corto antes de que el cáncer volviera a aparecer. El modelo de IA aún no se puede utilizar en un entorno clínico (debe probarse en ensayos clínicos y recibir la aprobación de la FDA antes de que se utilice para

Leer más »

Dormir bien es la meta

Según un estudio global de Samsung Health, las personas duermen menos y de manera menos eficiente Los hallazgos del Estudio Global de Calidad de Sueño realizado por Samsung en todo el mundo, revelaron que la duración promedio del sueño ha disminuido de 7 horas y 3 minutos a 6 horas y 59 minutos, por debajo del umbral esencial de 7 horas recomendado por la Fundación Nacional del Sueño. El estudio analizó 716 millones de noches de sueño de usuarios de Samsung Health de todo el mundo, quienes utilizaron la aplicación en su teléfono o en su Galaxy Watch. Otro aspecto preocupante es la eficiencia del sueño, pues de esas 6 horas, la mayor parte del tiempo la pasamos “despiertos” o en vigilia, un factor clave de la calidad del sueño que se controla calculando la proporción entre el tiempo real dormido y el tiempo total que se pasa en la cama cada noche. Este desvelo global ha generado un interés cada vez mayor de las personas por una salud personal del sueño. Y es que el dormir es tan importante para la salud como llevar una dieta balanceada o hacer actividad física. Dormir lo suficiente ayuda a: Retoma los buenos hábitos de sueño siguiendo los siguientes consejos: Samsung News. Traducido al español

Leer más »

¿Puede la IA mejorar las carnes de origen vegetal?

Los ingenieros de Stanford están probando alimentos utilizando un enfoque que combina una técnica mecánica tridimensional e IA para imitar nuestra experiencia sensorial. Reducir la ingesta de proteínas animales en nuestra dieta puede ahorrar recursos y emisiones de gases de efecto invernadero, pero convencer a los consumidores amantes de la carne de que cambien su menú es todo un desafío. Al analizar este problema desde un ángulo de ingeniería mecánica, los ingenieros de Stanford están desarrollando un nuevo método para analizar la textura de los alimentos que podría allanar el camino para crear filetes falsos que engañen incluso a los carnívoros más empedernidos. En un nuevo artículo publicado en Science of Food , el equipo demostró que una combinación de pruebas mecánicas y aprendizaje automático puede describir la textura de los alimentos con una sorprendente similitud con la de los catadores humanos. Este método podría acelerar el desarrollo de nuevas y mejores carnes de origen vegetal. El equipo también descubrió que algunos productos de origen vegetal ya tienen la textura exacta de las carnes que imitan. “Nos sorprendió descubrir que los productos vegetales actuales pueden reproducir todo el espectro de texturas de las carnes animales”, afirmó Ellen Kuhl , profesora de ingeniería mecánica y autora principal del estudio. Los sustitutos de la carne han recorrido un largo camino desde que el tofu era la única opción, añadió. La ganadería industrial contribuye al cambio climático, la contaminación, la pérdida de hábitat y la resistencia a los antibióticos. Esa carga sobre el planeta se puede aliviar sustituyendo las proteínas animales por proteínas vegetales en la dieta. Un estudio estimó que las carnes de origen vegetal tienen, en promedio, la mitad del impacto ambiental que la carne animal. Pero muchos consumidores de carne se muestran reacios a cambiar: solo alrededor de un tercio de los estadounidenses en una encuesta indicó que era “muy probable” o “extremadamente probable” que compraran alternativas de origen vegetal. “A la gente le encanta la carne”, dijo Skyler St. Pierre , estudiante de doctorado en ingeniería mecánica y autor principal del artículo. “Si queremos convencer a los consumidores incondicionales de carne de que vale la pena probar alternativas, cuanto más podamos imitar la carne animal con productos de origen vegetal, más probabilidades habrá de que la gente esté dispuesta a probar algo nuevo”. Para imitar con éxito la carne animal, los científicos especializados en alimentos analizan la textura de los productos cárnicos de origen vegetal. Lamentablemente, los métodos tradicionales de análisis de alimentos no están estandarizados y los resultados rara vez se ponen a disposición de la ciencia y del público, afirmó St. Pierre. Esto dificulta que los científicos colaboren y creen nuevas recetas para alternativas. Nuevas pruebas de textura de alimentos La investigación surgió de un proyecto de clase de St. Pierre. En busca de materiales asequibles para utilizar en pruebas mecánicas, recurrió a los perritos calientes y al tofu. Durante el verano de 2023, investigadores universitarios se unieron para probar los alimentos y aprender cómo los ingenieros representan las respuestas de los materiales al estrés, la carga y el estiramiento. Al darse cuenta de cómo este trabajo podría ayudar al desarrollo de carnes de origen vegetal, el equipo de Stanford estrenó una prueba de alimentos tridimensional. Pusieron a prueba ocho productos: perritos calientes de origen animal y vegetal, salchichas de origen animal y vegetal, pavo de origen animal y vegetal, y tofu extra firme y firme. Montaron trozos de carne en una máquina que tiraba, empujaba y cortaba las muestras. «Estos tres modos de carga representan lo que haces cuando masticas», dijo Kuhl, quien también es el director Catherine Holman Johnson de Stanford Bio-X y el profesor Walter B. Reinhold en la Escuela de Ingeniería . Una prueba mecánica de carne vegetal puede ayudar a cuantificar la textura de los alimentos. | Kurt Hickman Luego, utilizaron aprendizaje automático para procesar los datos de estas pruebas: diseñaron un nuevo tipo de red neuronal que toma los datos sin procesar de las pruebas y produce ecuaciones que explican las propiedades de las carnes. Para comprobar si estas ecuaciones pueden explicar la percepción de la textura, el equipo llevó a cabo una encuesta de prueba. Los participantes, que primero completaron encuestas sobre su apertura a nuevos alimentos y su afición a la carne, comieron muestras de los ocho productos y los calificaron en una escala de cinco puntos en 12 categorías: blando, duro, quebradizo, masticable, gomoso, viscoso, elástico, pegajoso, fibroso, grasiento, húmedo y parecido a la carne. Impresionantes perritos calientes y salchichas En las pruebas mecánicas, el perrito caliente y la salchicha de origen vegetal se comportaron de forma muy similar en las pruebas de tracción, empuje y cizallamiento a sus homólogos animales, y mostraron rigideces similares. Mientras tanto, el pavo de origen vegetal fue el doble de rígido que el pavo animal, y el tofu fue mucho más blando que los productos cárnicos. Sorprendentemente, los evaluadores humanos también clasificaron la rigidez de los perritos calientes y las salchichas de forma muy similar a las pruebas mecánicas. «Lo que es realmente genial es que la clasificación de las personas fue casi idéntica a la clasificación de la máquina», dijo Kuhl. «Eso es genial porque ahora podemos usar la máquina para tener una prueba cuantitativa, muy reproducible». Los hallazgos sugieren que los nuevos métodos basados ​​en datos son prometedores para acelerar el proceso de desarrollo de productos vegetales sabrosos. “En lugar de utilizar un enfoque de prueba y error para mejorar la textura de la carne vegetal, podríamos imaginar el uso de inteligencia artificial generativa para generar científicamente recetas de productos cárnicos vegetales con las propiedades deseadas con precisión”, escribieron los autores en el artículo. Pero el desarrollo de recetas de inteligencia artificial, al igual que otras IA, necesita una gran cantidad de datos. Por eso, el equipo comparte sus datos en línea, de modo que otros investigadores puedan verlos y agregarlos. “Históricamente, algunos investigadores, y especialmente las empresas, no comparten sus datos y eso es una gran barrera para la innovación”, dijo St. Pierre. Sin compartir información y trabajar juntos, agregó, “¿cómo vamos a crear un imitador

Leer más »

Análisis del comportamiento en ratones: resultados más precisos a pesar de tener menos animales

Los investigadores de la ETH de Zúrich utilizan inteligencia artificial para analizar de forma más eficiente el comportamiento de los ratones de laboratorio y reducir el número de animales en los experimentos. En resumen Existe una tarea específica en la que los investigadores del estrés que realizan experimentos con animales deben ser especialmente hábiles. Esto también se aplica a los investigadores que desean mejorar las condiciones en las que se mantienen los animales de laboratorio. Deben ser capaces de evaluar el bienestar de sus animales basándose en observaciones de comportamiento, ya que, a diferencia de lo que ocurre con los humanos, no pueden simplemente preguntarles cómo se sienten. Los investigadores del grupo dirigido por Johannes Bohacek, catedrático del Instituto de Neurociencia de la ETH de Zúrich, han desarrollado ahora un método que mejora significativamente el análisis del comportamiento de los ratones. El proceso utiliza el análisis automatizado del comportamiento mediante visión artificial e inteligencia artificial. Se filman los ratones y las grabaciones de vídeo se analizan automáticamente. Si bien el análisis del comportamiento animal solía requerir muchos días de minucioso trabajo manual (y todavía lo requiere en la mayoría de los laboratorios de investigación actuales), los laboratorios más importantes del mundo han pasado a métodos eficientes de análisis automatizado del comportamiento en los últimos años. Dilema estadístico resuelto Un problema que esto genera es la gran cantidad de datos que se generan. Cuantos más datos y mediciones haya disponibles y más sutiles sean las diferencias de comportamiento que se deben reconocer, mayor será el riesgo de ser engañado por artefactos. Por ejemplo, estos pueden incluir un proceso automatizado que clasifique un comportamiento como relevante cuando no lo es. Las estadísticas presentan la siguiente solución simple a este dilema: es necesario realizar pruebas con más animales para anular los artefactos y aún así obtener resultados significativos. “De esta manera contribuimos a una investigación biomédica más ética y más eficiente”.Johannes Bohaček El nuevo método de los investigadores de la ETH permite obtener resultados significativos y reconocer diferencias sutiles de comportamiento entre los animales incluso en grupos más pequeños, lo que ayuda a reducir el número de animales en los experimentos y aumenta la utilidad de un experimento con un solo animal. Por lo tanto, apoya los esfuerzos de la ETH de Zúrich y otras instituciones de investigación en el campo de las 3R. Las 3R significan reemplazar, reducir y refinar, lo que significa intentar reemplazar los experimentos con animales con métodos alternativos o reducirlos mediante mejoras en la tecnología o el diseño experimental. La estabilidad del comportamiento en el punto de mira El método de los investigadores de la ETH no sólo aprovecha los numerosos patrones aislados y muy específicos del comportamiento de los animales, sino que también se centra en las transiciones de un comportamiento a otro. Algunos de los patrones de comportamiento típicos de los ratones incluyen ponerse de pie sobre sus patas traseras cuando sienten curiosidad, permanecer cerca de las paredes de la jaula cuando son cautelosos y explorar objetos que son nuevos para ellos cuando se sienten audaces. Incluso un ratón que se queda quieto puede ser informativo: el animal está particularmente alerta o inseguro. Las transiciones entre estos patrones son significativas: un animal que cambia rápidamente y con frecuencia entre ciertos patrones puede estar nervioso, estresado o tenso. Por el contrario, un animal relajado o confiado suele mostrar patrones de comportamiento estables y cambia entre ellos de forma menos abrupta. Estas transiciones son complejas. Para simplificarlas, el método las combina matemáticamente en un único valor significativo, lo que hace que los análisis estadísticos sean más robustos. Comparabilidad mejorada El profesor Bohacek, de la Escuela Politécnica Federal de Alemania, es neurocientífico e investigador del estrés. Entre otras cosas, investiga qué procesos cerebrales determinan si un animal es mejor o peor a la hora de afrontar situaciones estresantes. “Si podemos utilizar análisis de comportamiento para identificar –o, mejor aún, predecir– la capacidad de un individuo para manejar el estrés, podremos examinar los mecanismos cerebrales específicos que influyen en ello”, afirma. De estos análisis podrían derivarse posibles opciones terapéuticas para determinados grupos humanos de riesgo. Con este nuevo método, el equipo de la ETH ya ha podido averiguar cómo reaccionan los ratones al estrés y a determinados medicamentos en experimentos con animales. Gracias a la magia de la estadística, se pueden reconocer incluso diferencias sutiles entre animales individuales. Por ejemplo, los investigadores han logrado demostrar que el estrés agudo y el estrés crónico modifican el comportamiento de los ratones de forma diferente. Estos cambios también están relacionados con diferentes mecanismos en el cerebro. El nuevo enfoque también aumenta la estandarización de las pruebas, lo que permite comparar mejor los resultados de una variedad de experimentos, incluso aquellos realizados por diferentes grupos de investigación. Promoción del bienestar animal en la investigación “Si utilizamos inteligencia artificial y aprendizaje automático para el análisis del comportamiento, contribuimos a una investigación biomédica más ética y eficiente”, afirma Bohacek. Él y su equipo llevan años trabajando en el tema de la investigación 3R. Para ello han creado el 3R Hub en la ETH, cuyo objetivo es influir positivamente en el bienestar animal en la investigación biomédica. «El nuevo método es el primer gran éxito del ETH 3R Hub, y estamos orgullosos de ello», afirma Oliver Sturman, director del Hub y coautor de este estudio. El 3R Hub contribuye ahora a que el nuevo método esté disponible para otros investigadores de la ETH y de otras instituciones. «Los análisis como el nuestro son complejos y requieren una amplia experiencia», explica Bohacek. «La introducción de nuevos enfoques 3R suele ser un gran obstáculo para muchos laboratorios de investigación». Esta es precisamente la idea detrás del 3R Hub: permitir la difusión de estos enfoques mediante el apoyo práctico para mejorar el bienestar animal. ETH zürich. Traducido al español

Leer más »

Revolucionando el acceso a la IA: cómo Nscale y los líderes tecnológicos globales están construyendo el futuro de la IA escalable

En colaboración con Lenovo, Nokia y AMD, el hiperescalador Nscale ofrece desarrollo e implementación de IA llave en mano a empresas de todo el mundo. 14 de noviembre de 2024 Amedida que la IA sigue en auge, la tecnología en rápida evolución está alterando aspectos de todas las industrias. La IA generativa se extiende mucho más allá de la simple generación de contenido con aplicaciones en diversos campos como servicios al cliente, atención médica, detección de fraudes y seguridad, y muchos más. Pero, a medida que las capacidades de la tecnología de IA continúan creciendo, también lo hacen los requisitos de infraestructura necesarios para implementarla. Ahí es donde entra en juego Nscale. A través de su plataforma en la nube, centros de datos ubicados estratégicamente y potentes clústeres de nodos de GPU, el hiperescalador ya ofrece desarrollo e implementación de IA llave en mano a empresas de todo el mundo. Con las contribuciones de los socios Lenovo, Nokia y AMD, el futuro de la IA parece más accesible que nunca.  IA a hiperescala Nscale, el hiperescalador de primera línea, es una de las empresas que definen el sector y ofrece GPU como servicio a través de su infraestructura respetuosa con el medio ambiente. Las empresas de sectores como las finanzas, la atención sanitaria, el software y otros están ansiosas por aprovechar esta infraestructura centrada en la IA para aumentar su ventaja competitiva en el mercado. Por eso recurren a la infraestructura de computación en la nube de Nscale para obtener acceso a miles de GPU adaptadas a sus requisitos exactos. A través de Nscale, el entrenamiento, el ajuste, la inferencia y el desarrollo de la IA son posibles, no solo a un menor costo, sino también con un mayor nivel de eficiencia y escalabilidad.  “Como hiperescalador”, explica el director de tecnología de Nscale, David Power, “Nscale proporciona cantidades masivas de computación en la nube y servicios a empresas de todo el mundo, ayudándolas a ser más eficientes, innovadoras y ágiles a medida que sus negocios crecen”.  No es una tarea sencilla. Teniendo en cuenta la escala a la que operan Nscale y su infraestructura de IA, necesitan apoyarse en la tecnología más avanzada y confiable disponible. Por eso, los colaboradores de Nscale son clave para su éxito.  “Los datos están en pleno auge”, afirma Power, “y nuestros clientes necesitan arquitecturas informáticas que puedan seguir el ritmo, por lo que nos propusimos reunir a los mejores socios para construir una arquitectura de IA para el futuro. Nuestros servicios en la nube optimizados para IA necesitan tres ingredientes principales: hardware de vanguardia con aceleradores de IA de última generación, redes confiables de alta velocidad y una capa de orquestación de IA optimizada para reunir todo en una interfaz simple e intuitiva”.   A través de sus alianzas estratégicas con Lenovo, AMD y Nokia, Nscale puede ofrecer todo eso y más.  Infraestructura construida a medida El corazón de las operaciones de Nscale son sus centros de datos en Noruega, que albergan miles de GPU dentro de su red de servidores Lenovo ThinkSystem. Lenovo diseñó estos clústeres de computación de alto rendimiento específicamente para sus socios de Nscale a través de los servicios y la consultoría de ingeniería de Lenovo.  “Trabajamos en estrecha colaboración con nuestros socios para diseñar una solución personalizada que sea ideal para este proyecto”, afirma Per Overgaard, director de tecnología de EMEA y director ejecutivo del grupo de soluciones de infraestructura de Lenovo. “El Lenovo ThinkSystem SR685a V3 es un potente servidor de 8U que cuenta con dos procesadores de CPU AMD EPYC™ 9004 y ocho GPU AMD Instinct™ MI300x de alto rendimiento. Fue diseñado completamente en casa por Lenovo desde cero para proporcionar la mejor modularidad, rendimiento térmico y confiabilidad de su clase, y nuestros servicios administrados por Lenovo mantienen el barco funcionando sin problemas”.  La sostenibilidad en el corazón Las cargas de trabajo de IA consumen una cantidad increíble de energía, en gran medida debido a las enormes demandas computacionales que implica entrenar y ejecutar modelos de gran tamaño. Procesar conjuntos de datos enormes y ejecutar redes neuronales complejas, especialmente en aplicaciones en tiempo real, requiere recursos energéticos significativos, lo que hace que los centros de datos eficientes y el hardware especializado sean esenciales para satisfacer las necesidades energéticas de la IA de manera sustentable. El compromiso de Nscale con la sustentabilidad es un aspecto central de la empresa. “Nuestra ubicación estratégica en el Círculo Polar Ártico nos permite aprovechar el clima local para lograr un enfriamiento adiabático energéticamente eficiente”, explica Power, “complementado con nuestro uso de energía 100% renovable, lo que subraya nuestra dedicación a un futuro digital sostenible”.  La eficiencia energética y la refrigeración también fueron prioridades para Lenovo a la hora de diseñar sus servidores. “Los servidores Lenovo están diseñados teniendo en cuenta la eficiencia”, afirma Overgaard, “lo que reduce el consumo de energía de cada cálculo. Nuestros sistemas refrigerados por aire ofrecen un rendimiento de refrigeración por aire de primera línea y, en el futuro, Lenovo Neptune™ ha liderado el mundo en tecnología de refrigeración de centros de datos durante más de una década. El uso de agua tibia para enfriar los procesadores directamente ayuda a reducir el consumo y los costos de energía, al tiempo que mantiene el rendimiento. Esta solución ecológica minimiza la necesidad de aire acondicionado tradicional, lo que la hace ideal para cargas de trabajo que consumen mucha energía, como la IA”.  Estos esfuerzos de colaboración resaltan el enfoque de ambas empresas en la sostenibilidad y subrayan el compromiso de Nscale de ofrecer la plataforma de nube de IA más efectiva, así como la plataforma más eficiente y responsable posible.  Computación de alto rendimiento Otro aspecto clave de la plataforma en la nube de Nscale reside en los propios servidores. Los nodos de GPU a los que acceden los clientes están compuestos por GPU AMD Instinct, que aportan la mayor potencia posible a las cargas de trabajo de IA de alta intensidad, sin comprometer la eficiencia.  Con la experiencia de

Leer más »

Cómo las empresas del mundo real se están transformando con la IA

A medida que el cambio de plataforma actual hacia la IA sigue ganando impulso, Microsoft está trabajando para comprender cómo las organizaciones pueden generar valor comercial duradero.  Uno de los aspectos más destacados de mi carrera siempre ha sido conectarme con clientes y socios de diferentes industrias para aprender cómo utilizan la tecnología para impulsar sus negocios. En los últimos 30 años, hemos visto cuatro cambios importantes en las plataformas: desde el servidor cliente hasta Internet y la web, pasando por los dispositivos móviles y la nube, y ahora, el próximo gran cambio de plataforma, la IA.   A medida que el cambio de plataforma actual hacia la IA sigue ganando impulso, Microsoft está trabajando para comprender cómo las organizaciones pueden generar valor comercial duradero. Recientemente, encargamos un estudio con IDC, The Business Opportunity of AI , para descubrir nuevos conocimientos sobre el valor comercial y ayudar a guiar a las organizaciones en su camino hacia la transformación de la IA. El estudio descubrió que por cada $1 que las organizaciones invierten en IA generativa, obtienen un promedio de $3,70 a cambio, y descubrió conocimientos sobre el potencial futuro de la IA para remodelar los procesos comerciales e impulsar el cambio en todas las industrias.   Hoy en día, más del 85 % de las empresas de Fortune 500 utilizan soluciones de inteligencia artificial de Microsoft para dar forma a su futuro. Al trabajar con organizaciones grandes y pequeñas, en todos los sectores y geografías, hemos visto que la mayoría de las iniciativas de transformación están diseñadas para lograr uno de los cuatro resultados comerciales siguientes:   En este blog, hemos recopilado más de 200 de nuestros ejemplos favoritos de la vida real sobre cómo las organizaciones están adoptando las probadas capacidades de inteligencia artificial de Microsoft para generar impacto y dar forma al cambio de plataforma actual hacia la inteligencia artificial. Esperamos que encuentre uno o dos ejemplos que puedan inspirar su propio proceso de transformación. Enriqueciendo las experiencias de los empleados La IA generativa está transformando verdaderamente la productividad y el bienestar de los empleados. Nuestros clientes nos dicen que al automatizar tareas repetitivas y mundanas, los empleados tienen más tiempo para dedicarse a tareas más complejas y creativas. Este cambio no solo hace que el entorno de trabajo sea más estimulante, sino que también aumenta la satisfacción laboral. Impulsa la innovación, proporciona información útil para una mejor toma de decisiones y respalda oportunidades de capacitación y desarrollo personalizadas, todo lo cual contribuye a un mejor equilibrio entre el trabajo y la vida personal. Los clientes de todo el mundo han informado de mejoras significativas en la productividad de los empleados con estas soluciones de IA: Reinventando la interacción con el cliente Hemos visto excelentes ejemplos de cómo la IA generativa puede automatizar la creación de contenido, garantizando que haya materiales nuevos y atractivos listos para usar. Personaliza las experiencias de los clientes al analizar los números, lo que aumenta las tasas de conversión. Facilita las operaciones, lo que ayuda a los equipos a lanzar campañas más rápido. Además, impulsa la innovación, creando experiencias que deleitan a los clientes y aligeran la carga del personal. Adoptar la IA generativa es clave para las organizaciones que desean reinventar la interacción con los clientes, mantenerse a la vanguardia e impulsar la innovación y la eficiencia. Reestructurando el proceso de negocio La transformación de las operaciones es otra forma en que la IA generativa fomenta la innovación y mejora la eficiencia en diversas funciones empresariales. En el ámbito del marketing, puede crear contenido personalizado para atraer realmente a diferentes públicos. En el ámbito de la gestión de la cadena de suministro, puede predecir las tendencias del mercado para que las empresas puedan optimizar sus niveles de inventario. Los departamentos de recursos humanos pueden acelerar el proceso de contratación, mientras que los servicios financieros pueden utilizarla para la detección de fraudes y la evaluación de riesgos. Con la IA generativa, las empresas no solo están perfeccionando sus procesos actuales, sino que también están descubriendo nuevas y emocionantes oportunidades de crecimiento. Doblando la curva de la innovación La IA generativa está revolucionando la innovación al acelerar los procesos creativos y el desarrollo de productos. Está ayudando a las empresas a generar nuevas ideas, diseñar prototipos e iterar rápidamente, reduciendo el tiempo necesario para llegar al mercado. En la industria automotriz, está diseñando vehículos más eficientes, mientras que en la industria farmacéutica, está creando nuevas moléculas de medicamentos, acortando años de tiempo de investigación y desarrollo. En educación, transforma la forma en que los estudiantes aprenden y logran sus objetivos. A continuación, se muestran más ejemplos de cómo las empresas están adoptando la IA generativa para dar forma al futuro de la innovación.

Leer más »

La neurotecnología mejora la memoria sin cirugía

Los investigadores de la EPFL han combinado la realidad virtual, la estimulación cerebral no invasiva y técnicas avanzadas de imágenes cerebrales para mejorar la navegación espacial en participantes sanos. El estudio es un primer paso para abordar la demencia en una población que envejece sin medicación ni cirugía. A medida que envejecemos, se hace más difícil recordar dónde están las cosas, ya sea dónde dejamos las llaves o dónde aparcamos el coche. Esta memoria espacial se deteriora aún más con la aparición de la demencia, una enfermedad que se desarrolla cada tres segundos en una persona, según Alzheimer’s Disease International. Estamos abordando una grave preocupación para aquellos afectados por la demencia.Friedhelm Hummel Investigadores de dos laboratorios de la EPFL han unido sus fuerzas para potenciar la memoria espacial creando un sistema experimental único que combina estimulación cerebral profunda no invasiva, entrenamiento de realidad virtual e imágenes fMRI, todo ello en el Campus Biotech de Ginebra. El estudio, publicado en Science Advances, demuestra que los impulsos eléctricos dirigidos e indoloros al hipocampo y las estructuras adyacentes, una región cerebral profunda implicada en la memoria y la navegación espacial, pueden mejorar la capacidad del cerebro para recordar ubicaciones y navegar de forma más eficaz. “Al encontrar formas de mejorar la memoria espacial sin cirugía ni medicación, estamos abordando una preocupación grave para una población grande y en crecimiento: los ancianos, así como los pacientes con traumatismos cerebrales y los afectados por demencia”, dice Friedhelm Hummel, director del Laboratorio Hummel . El estudio es el resultado de una colaboración entre el Laboratorio Hummel y el Laboratorio de Neurociencia Cognitiva de Olaf Blanke ( LCNO ), ambos en el instituto Neuro X de la EPFL. Al combinar la experiencia de Hummel en estimulación cerebral no invasiva con la investigación cognitiva de Blanke sobre navegación espacial en entornos de realidad virtual, los investigadores desarrollaron una configuración neurotecnológica única. Una combinación única de neurotecnologíasEl experimento comienza con la colocación de cuatro electrodos inofensivos en la cabeza de individuos sanos para estimular el hipocampo y las estructuras adyacentes. Esta técnica no invasiva, llamada estimulación eléctrica por interferencia temporal transcraneal (tTIS), envía pulsos específicos sin causar ninguna molestia al participante. Esto nos lleva a creer que al estimular el hipocampo aumentamos temporalmente la plasticidad cerebral.Elena Beanato A continuación, los voluntarios se sumergen en un mundo virtual mediante gafas de realidad virtual. Basándose en investigaciones anteriores del coautor principal Hyuk-June Moon, los científicos piden a los participantes que naveguen por una serie de lugares y recuerden puntos de referencia clave. Este entorno virtual inmersivo permite a los investigadores medir con precisión la capacidad de los participantes para recordar y navegar por la información espacial mientras reciben la tTIS. “Al aplicar la estimulación, observamos una clara mejora del tiempo de recuerdo de los participantes, es decir, el tiempo que tardaban en empezar a moverse hacia el lugar donde recordaban que estaba el objeto”, afirma Elena Beanato, la otra autora principal del estudio. “Esto nos lleva a pensar que al estimular el hipocampo aumentamos temporalmente la plasticidad cerebral, lo que, combinado con el entrenamiento en un entorno virtual, conduce a una mejor navegación espacial”. Todo el experimento se llevó a cabo dentro de un escáner fMRI. Esto proporcionó a los investigadores imágenes en tiempo real de la actividad cerebral, lo que les permitió monitorear cómo el hipocampo y las regiones circundantes respondieron a la tTIS durante las tareas de navegación espacial. Los datos fMRI revelaron cambios en la actividad neuronal asociada con los cambios de comportamiento observados, específicamente en las regiones responsables de la memoria y la navegación, lo que proporcionó a los investigadores una visión más profunda de cómo la estimulación no invasiva modula la función cerebral. Esta integración de tecnologías avanzadas en el Instituto Neuro X de la EPFL convierte a Campus Biotech en uno de los pocos lugares donde se pueden combinar las tres técnicas experimentales en un único estudio. “A largo plazo, prevemos utilizar este enfoque para desarrollar terapias específicas para pacientes que sufren deterioro cognitivo.Olaf Blanke “La alianza entre la tTIS, la realidad virtual y la fMRI ofrece un enfoque altamente controlado e innovador para estudiar la respuesta del cerebro a la estimulación y su impacto en las funciones cognitivas”, añade Olaf Blanke. “A largo plazo, prevemos utilizar este enfoque para desarrollar terapias dirigidas a pacientes que sufren deterioro cognitivo, ofreciendo una forma no invasiva de mejorar la memoria y las capacidades espaciales”. EPFL. E. D. M. Traducido al español

Leer más »

Robots móviles autónomos para química sintética exploratoria

Los laboratorios robóticos autónomos tienen el potencial de cambiar nuestro enfoque de la síntesis química, pero existen barreras para su adopción a gran escala. Abstracto Los laboratorios autónomos pueden acelerar los descubrimientos en la síntesis química, pero esto requiere mediciones automatizadas junto con una toma de decisiones confiable 1 , 2 . La mayoría de los laboratorios autónomos involucran equipo automatizado a medida 3 , 4 , 5 , 6 , y los resultados de la reacción a menudo se evalúan utilizando una única técnica de caracterización cableada 7 . Cualquier algoritmo de toma de decisiones 8 debe entonces operar utilizando este estrecho rango de datos de caracterización 9 , 10 . Por el contrario, los experimentos manuales tienden a recurrir a una gama más amplia de instrumentos para caracterizar los productos de reacción, y rara vez se toman decisiones basadas en una sola medición. Aquí mostramos que un laboratorio de síntesis se puede integrar en un laboratorio autónomo mediante el uso de robots móviles 11 , 12 , 13 que operan el equipo y toman decisiones de manera similar a la humana. Nuestro flujo de trabajo modular combina robots móviles, una plataforma de síntesis automatizada, un espectrómetro de masas de cromatografía líquida y un espectrómetro de resonancia magnética nuclear de sobremesa. Esto permite que los robots compartan el equipo de laboratorio existente con investigadores humanos sin monopolizarlo o requerir un rediseño extenso. Un tomador de decisiones heurístico procesa los datos de medición ortogonales, selecciona las reacciones exitosas para continuar y verifica automáticamente la reproducibilidad de cualquier resultado de detección. Ejemplificamos este enfoque en las tres áreas de química de diversificación estructural, química supramolecular de huésped-anfitrión y síntesis fotoquímica. Esta estrategia es particularmente adecuada para la química exploratoria que puede generar múltiples productos potenciales, como para los ensamblajes supramoleculares, donde también ampliamos el método a un ensayo de función autónoma mediante la evaluación de las propiedades de unión de huésped-anfitrión. Otros usuarios están viendo contenido similar Una plataforma portátil autónoma para la síntesis química universal Artículo 06 de octubre de 2022 Lenguaje de programación química universal para la repetibilidad de la síntesis robótica Artículo 11 de enero de 2024 Un químico robótico móvil Artículo 08 de julio de 2020 Principal Los laboratorios robóticos autónomos tienen el potencial de cambiar nuestro enfoque de la síntesis química, pero existen barreras para su adopción a gran escala. La autonomía implica más que la automatización; requiere agentes, algoritmos o inteligencia artificial para registrar e interpretar datos analíticos y tomar decisiones basadas en ellos 14 , 15 . Esta es la distinción clave entre experimentos automatizados, donde los investigadores toman las decisiones, y experimentos autónomos, donde esto lo hacen las máquinas. La eficacia de los experimentos autónomos depende tanto de la calidad como de la diversidad de las entradas de datos analíticos y su posterior interpretación autónoma. Automatizar los pasos de toma de decisiones en la síntesis exploratoria 16 es un desafío porque, a diferencia de algunas áreas de catálisis 11 , rara vez implica la medición y maximización de una sola cifra de mérito. Por ejemplo, las síntesis supramoleculares pueden producir una amplia gama de posibles productos de reacción autoensamblados 17 , lo que presenta un problema más abierto desde una perspectiva de automatización que maximizar el rendimiento de un solo objetivo conocido. La síntesis exploratoria se presta menos bien a las estrategias de optimización de circuito cerrado, al menos en ausencia de una simple métrica cuantitativa de «novedad» o «importancia». En la síntesis exploratoria manual, las reacciones suelen caracterizarse mediante más de una técnica para permitir la identificación inequívoca de las especies químicas. Por ejemplo, en las síntesis orgánicas de moléculas pequeñas y la química supramolecular, la espectrometría de masas (EM) y la espectroscopia de resonancia magnética nuclear (RMN) se combinan a menudo para investigar el peso molecular y la estructura molecular, respectivamente. La automatización del análisis de estos datos analíticos multimodales para guiar los procesos de descubrimiento sintético no es trivial 18 . Los enfoques basados ​​en inteligencia artificial, limitados por sus datos de entrenamiento, podrían impedir descubrimientos genuinamente nuevos al adherirse demasiado a los conocimientos previos establecidos. Del mismo modo, los métodos de decisión basados ​​en reglas requieren una implementación cuidadosa para no pasar por alto la química que se desvía de las reglas. Más fundamentalmente, la diversidad sintética conduce a datos de caracterización diversos. Por ejemplo, algunos productos de una biblioteca pueden producir espectros de RMN altamente complejos pero espectros de masas simples, mientras que otros compuestos pueden mostrar el comportamiento inverso, o tal vez no dar señales de masa en absoluto. Como químicos, tomamos decisiones rutinarias basadas en el contexto sobre en qué flujos de datos centrarnos, pero este es un obstáculo importante para los sistemas autónomos. Se ha avanzado mucho en la diversificación de las plataformas de síntesis automatizada 4 , 5 , 19 y en el aumento de sus capacidades autónomas 9 , 14 , 15 , 20 , 21 , 22 . Hasta ahora, la mayoría de las plataformas utilizan ingeniería a medida y equipos analíticos integrados físicamente 6 . El coste asociado, la complejidad y la monopolización proximal de los equipos analíticos significa que a menudo se favorecen técnicas de caracterización únicas y fijas en los flujos de trabajo automatizados, en lugar de recurrir a la gama más amplia de técnicas analíticas disponibles en la mayoría de los laboratorios sintéticos. Esto obliga a cualquier algoritmo de toma de decisiones a operar con información analítica limitada, a diferencia de los enfoques manuales más multifacéticos. Por lo tanto, la síntesis química autónoma de circuito cerrado a menudo se parece poco a la experimentación humana, ya sea en la infraestructura de laboratorio requerida o en los pasos de toma de decisiones. Demostramos previamente 11 que los robots móviles de libre movimiento podrían integrarse en laboratorios existentes para realizar experimentos emulando las operaciones físicas de los científicos humanos. Sin embargo, ese primer flujo de trabajo se limitó a un tipo específico de química (la evolución fotoquímica del hidrógeno) y la única medición disponible era la cromatografía de gases, que proporciona una salida escalar simple. Estudios posteriores que involucraron robots móviles también se centraron en la optimización del rendimiento del catalizador 12 , 13 . Estos flujos de trabajo de catálisis de sobremesa 11 , 12 , 13 no pueden llevar a cabo una química sintética más general, por ejemplo, que involucre disolventes orgánicos, ni pueden medir e interpretar datos de caracterización

Leer más »
Scroll al inicio