El Portal de las Tecnologías para la Innovación

Categoría: Inteligencia Artificial en la Salud Humana

Impresión 3D en vivo mediante sonido

Imagine si los médicos pudieran imprimir con precisión cápsulas en miniatura capaces de transportar las células necesarias para la reparación tisular exactamente donde se necesitan dentro de un corazón latente.  Un equipo de científicos dirigido por Caltech ha dado un paso significativo hacia ese objetivo final al desarrollar un método para imprimir polímeros en 3D en puntos específicos del interior de animales vivos. La técnica se basa en el sonido para la localización y ya se ha utilizado para imprimir cápsulas de polímero para la administración selectiva de fármacos, así como polímeros adhesivos para sellar heridas internas. Anteriormente, los científicos han utilizado luz infrarroja para desencadenar la polimerización, la unión de las unidades básicas, o monómeros, de los polímeros en animales vivos. «Sin embargo, la penetración infrarroja es muy limitada. Solo llega justo debajo de la piel», afirma Wei Gao , profesor de ingeniería médica en Caltech e investigador del Instituto de Investigación Médica Heritage. «Nuestra nueva técnica llega al tejido profundo y permite imprimir diversos materiales para una amplia gama de aplicaciones, manteniendo al mismo tiempo una excelente biocompatibilidad». Gao y sus colegas presentan su nueva técnica de impresión 3D in vivo en la revista Science . Además de geles y polímeros bioadhesivos para la administración de fármacos y células, el artículo también describe el uso de esta técnica para la impresión de hidrogeles bioeléctricos, que son polímeros con materiales conductores integrados para la monitorización interna de signos vitales fisiológicos, como los electrocardiogramas (ECG). El autor principal del estudio es Elham Davoodi, profesor adjunto de ingeniería mecánica en la Universidad de Utah, quien completó el trabajo durante su estancia postdoctoral en Caltech. El origen de una idea novedosa Con el objetivo de encontrar una manera de lograr la impresión in vivo de tejido profundo, Gao y sus colegas recurrieron al ultrasonido, una plataforma ampliamente utilizada en biomedicina para la penetración en tejidos profundos. Sin embargo, necesitaban una forma de activar la reticulación, o unión de monómeros, en un punto específico y solo cuando se deseaba. Desarrollaron un enfoque novedoso: combinar el ultrasonido con liposomas sensibles a bajas temperaturas. Estos liposomas, vesículas esféricas similares a células con capas protectoras de grasa, se utilizan a menudo para la administración de fármacos. En el nuevo trabajo, los científicos cargaron los liposomas con un agente de reticulación y los integraron en una solución polimérica que contenía los monómeros del polímero que querían imprimir, un agente de contraste de imagen que revelaría cuándo se había producido la reticulación y la carga que esperaban administrar, por ejemplo, un fármaco terapéutico. Se pueden incluir componentes adicionales, como células y materiales conductores como nanotubos de carbono o plata. La biotinta compuesta se inyectó posteriormente directamente en el cuerpo. Aumente la temperatura con solo un toque para activar la impresión Las partículas de liposomas son sensibles a las bajas temperaturas, lo que significa que al usar ultrasonido enfocado para elevar la temperatura de una pequeña región objetivo en aproximadamente 5 grados Celsius, los científicos pueden desencadenar la liberación de su carga útil e iniciar la impresión de polímeros. «Aumentar la temperatura unos pocos grados Celsius es suficiente para que la partícula de liposoma libere nuestros agentes de reticulación», afirma Gao. «Donde se liberan los agentes, es donde se produce la polimerización o impresión localizada». El equipo utiliza vesículas de gas derivadas de bacterias como agente de contraste para imágenes. Estas vesículas, cápsulas de proteína llenas de aire, se distinguen con claridad en las imágenes ecográficas y son sensibles a los cambios químicos que se producen cuando la solución líquida de monómero se reticula para formar una red de gel. De hecho, las vesículas cambian de contraste, detectado por ecografía, durante la transformación. Esto permite a los científicos identificar fácilmente cuándo y dónde se ha producido la reticulación por polimerización, lo que les permite personalizar los patrones impresos en animales vivos. El equipo denomina a la nueva técnica plataforma de impresión de sonido in vivo en tejidos profundos (DISP). Cuando el equipo utilizó la plataforma DISP para imprimir polímeros cargados con doxorrubicina, un fármaco quimioterapéutico, cerca de un tumor de vejiga en ratones, encontraron sustancialmente más muerte de células tumorales durante varios días en comparación con los animales que recibieron el fármaco a través de una inyección directa de soluciones de fármacos. «Ya hemos demostrado en un animal pequeño que podemos imprimir hidrogeles con fármacos para el tratamiento de tumores», afirma Gao. «Nuestra próxima etapa es intentar imprimirlos en un modelo animal más grande y, con suerte, en un futuro próximo, podremos evaluarlo en humanos». El equipo también cree que el aprendizaje automático puede mejorar la capacidad de la plataforma DISP para localizar y aplicar ultrasonidos focalizados con precisión. «En el futuro, con la ayuda de la IA, nos gustaría poder activar de forma autónoma la impresión de alta precisión dentro de un órgano en movimiento, como un corazón latiendo», afirma Gao. Español Autores adicionales del artículo, «Impresión de sonido in vivo de tejido profundo guiada por imágenes», son los estudiantes de posgrado de Caltech Jiahong Li (MS ’23), Xiaotian Ma (MS ’24), Sunho Lee y Jee Won Yang (MS ’23); Alireza Hassani Najafabadi, Ali Khademhosseini y Hossein Montazerian del Instituto Terasaki para la Innovación Biomédica en Los Ángeles; Gengxi Lu, Yushun Zeng y Qifa Zhou de la USC; Jason Williams, Shervin S. Nia, Tzung K. Hsiai y Paul S. Weiss de la UCLA; Jounghyun Yoo, visitante en ingeniería médica en Caltech; Gwangmook Kim, becario postdoctoral en ingeniería médica en Caltech; Lei S. Li (PhD ’19), ahora en la Universidad de Rice; Zhiyang Jin (PhD ’24), Behnam Sadri y Ehsan Shirzaei Sani, ex investigadores postdoctorales en Caltech; Lihong V. Wang , profesor Bren de Ingeniería Médica e Ingeniería Eléctrica de Caltech y presidente de la Cátedra de Liderazgo en Ingeniería Médica Andrew y Peggy Cherng; Di Wu (PhD ’21), científico investigador y director del Centro DeepMIC en Caltech; y Mikhail G. Shapiro , profesor Max Delbrück de Ingeniería Química e Ingeniería Médica de Caltech e investigador del Instituto Médico Howard Hughes. La plataforma de impresión sonora in vivo (DISP) de tejido profundo.

Leer más »

Breakthrough uses artificial intelligence to identify different brain cells in action

A decades-old challenge in neuroscience has been solved by harnessing artificial intelligence (AI) to identify the electrical signatures of different types of brain cells for the first time, as part of a study in mice led by researchers from UCL. Brains are made up of many different types of neurons (nerve cells in the brain), each of which are thought to play different roles in processing information. Scientists have long been able to use electrodes to record the activity of neurons by detecting the electrical ‘spikes’ that they generate while performing brain functions. Although recording spikes has proved invaluable for monitoring the activity of individual neurons deep in the brain, until now the method has been ‘blind’ to the type of neuron being recorded – making it impossible to identify how different neurons contribute to the brain’s overall operation. In a new study, published in Cell, the research team have overcome this problem by identifying the distinct ‘electrical signatures’ of different neuron types in the mouse brain, using brief pulses of blue light to trigger spikes in specific cell types (a method called optogenetics). They created a library of the different electrical signatures for each type of neuron, which then allowed them to train an AI algorithm that can automatically recognise five different types of neurons with 95% accuracy without further need for genetic tools. The algorithm was also validated on brain recording data from monkeys. The researchers say they have overcome a major hurdle in being able to use the technology to study neurological conditions such as epilepsy, but that there is still “a long way” to go before it can be used in practical applications. Dr Maxime Beau, co-first author of the study from the UCL Wolfson Institute for Biomedical Research, said: “For decades, neuroscientists have struggled with the fundamental problem of reliably identifying the many different types of neurons that are simultaneously active during behaviour. Our approach now enables us to identify neuron types with over 95% accuracy in mice and in monkeys. “This advance will enable researchers to record brain circuits as they perform complex behaviours such as movement. Like logic gates on a computer chip, neurons in the brain are elementary computing units that come in several types. Our method provides a tool to identify many of the brain’s logic gates in action at the same time. Before, it could only be done one at a time, and at much greater cost.» The authors say the fact that the algorithm can be applied across different species gives it huge potential for being expanded to other animals and, eventually, to humans. In the short term, the new technique means that, instead of requiring complex genetic engineering to study the brain, researchers could use any normal animal to study what different neurons do and how they interact with one another to generate behaviour. One of the ultimate aims is to be able to study neurological and neuropsychiatric disorders such as epilepsy, autism and dementia, many of which are thought to involve changes to the way different cell types in the brain interact. Professor Beverley Clark a senior author of the study from UCL Wolfson Institute for Biomedical Research, said: “Just as many different instruments in an orchestra contribute to the sound of a symphony, the brain relies on many distinct neuron types to create the complex behaviour that humans and other animals exhibit. Our work is analogous to learning the sound that each instrument makes and then teaching an algorithm to recognise the contribution of each of them to a symphony. “Being able to observe this ‘neural symphony’ of the brain in action has been a fundamental challenge in neuroscience for over 100 years, and we now have a method for reliably doing this. “Although the technology is a long way from being able to be used to study neurological conditions such as epilepsy, we’ve now overcome a major hurdle to reaching that goal. In fact, some recordings of living human brain activity have already been recorded in patients during surgery, and our technique could be used to study those recordings to better understand how our brains work, first in health and then in disease.” Improved understanding of how our brains work could pave the way for some ground-breaking advances in medical science, some of which are already on the horizon. Human brain-to-computer interfaces, or neural implants, are one such possibility. Ongoing research at the UCSF Weill Institute for Neurosciences, for example, has enabled a paralysed man to control a robotic arm using a neural implant for a record seven months. Like the current study, this work was also informed by studying the electrical patterns in the brains of animals and using AI to automatically recognise these patterns. The authors say the new technique to differentiate neuron types could help to improve neural implants by more accurately recording which types of cells are involved in particular actions, so that the implant can more easily recognise specific signals and generate the appropriate response. Key to this technology is understanding how our brains work when they’re healthy, so that any damage can be compensated for. If a person had a stroke and part of their brain was damaged, for example, you would need to understand how that bit worked before you could consider designing an implant to replicate that functionality. Professor Michael Häusser, a senior author of the study from UCL Division of Medicine and The University of Hong Kong, said: «This project came to life thanks to the convergence of three critical innovations: using molecular biology to successfully ‘tag’ different neuron types using light, developments in silicon probe recording technology, and of course the fast-paced improvements in deep learning. “Crucially, the synergy in our team was absolutely instrumental. The partner labs at UCL, Baylor, Duke and Bar Ilan University have all contributed critical pieces to the puzzle. Just like the brain, the whole is larger than the sum of its parts.» The database gathered by the team is freely

Leer más »

Breakthrough utiliza inteligencia artificial para identificar diferentes células cerebrales en acción

Un desafío de décadas en neurociencia se ha resuelto aprovechando la inteligencia artificial (IA) para identificar las firmas eléctricas de diferentes tipos de células cerebrales por primera vez, como parte de un estudio en ratones dirigido por investigadores de la UCL. Los cerebros están formados por muchos tipos diferentes de neuronas (células nerviosas en el cerebro), cada una de las cuales se cree que desempeña diferentes funciones en el procesamiento de la información. Los científicos han podido usar electrodos durante mucho tiempo para registrar la actividad de las neuronas al detectar los picos eléctricos ‘que generan mientras realizan funciones cerebrales. Aunque los picos de grabación han demostrado ser invaluables para monitorear la actividad de las neuronas individuales en las profundidades del cerebro, hasta ahora el método ha sido ‘blind’ para el tipo de neurona que se está grabando –, lo que hace imposible identificar cómo las diferentes neuronas contribuyen a la operación general del cerebro. En un nuevo estudio, publicado en Celular, el equipo de investigación ha superado este problema identificando las distintas ‘firmas eléctricas’ de diferentes tipos de neuronas en el cerebro del ratón, utilizando breves pulsos de luz azul para desencadenar picos en tipos de células específicas (un método llamado optogenética). Crearon una biblioteca de las diferentes firmas eléctricas para cada tipo de neurona, lo que les permitió entrenar un algoritmo de IA que puede reconocer automáticamente cinco tipos diferentes de neuronas con un 95% de precisión sin necesidad de herramientas genéticas. El algoritmo también se validó en datos de registro cerebral de monos. Los investigadores dicen que han superado un obstáculo importante para poder usar la tecnología para estudiar afecciones neurológicas como la epilepsia, pero que todavía hay “un largo camino que recorrer antes de que pueda usarse en aplicaciones prácticas. El Dr. Maxime Beau, coautor del estudio del Instituto Wolfson de Investigación Biomédica de la UCL, dijo: “Durante décadas, los neurocientíficos han luchado con el problema fundamental de identificar de manera confiable los diferentes tipos de neuronas que están simultáneamente activas durante el comportamiento. Nuestro enfoque ahora nos permite identificar tipos de neuronas con más del 95% de precisión en ratones y monos. “Este avance permitirá a los investigadores registrar circuitos cerebrales a medida que realizan comportamientos complejos como el movimiento. Al igual que las puertas lógicas en un chip de computadora, las neuronas en el cerebro son unidades informáticas elementales que vienen en varios tipos. Nuestro método proporciona una herramienta para identificar muchas de las puertas lógicas de cerebro en acción al mismo tiempo. Antes, solo se podía hacer uno a la vez, y a un costo mucho mayor.» Los autores dicen que el hecho de que el algoritmo se pueda aplicar en diferentes especies le da un gran potencial para expandirse a otros animales y, eventualmente, a los humanos. A corto plazo, la nueva técnica significa que, en lugar de requerir una ingeniería genética compleja para estudiar el cerebro, los investigadores podrían usar cualquier animal normal para estudiar qué hacen las diferentes neuronas y cómo interactúan entre sí para generar comportamiento. Uno de los objetivos finales es poder estudiar trastornos neurológicos y neuropsiquiátricos como la epilepsia, el autismo y la demencia, muchos de los cuales se cree que implican cambios en la forma en que interactúan los diferentes tipos de células en el cerebro. El profesor Beverley Clark, autor principal del estudio del Instituto Wolfson de Investigación Biomédica de la UCL, dijo: “Al igual que muchos instrumentos diferentes en una orquesta contribuyen al sonido de una sinfonía, el cerebro se basa en muchos tipos de neuronas distintas para crear el comportamiento complejo que exhiben los humanos y otros animales. Nuestro trabajo es análogo a aprender el sonido que hace cada instrumento y luego enseñar un algoritmo para reconocer la contribución de cada uno de ellos a una sinfonía. “Ser capaz de observar esta ‘sinfonía neural’ del cerebro en acción ha sido un desafío fundamental en neurociencia durante más de 100 años, y ahora tenemos un método para hacer esto de manera confiable. “Aunque la tecnología está muy lejos de poder usarse para estudiar afecciones neurológicas como la epilepsia, ahora hemos superado un obstáculo importante para alcanzar ese objetivo. De hecho, algunas grabaciones de la actividad cerebral humana viva ya se han registrado en pacientes durante la cirugía, y nuestra técnica podría usarse para estudiar esas grabaciones para comprender mejor cómo funcionan nuestros cerebros, primero en salud y luego en enfermedad Una mejor comprensión de cómo funcionan nuestros cerebros podría allanar el camino para algunos avances innovadores en la ciencia médica, algunos de los cuales ya están en el horizonte. Las interfaces humano cerebro-computadora, o implantes neuronales, son una de esas posibilidades. La investigación en curso en el Instituto Weill de Neurociencias de la UCSF, por ejemplo, ha permitido a un hombre paralizado controlar un brazo robótico utilizando un implante neural durante un récord de siete meses. Al igual que el estudio actual, este trabajo también fue informado mediante el estudio de los patrones eléctricos en el cerebro de los animales y el uso de IA para reconocer automáticamente estos patrones. Los autores dicen que la nueva técnica para diferenciar los tipos de neuronas podría ayudar a mejorar los implantes neuronales al registrar con mayor precisión qué tipos de células están involucradas en acciones particulares, de modo que el implante pueda reconocer más fácilmente señales específicas y generar la respuesta adecuada. La clave de esta tecnología es comprender cómo funcionan nuestros cerebros cuando están sanos, para que cualquier daño pueda ser compensado. Si una persona tuvo un derrame cerebral y parte de su cerebro se dañó, por ejemplo, tendría que entender cómo funcionó esa parte antes de poder considerar el diseño de un implante para replicar esa funcionalidad. El profesor Michael Häusser, autor principal del estudio de la División de Medicina de la UCL y la Universidad de Hong Kong, dijo: «Este proyecto cobró vida gracias a la convergencia de tres innovaciones críticas: el uso de la biología molecular para ‘tag’ diferentes tipos de neuronas con

Leer más »

La inteligencia artificial detecta significativamente más embarazos de alto riesgo

Los modelos de IA para analizar imágenes de ultrasonido pueden revelar hasta un 35 por ciento más de embarazos de alto riesgo, evitando así nacimientos prematuros o complicaciones del parto. El uso de la inteligencia artificial para analizar las ecografías puede detectar hasta un 35 por ciento más de embarazos de alto riesgo que las exploraciones realizadas por profesionales de la salud sin apoyo para la toma de decisiones de IA. Esto se demuestra por los resultados de una empresa spin-out recién establecida, Prenaital, de DTU y la Universidad de Copenhague, que los ingenieros, informáticos y médicos han establecido después de varios años de colaboración, más recientemente bajo los auspicios del Hospital Universitario Técnico del Gran Copenhague, TUH. Los modelos de IA de Prenaital están en una fase de desarrollo, y el primer producto para la garantía de calidad de los exámenes de ultrasonido está a la espera de la aprobación regulatoria. Se espera que el primer modelo, un modelo de IA para el escaneo del crecimiento que puede detectar hasta el 35 por ciento de todos los fetos en riesgo de crecimiento anormal, esté en el mercado en 2026. Los modelos se han desarrollado en colaboración con sonógrafos, parteras y médicos de Rigshospitalet, que han identificado la tecnología que más necesitan, y la tecnología de IA se ha capacitado en DTU utilizando más de 10,000 imágenes de ecografías de hospitales daneses. “Las imágenes de ultrasonido contienen grandes cantidades de datos que el ojo humano no puede detectar, pero que pueden usarse para identificar embarazos de alto riesgo. Esto incluye estructuras en el cerebro del feto, el porcentaje de grasa y las estructuras de tejido que se pueden utilizar para predecir el desarrollo del feto. Hoy en día, el tamaño y el crecimiento del feto se determinan midiendo la circunferencia de la cabeza, la circunferencia abdominal y la longitud del fémur en la imagen de ultrasonido, pero el modelo de IA puede utilizar toda la información de la imagen, dice el profesor Aasa Feragen de DTU, cofundador de Prenaital. La tecnología de IA aumentará significativamente los beneficios de las ecografías que las mujeres embarazadas experimentan durante su embarazo, que actualmente solo detectan la mitad de todos los embarazos de alto riesgo. Solo en la Región Capital, con 22,000 mujeres embarazadas por año, 1,500 mujeres dan a luz prematuramente, lo que le cuesta a la sociedad un total de 800 millones de DKK. Menos del 20 por ciento de todos los casos se diagnostican a tiempo para que los médicos comiencen el tratamiento preventivo. Detecta la mitad de todos los embarazos de alto riesgo El cofundador de Prenaital, profesor y médico senior Martin G. Tolsgaard de Rigshospitalet ha sido responsable de varios proyectos de investigación sobre el efecto del apoyo de la IA en la seguridad de los diagnósticos de los médicos desde 2019. Los investigadores de Rigshospitalet continúan validando la tecnología en un grupo de 200 mujeres embarazadas que están siendo monitoreadas durante sus embarazos. «Es frustrante cuando tenemos herramientas que simplemente no son lo suficientemente buenas, especialmente cuando podemos prevenir algo si tenemos los datos para hacer un diagnóstico. Recientemente tuve una mujer embarazada que entró en la semana 29 y entró en trabajo de parto con un bebé que era demasiado pequeño para nacer. Debería haber sido detectada por la ecografía, pero perdemos más de la mitad de los embarazos de alto riesgo. Si sólo lo hubiéramos sabido, podríamos haber evitado su trabajo de parto y haber evitado un parto prematuro, lo que causa complicaciones para el niño que lo seguirán por el resto de su vida», dice Martin G. Tolsgaard. Aprendizaje automático y redes neuronales El análisis de Prenaital de las ecografías se basa en redes neuronales profundas, que consisten en muchas unidades pequeñas llamadas neuronas que se organizan en capas y están diseñadas para procesar y analizar datos de imágenes. Antes de que se pueda usar un modelo de IA, debe entrenarse en una gran cantidad de imágenes de ultrasonido, por ejemplo, de muchas exploraciones diferentes. Una vez que el modelo ha sido entrenado, puede comenzar a analizar nuevas imágenes de ultrasonido en función de los patrones que ha aprendido, por ejemplo, para identificar diferentes partes del feto, como la cabeza, el corazón y otros órganos, y compararlos con los valores normales, detectando así cualquier anomalía en una etapa temprana. Después del análisis, la IA puede generar un informe que resuma los hallazgos, ayudando a los médicos a hacer diagnósticos y planificar tratamientos. Listo para la clínica en 2026 En 2024, Prenaital firmó un acuerdo sobre los derechos de patente de la tecnología y los métodos de IA en los que se basan los productos de la empresa spinout. Posteriormente, la compañía recibió fondos para contratar a cuatro empleados y se le dio espacio en The BioInnovation Institute Foundation (BII), una fundación empresarial internacional con un objetivo sin fines de lucro. BII ayuda a nuevas empresas en el sector de las ciencias de la vida (por ejemplo, medicina y biotecnología) a comenzar, y este también ha sido el caso de Prenaital, explica el CEO y fundador de Prenaital Tanja Danner. «El programa de apoyo y aceleración de BII ha sido crucial para permitirnos establecer la empresa, contratar a nuestros primeros empleados y sentar las bases para traducir nuestros resultados de investigación en nuestros primeros productos, así como contratar empleados para documentar nuestro trabajo y resultados de investigación. Hemos obtenido acceso a un ecosistema único de conocimiento, entrenamiento y asesoramiento en BII, que ha acelerado el desarrollo de Prenatal para que podamos llevar nuestra tecnología a las mujeres embarazadas y los bebés que son el foco de nuestro trabajo», dice Tanja Danner. En el próximo año, Prenaital creará los procesos y flujos de trabajo necesarios para obtener la aprobación para desarrollar productos para uso médico, al tiempo que completará los primeros productos para evaluar embarazos de alto riesgo, que Prenaital comercializará en los Estados Unidos, la UE y Dinamarca a partir de 2026. Los modelos de

Leer más »

El dispositivo portátil rastrea células individuales en el torrente sanguíneo en tiempo real

La tecnología, que logra una resolución unicelular, podría ayudar en la evaluación continua y no invasiva del paciente para guiar los tratamientos médicos. Investigadores del MIT han desarrollado un dispositivo de monitoreo médico no invasivo lo suficientemente potente como para detectar células individuales dentro de los vasos sanguíneos, pero lo suficientemente pequeño como para usarlo como un reloj de pulsera. Un aspecto importante de este dispositivo portátil es que puede permitir el monitoreo continuo de las células circulantes en el cuerpo humano. La tecnología fue presentada en línea el 3 de marzo por la revista npj Biosensing y está disponible en la versión impresa de los diarios. El dispositivo — llamado CircTrek — fue desarrollado por investigadores del grupo de investigación Nano-Cybernetic Biotrek, dirigido por Deblina Sarkar, profesora asistente en el MIT y AT&T Career Development Chair en el MIT Media Lab. Esta tecnología podría facilitar en gran medida el diagnóstico temprano de la enfermedad, la detección de la recaída de la enfermedad, la evaluación del riesgo de infección y la determinación de si un tratamiento de la enfermedad está funcionando, entre otros procesos médicos. Mientras que los análisis de sangre tradicionales son como una instantánea de la condición de un paciente, CircTrek fue diseñado para presentar una evaluación en tiempo real, mencionada en el npj Biosensing el papel como haber sido “un objetivo no cumplido hasta la fecha.” Una tecnología diferente que ofrece monitoreo de células en el torrente sanguíneo con cierta continuidad, citometría de flujo in vivo, “requiere un microscopio del tamaño de una habitación, y los pacientes deben estar allí durante mucho tiempo,” dice Kyuho Jang, estudiante de doctorado en el laboratorio de Sarkarars. CircTrek, por otro lado, que está equipado con un módulo Wi-Fi a bordo, incluso podría monitorear las células circulantes de los pacientes en el hogar y enviar esa información al médico o equipo de atención del paciente. “CircTrek ofrece un camino para aprovechar la información previamente inaccesible, permitir tratamientos oportunos y respaldar decisiones clínicas precisas con datos en tiempo real,” dice Sarkar. “Las tecnologías existentes proporcionan un monitoreo que no es continuo, lo que puede llevar a la falta de ventanas de tratamiento críticas. Superamos este desafío con CircTrek.” El dispositivo funciona dirigiendo un rayo láser enfocado para estimular las células debajo de la piel que han sido marcadas con fluorescencia. Dicho etiquetado se puede lograr con una serie de métodos, incluida la aplicación de tintes fluorescentes basados en anticuerpos a las células de interés o la modificación genética de dichas células para que expresen proteínas fluorescentes. Por ejemplo, un paciente que recibe terapia con células T CAR, en la que las células inmunes se recolectan y modifican en un laboratorio para combatir el cáncer (o, experimentalmente, para combatir el VIH o Covid-19), podría tener esas células etiquetadas al mismo tiempo con tintes fluorescentes o modificación genética para que las células expresen proteínas fluorescentes. Es importante destacar que las células de interés también se pueden etiquetar con métodos de etiquetado in vivo aprobados en humanos. Una vez que las células están etiquetadas y circulan en el torrente sanguíneo, CircTrek está diseñado para aplicar pulsos láser para mejorar y detectar la señal fluorescente cells’, mientras que una disposición de filtros minimiza el ruido de baja frecuencia, como los latidos del corazón. “Optimizamos las partes optomecánicas para reducir el ruido significativamente y solo capturar la señal de las células fluorescentes,” dice Jang. Al detectar las células T CAR marcadas, CircTrek podría evaluar si el tratamiento de terapia celular está funcionando. Como ejemplo, la persistencia de las células T CAR en la sangre después del tratamiento se asocia con mejores resultados en pacientes con linfoma de células B. Para mantener CircTrek pequeño y portátil, los investigadores pudieron miniaturizar los componentes del dispositivo, como el circuito que impulsa la fuente láser de alta intensidad y mantiene estable el nivel de potencia del láser para evitar lecturas falsas. El sensor que detecta las señales fluorescentes de las células etiquetadas también es diminuto y, sin embargo, es capaz de detectar una cantidad de luz equivalente a un solo fotón, dice Jang. Los subcircuitos de dispositivos, incluido el controlador láser y los filtros de ruido, fueron diseñados a medida para caber en una placa de circuito que mide solo 42 mm por 35 mm, lo que permite que CircTrek tenga aproximadamente el mismo tamaño que un reloj inteligente. CircTrek se probó en una configuración in vitro que simulaba el flujo sanguíneo debajo de la piel humana, y sus capacidades de detección de una sola célula se verificaron mediante conteo manual con un microscopio confocal de alta resolución. Para la prueba in vitro, se empleó un colorante fluorescente llamado Cianina5.5. Ese tinte en particular se seleccionó porque alcanza la activación máxima en longitudes de onda dentro de la ventana óptica de tejido de la piel, o el rango de longitudes de onda que pueden penetrar la piel con una dispersión mínima. También se investigó la seguridad del dispositivo, en particular el aumento de la temperatura en el tejido cutáneo experimental causado por el láser. Se determinó que un aumento de 1.51 grados centígrados en la superficie de la piel estaba muy por debajo del calentamiento que dañaría el tejido, con un margen suficiente que incluso aumentaría el área de detección de dispositivos y su potencia, para garantizar que se pudiera permitir la observación de al menos un vaso sanguíneo de manera segura. Si bien la traducción clínica de CircTrek requerirá pasos adicionales, Jang dice que sus parámetros pueden modificarse para ampliar su potencial, de modo que los médicos puedan recibir información crítica sobre casi cualquier paciente. MIT News. M. J. Traducido al español

Leer más »

A father’s quest for diagnosis inspired a disruptive AI solution

AI and the ‘odyssey of diagnosis’ Three months after Julián Isla’s son Sergio was born, the infant’s arms and legs suddenly began to shake and his body stiffened during a routine bath.  Distressed, the parents rushed their baby to the hospital, embarking on a seemingly endless journey from one doctor to another in search of answers. It took over 10 months of anxiety, uncertainty and missed treatment to get a final diagnosis: Dravet syndrome, a severe neurological condition mostly affecting young children.   It was an odyssey of pain no other parent or patient should have to endure, Isla told himself.  “I had a thorn in my side from my son’s experience, and couldn’t understand why no technology was being used,” says Isla, as he remembers those stressful days. “We felt fear and uncertainty. We spent time and money visiting many specialists, trying to find an answer.”   Sergio was initially misdiagnosed and given improper treatment, resulting in him experiencing 20 seizures in a single day. Isla recognizes the challenges the system presented to the physician. “He did what he could with the tools he had,” he reflects.  As a software engineer working for Microsoft in Madrid, Isla believed that technology, particularly AI, could help make a difference in diagnosing rare diseases such as Dravet syndrome — saving precious diagnosis time and alleviating patients’ travails. He had an idea that could provide patients and doctors alike with a very precise diagnosis in a few minutes. AI and the ‘odyssey of diagnosis’ “I want to provide diagnoses for those without one. It’s achievable. Microsoft has the technology to make it happen. (…)” Isla believed that technology, particularly AI, could help make a difference in diagnosing rare diseases. Photo by Borja Merino for Microsoft. After the diagnosis, Isla quickly became one of Spain’s main advocates for rare diseases, championing better understanding and fighting for improved treatments for these little-known illnesses. As the years passed, he realized that computing could be a perfect ally, given that diagnosing rare diseases requires gathering and analyzing vast amounts of data and symptom information.   “AI is a facilitator,” Isla says, reflecting on what he calls “the odyssey of diagnosis.”   In 2017, when Sergio was 9 years old, Isla co-founded Foundation 29, a nonprofit organization dedicated to leveraging AI for healthcare innovation. That same year, Isla forged a momentous, if improbable, connection with Satya Nadella, Microsoft Chairman and CEO.  At a Microsoft event, Nadella shared the story of his son, who was born with cerebral palsy, and how technology could assist those with special needs. Isla, watching online, was deeply moved.  Isla immediately wrote to Nadella, explaining how his son’s disease had also profoundly changed his life.  “I want to provide diagnoses for those without one. It’s achievable. Microsoft has the technology to make it happen,” Isla wrote in his email. Nadella responded within five minutes, connecting Isla with Microsoft teams focused on AI-driven healthcare solutions.  Creating a tool for rapid diagnosis The team at Foundation 29 first developed a clinical-grade diagnostic device using relatively simple AI algorithms. By 2023, they had created DxGPT, a more advanced tool built on large language models and hosted on Microsoft’s Azure Cloud platform.  DxGPT runs on Azure OpenAI Service, which provides access through Azure to OpenAI language models. Isla’s tool uses GPT-4o and o1 models, which are fast but also more efficient in delivering accurate responses. They are trained with publicly available information, including medical and clinical data, and exclusive data partnerships. Clinical tests of the tool have passed through the evaluation of the ethical committees of the hospitals and the application has had a GDPR compliance evaluation.  The tool is available for free on the internet and people can input prompts about their symptoms to get a summary of potential diagnoses. It does not store any information or request personal data such as names, surnames or addresses. The initial list is a starting point that physicians can then use to refine the diagnosis through clinical data, lab tests and other additional information.   Rapid diagnosis helps provide peace of mind, as patients understand what they are dealing with and can quickly connect with others in similar situations.  A tool to help patients globally Over 300 million people — or 3.5% of the world’s population — live with rare diseases, according to global advocacy group Rare Diseases International. There are more than 10,000 rare diseases identified, including conditions like hemophilia and cystic fibrosis, for example. More than 70% of rare diseases are genetic and start in childhood, often from healthy parents. Most of these conditions are severe and have a significant impact on affected children’s quality of life.   To date, DxGPT has been used by over 500,000 people globally — from the U.S. to Europe, India and China. Since late 2023, Madrid’s public healthcare system has used an adapted version of the tool in its clinics to help doctors diagnose rare symptoms in adults and children.  So far, over 6,000 doctors in Madrid have access to the tool, according to the regional government. The tool integrates into the healthcare process and directs patients to the next step post-diagnosis. It will be introduced in two major hospitals in Madrid later in 2025.  The transformative power of technology Microsoft has been assisting Isla by providing regulatory advice and technological guidance to the foundation’s team of software developers. Additionally, the foundation receives an annual grant to utilize Microsoft Azure services, Isla said.  Isla looks forward to continually improving and expanding DxGPT’s capabilities, aiming to introduce it into other European healthcare systems soon. Another goal is to make the tool available in Azure Marketplace, empowering physicians worldwide.  Sergio, Isla’s son, is now 16 years old. He cannot speak and requires 24/7 care. He may not be aware of the advocacy work his father has done for others like him and their families. But without knowing it, he has already left a legacy through his father’s efforts.  “We have transformed a personal problem into something that can help others,” Isla says. “It fills you with satisfaction. Being able to do something for others is rewarding.”  Microsoft Blog. J. M.

Leer más »

una búsqueda del padre  para  diagnóstico  inspirado a disruptivo AI solución

AI y la ‘Odisea de diagnóstico’ Tres meses después de que naciera el hijo de Julián Isla, Sergio, los brazos y las piernas del bebé comenzaron a temblar repentinamente y su cuerpo se puso rígido durante un baño de rutina.  Angustiados, los padres llevaron a su bebé al hospital, en un viaje interminable de médico en médico en busca de respuestas. Les tomó más de 10 meses de ansiedad, incertidumbre y falta de tratamiento para obtener un diagnóstico definitivo: síndrome de Dravet , una enfermedad neurológica grave que afecta principalmente a niños pequeños.   Fue una odisea de dolor que ningún otro padre o paciente debería tener que soportar, se dijo Isla.  “La experiencia de mi hijo me tenía clavada y no entendía por qué no se usaba la tecnología”, dice Isla, al recordar aquellos días estresantes. “Sentíamos miedo e incertidumbre. Gastamos tiempo y dinero en visitar a muchos especialistas, intentando encontrar una solución”.   Sergio recibió inicialmente un diagnóstico erróneo y un tratamiento inadecuado, lo que le provocó 20 convulsiones en un solo día. Isla reconoce los desafíos que el sistema le planteó al médico. «Hizo lo que pudo con las herramientas que tenía», reflexiona.  Como ingeniero de software que trabajaba para Microsoft en Madrid, Isla creía que la tecnología, en particular la IA, podía marcar la diferencia en el diagnóstico de enfermedades raras como el síndrome de Dravet , ahorrando un tiempo valioso y aliviando las dificultades de los pacientes. Tuvo una idea que podría proporcionar a pacientes y médicos un diagnóstico muy preciso en cuestión de minutos. AI y el ‘Odisea de diagnóstico’ «Deseo proporcionar diagnósticos para aquellos sin uno. Es realizable. Microsoft tiene el tecnología a hacer él suceder. (…)” Isla creído eso tecnología, particularmente AI, podría ayuda hacer a diferencia en diagnóstico extraño enfermedades. Foto por Borja Merino para Microsoft. Tras el diagnóstico, Isla se convirtió rápidamente en uno de los principales defensores de las enfermedades raras en España, abogando por una mejor comprensión y luchando por mejores tratamientos para estas enfermedades poco conocidas. Con el paso de los años, se dio cuenta de que la informática podía ser un aliado perfecto, dado que el diagnóstico de enfermedades raras requiere la recopilación y el análisis de grandes cantidades de datos e información sobre síntomas.   “La IA es un facilitador”, dice Isla, reflexionando sobre lo que él llama “la odisea del diagnóstico”.   En 2017, cuando Sergio tenía 9 años, Isla cofundó Foundation 29 , una organización sin fines de lucro dedicada a impulsar la IA para la innovación en el sector salud. Ese mismo año, Isla forjó una conexión trascendental, aunque improbable, con Satya Nadella, presidente y director ejecutivo de Microsoft.  En un evento de Microsoft, Nadella compartió la historia de su hijo, quien nació con parálisis cerebral, y cómo la tecnología podría ayudar a las personas con necesidades especiales. Isla, que lo veía en línea, se sintió profundamente conmovida.  Isla escribió inmediatamente a Nadella explicándole cómo la enfermedad de su hijo también había cambiado profundamente su vida.  “Quiero proporcionar diagnósticos a quienes no los tienen. Es posible. Microsoft tiene la tecnología para hacerlo realidad”, escribió Isla en su correo electrónico. Nadella respondió en cinco minutos, conectando a Isla con los equipos de Microsoft especializados en soluciones de salud basadas en IA.  Creando a herramienta para rápido diagnóstico El equipo de Foundation 29 desarrolló inicialmente un dispositivo de diagnóstico de grado clínico utilizando algoritmos de IA relativamente simples. Para 2023, crearon DxGPT , una herramienta más avanzada basada en grandes modelos de lenguaje y alojada en la plataforma Azure Cloud de Microsoft.  DxGPT se ejecuta en Azure OpenAI Service, que proporciona acceso a través de Azure a los modelos de lenguaje de OpenAI. La herramienta de Isla utiliza los modelos GPT-4o y o1, que son rápidos y también más eficientes para proporcionar respuestas precisas. Se entrenan con información pública, incluyendo datos médicos y clínicos, y con asociaciones de datos exclusivas. Las pruebas clínicas de la herramienta han sido evaluadas por los comités de ética de los hospitales y la aplicación ha sido evaluada para cumplir con el RGPD.  La herramienta está disponible gratuitamente en internet y permite introducir indicaciones sobre los síntomas para obtener un resumen de posibles diagnósticos. No almacena información ni solicita datos personales como nombres, apellidos o direcciones. La lista inicial sirve de punto de partida para que los médicos refinen el diagnóstico mediante datos clínicos, análisis de laboratorio y otra información adicional.   El diagnóstico rápido ayuda a proporcionar tranquilidad, ya que los pacientes entienden a qué se enfrentan y pueden conectarse rápidamente con otras personas en situaciones similares.  A herramienta a ayuda pacientes globalmente Más de 300 millones de personas , o el 3,5 % de la población mundial, viven con enfermedades raras, según la organización internacional de defensa de las enfermedades raras (Rare Diseases International) . Se han identificado más de 10 000 enfermedades raras, incluyendo afecciones como la hemofilia y la fibrosis quística, por ejemplo. Más del 70 % de las enfermedades raras son genéticas y se originan en la infancia, a menudo de padres sanos. La mayoría de estas afecciones son graves y tienen un impacto significativo en la calidad de vida de los niños afectados.   Hasta la fecha, más de 500.000 personas en todo el mundo han utilizado DxGPT, desde Estados Unidos hasta Europa, India y China. Desde finales de 2023, el sistema sanitario público madrileño utiliza una versión adaptada de la herramienta en sus clínicas para ayudar a los médicos a diagnosticar síntomas poco frecuentes en adultos y niños.  Hasta la fecha, más de 6.000 médicos madrileños tienen acceso a la herramienta, según el gobierno regional. Esta herramienta se integra en el proceso de atención médica y dirige a los pacientes al siguiente paso tras el diagnóstico. Se implementará en dos importantes hospitales madrileños a finales de 2025.  El transformador fuerza de tecnología Microsoft ha estado apoyando a Isla brindándole asesoramiento regulatorio y orientación tecnológica al equipo de desarrolladores de software de la fundación. Además, la fundación recibe una subvención anual para utilizar los servicios de Microsoft Azure, afirmó Isla.  Isla espera seguir mejorando y ampliando las capacidades de DxGPT, con el objetivo de introducirlo próximamente en otros sistemas sanitarios europeos. Otro objetivo es que la herramienta esté disponible en Azure Marketplace, lo que permitirá a los médicos de todo el mundo acceder a ella.  Sergio, el hijo de Isla, ya tiene 16 años. No puede hablar y requiere atención las

Leer más »

Berkeley Voices: Un derrame cerebral la dejó ‘encerrada.’ Con la ayuda de la IA, escuchó su voz de nuevo.

Investigadores de UC Berkeley explican cómo una interfaz cerebro-computadora restauró la capacidad de hablar de Ann Johnson después de 18 años. Llaves para llevar Cuando Ann Johnson tuvo un raro accidente cerebrovascular en el tronco cerebral a los 30 años, perdió el control de todos sus músculos. Un minuto, ella estaba jugando voleibol con sus amigos. A continuación, no podía moverse ni hablar.  Hasta ese momento, Sheased era una persona habladora y extrovertida. Enseñó matemáticas y educación física, y entrenó voleibol y baloncesto en una escuela secundaria en Saskatchewan, Canadá. Sheios acaba de tener un bebé un año antes con su nuevo esposo.  Y la cosa es que ella todavía era esa persona. Es sólo que nadie podía decirlo. Porque la conexión entre su cerebro y su cuerpo ya no funcionaba. Intentaría hablar, pero su boca no se movería.  Dieciocho años después, finalmente escuchó su voz de nuevo. Esto es gracias a los investigadores de UC Berkeley y UC San Francisco que están trabajando para restaurar la capacidad de comunicación de las personas utilizando una interfaz cerebro-computadora. La tecnología, dicen los investigadores, tiene un enorme potencial para hacer que la fuerza laboral y el mundo sean más accesibles para personas como Ann.  Este año en Voces Berkeley, estamos explorando el tema de la transformación. En ocho episodios, exploramos cómo la transformación — de ideas, de investigación, de perspectiva — aparece en el trabajo que ocurre todos los días en UC Berkeley. Nuevos episodios salen el último lunes de cada mes, de Octubre a Mayo. Vea un video sobre Ann Johnson y el ensayo clínico que altera la vida en el que participó, dirigido por investigadores de UC Berkeley y UC San Francisco. UC Berkeley News. Traducido al español

Leer más »

El Vendaje Inteligente Limpia Nuevo Obstáculo: Monitorea las Heridas Crónicas en Pacientes Humanos

Caltech profesor de ingeniería médica Gao Wei y sus colegas están imaginando un vendaje inteligente de la futura—, un «laboratorio en la piel» que no solo podría ayudar a los pacientes y cuidadores a controlar el estado de las heridas crónicas, sino también a administrar el tratamiento y acelerar el proceso de curación de esos cortes, incisiones, rasguños y quemaduras que tardan en sanar por sí solos. En 2023, el equipo de Gao despejó el primer obstáculo para lograr ese objetivo al mostrando que un vendaje inteligente que desarrollaron podría proporcionar datos en tiempo real sobre heridas crónicas en modelos animales, al tiempo que acelera el proceso de curación a través de la aplicación oportuna de medicamentos o campos eléctricos para estimular el crecimiento de tejidos. Ahora Gao y sus colegas de Caltech y la Escuela de Medicina Keck de la USC han despejado otro obstáculo al demostrar que una versión mejorada de su vendaje, que llaman iCares, fue capaz de muestrear continuamente líquido, que el cuerpo envía a los sitios de heridas como parte de la respuesta inflamatoria, en 20 pacientes humanos con heridas crónicas. Estas heridas no pudieron sanar debido a la diabetes o la mala circulación sanguínea; los investigadores también estudiaron pacientes adicionales antes y después de la cirugía. El vendaje inteligente, equipado con tres componentes microfluídicos diferentes, módulos en miniatura que canalizan y controlan el flujo de líquidos, elimina el exceso de humedad de las heridas al tiempo que proporciona datos en tiempo real sobre los biomarcadores presentes. «Nuestros innovadores microfluídicos eliminan la humedad de la herida, lo que ayuda a la curación. También se aseguran de que las muestras analizadas por el vendaje sean frescas, no una mezcla de líquido viejo y nuevo. Para obtener mediciones precisas, necesitamos muestrear solo el líquido más nuevo en el sitio de una herida», dice Gao, quien también es Investigador del Instituto de Investigación Médica Heritage. «De esta manera, iCares puede observar en tiempo real biomarcadores importantes de inflamación e infección.» De hecho, en un nuevo artículo en la revista Ciencia Medicina TraslacionalGao y sus colegas muestran que el vendaje inteligente puede detectar moléculas como el óxido nítrico, un indicador de inflamación; y el peróxido de hidrógeno, un biomarcador de infección; potencialmente uno o tres días antes de que los pacientes experimenten síntomas. En un avance adicional, el equipo ha desarrollado un algoritmo de aprendizaje automático que puede clasificar con éxito las heridas de los pacientes y predecir el tiempo de curación con un nivel de precisión comparable al de un médico experto. El vendaje está compuesto por una tira de polímero flexible y biocompatible que se puede imprimir en 3D a bajo costo. Integra una matriz de sensores de biomarcadores de nanoingeniería, que es desechable para aplicaciones de higiene y de un solo uso. El sistema también incluye una placa de circuito impreso reutilizable que maneja el procesamiento de señales y la transmisión inalámbrica de datos a una interfaz de usuario, como un teléfono inteligente. La tríada de módulos microfluídicos dentro de iCares incluye una membrana que succiona el fluido de la herida de la superficie de la herida, un componente bioinspirado que transporta el fluido a través del dispositivo a una matriz de sensores donde se analiza, y un módulo micropilar que transporta el fluido muestreado hacia el exterior del vendaje. Los autores co-líderes del artículo, «Un dispositivo portátil microfluídico para el manejo y análisis de exudados de heridas en heridas crónicas humanas», son los estudiantes graduados de Caltech Canran Wang y Kexin Fan. David G. Armstrong, Profesor Distinguido de Cirugía y Cirugía Neurológica en la Escuela de Medicina Keck de la USC, es coautor del estudio. Autores adicionales de Caltech incluyen a José A. Lasalde-Ramirez, Wenzheng Heng, Jihong Min (PhD ’24), Samuel A. Solomon, Jiahong Li, Hong Han, Gwangmook Kim, Soyoung Shin y Alex Seder; los ex estudiantes graduados Minqiang Wang y Ehsan Shirzaei Sani, que ahora se encuentra en la Universidad de Florida Central, son autores que contribuyeron mientras estaban en Caltech. Los autores de la Escuela de Medicina Keck de la USC son Chia-Ding Shih (también del Hospital Casa Colina y Centros de Salud en PomonaCalifornia) y David Armstrong. El trabajo fue apoyado por subvenciones de los Institutos Nacionales de Salud, la Fundación Nacional de Ciencias, la Sociedad Americana del Cáncer, la Oficina de Investigación del Ejército, la Actividad de Adquisición de Investigación Médica del Ejército de los Estados Unidos y el Instituto de Investigación Médica Heritage. Caltech’s Instituto de Nanociencia Kavli proporcionó apoyo crítico e infraestructura para este trabajo. Caltech News. Traducido al español

Leer más »
Scroll al inicio