El Portal de las Tecnologías para la Innovación

Apasionantes avances en interfaces cerebro-computadora desde los laboratorios de la UC

Un hombre que lleva años sin poder moverse ni hablar imagina tomar una taza y llenarla de agua. En respuesta a sus pensamientos, un brazo robótico montado en su silla de ruedas se desliza hacia adelante, toma la taza de un armario y la acerca a una fuente de agua.

Parece sacado de ciencia ficción. Pero es solo un día más en el laboratorio para el neurólogo de la UC San Francisco, Karunesh Ganguly, uno de los muchos investigadores de la Universidad de California que avanzan en las interfaces cerebro-computadora, con la ayuda de la inteligencia artificial.

Un participante en un estudio de la UC San Francisco sobre interfaces cerebro-computadora, que perdió la capacidad de moverse y hablar hace muchos años a causa de un derrame cerebral, mueve el brazo robótico simplemente imaginando los movimientos en su cabeza. Crédito: UC San Francisco

En la Universidad de California en Davis, científicos le han devuelto la voz a un hombre silenciado por ELA al traducir su actividad cerebral en habla expresiva a través de un altavoz de computadora. En la Universidad de California en Santa Bárbara, neurólogos están logrando que la visión biónica sea más nítida y útil. Además, la FDA aprobó recientemente un nuevo tratamiento que utiliza estimulación cerebral profunda personalizada y adaptativa para aliviar los síntomas de la enfermedad de Parkinson, desarrollado por Simon Little, neurólogo de la Universidad de California en San Francisco.

“Esta combinación de aprendizaje entre humanos e IA es la siguiente fase de estas interfaces cerebro-computadora”, declaró Ganguly el año pasado tras la publicación del estudio. “Es lo que necesitamos para lograr una función sofisticada y realista”.

Paralizado por un derrame cerebral, un hombre aprende a controlar un brazo robótico con sus pensamientos.

Hasta la fecha, gran parte de la investigación en interfaces cerebro-computadora se ha centrado en decodificar las ondas cerebrales en la corteza motora, la franja de neuronas que recorre la parte superior del cerebro como una diadema y es la región más asociada con la coordinación del movimiento corporal. Sensores adheridos al cuero cabelludo o implantados quirúrgicamente en la corteza motora detectan las ondas cerebrales cuando pacientes paralizados intentan conscientemente realizar un movimiento específico. Aunque sus cuerpos no se mueven, una computadora conectada traduce esas señales en instrucciones para mover un cursor o, más recientemente, una extremidad robótica. 

“El próximo gran desafío es cómo hacer que esto sea útil para la gente día a día”, dice Ganguly de la UC San Francisco.

Tres investigadores practican el uso de un brazo robótico en un laboratorio.
El neurólogo Karunesh Ganguly, de la Universidad de California en San Francisco (izquierda), con dos miembros de su laboratorio, estudia maneras de mejorar la precisión a largo plazo de un brazo robótico guiado por los pensamientos de una persona paralizada. Crédito: Noah Berger/UC San Francisco

Un problema que Ganguly intenta resolver: la interpretación que hace la computadora de las ondas cerebrales de una persona se vuelve menos precisa con el tiempo. Nadie sabía realmente por qué hasta que Ganguly descubrió la causa de esta desviación. Los patrones eléctricos que genera nuestro cerebro al realizar una tarea hoy no son los mismos que generará al realizar la misma tarea mañana.

También descubrió que estas variaciones diarias son especialmente pronunciadas mientras las personas aprenden a controlar un nuevo dispositivo, y que los cambios parecen ocurrir de la noche a la mañana. Esto tiene sentido, considerando lo que sabemos sobre el papel crucial del sueño para ayudar a nuestro cerebro a organizar e integrar nueva información.

Así, Ganguly programó una inteligencia artificial para que reflejara los cambios en las ondas cerebrales de los participantes a lo largo del tiempo. Ahora, el sistema puede decodificar con precisión los movimientos previstos de las personas, día tras día, semana tras semana, sin necesidad de recalibración. Ganguly está perfeccionando los modelos de IA para que el brazo robótico se mueva con mayor rapidez y fluidez, y planea probar el sistema en un entorno doméstico.

Restablecer la comunicación en tiempo real a personas con parálisis

Gracias a veinte años de investigación en interfaces cerebro-computadora, las personas que han perdido la capacidad de hablar ahora pueden controlar los cursores de la computadora mediante sensores implantados en la parte del cerebro que controla el movimiento de las manos. Esto ha hecho posible escribir mensajes que aparecen en una pantalla, una victoria enorme y difícil de conseguir para quienes previamente habían perdido la capacidad de comunicarse, afirma Tyler Singer-Clark, estudiante de doctorado en ingeniería biomédica en la UC Davis.

Y, sin embargo, en comparación con el habla conversacional, escribir las palabras letra por letra es una forma relativamente engorrosa de comunicarse, afirma Singer-Clark. «Imagínense cuánto más eficiente e intuitiva sería una interfaz cerebro-computadora diseñada para traducir el habla. En lugar de tener que escribir las letras una por una en un teclado, uno podría decir simplemente lo que quiere decir».Podemos imaginar cuánto más eficiente e intuitiva sería una interfaz cerebro-computadora diseñada específicamente para traducir el habla.Tyler Singer-Clark, estudiante de doctorado de UC Davis

Ese es el objetivo del Laboratorio de Neuroprótesis de UC Davis , dirigido por Sergey Stavisky y David Brandman, donde Singer-Clark es investigadora. En lugar de pedir a los participantes que imaginen mover la mano en una dirección específica y luego decodifiquen su actividad cerebral para obtener instrucciones para mover un cursor, los investigadores les piden que intenten pronunciar palabras en una pantalla.

En 2024, los investigadores del Laboratorio de Neuroprótesis de UC Davis informaron que una interfaz desarrollada en el laboratorio traduce las señales cerebrales en habla con una precisión de hasta el 97 %, el sistema más preciso de su tipo. 

“Si tenemos actividad neuronal mientras los participantes intentan mover la boca y decir las palabras que les pedimos, podemos entrenar a una computadora para que decodifique esos movimientos y palabras”, dice Singer-Clark. “A partir de entonces, la computadora puede realizar tareas o decir palabras en nombre de la persona”.

Trabajando con científicos de laboratorio, un hombre paralizado por una enfermedad neurológica progresiva tiene sensores implantados en la parte del cerebro responsable del habla, en lugar del área responsable del movimiento de la mano. En junio, Maitreyee Wairagkar, científica del proyecto del Laboratorio de Neuroprótesis, publicó un estudio como parte del ensayo clínico BrainGate2 que demuestra que su tecnología puede traducir instantáneamente la actividad cerebral a «habla» desde el altavoz de una computadora.

Maitreyee Wairagkar usa una computadora con dos monitores en un escritorio de pie en una sala de estar.
Maitreyee Wairagkar, científica del proyecto del Laboratorio de Neuroprótesis de UC Davis, ha contribuido al desarrollo de la interfaz cerebro-habla más precisa e instantánea jamás creada. Crédito: UC Davis

“La interfaz cerebro-computadora también emuló la cadencia del discurso previsto por el participante, creando efectivamente una pista vocal digital”, afirma Wairagkar. “Este avance le ha devuelto la capacidad de conversar con su familia, cambiar su entonación e incluso cantar melodías”.

En un estudio relacionado publicado este verano , Singer-Clark descubrió que el participante en el estudio del habla podía usar este mismo sistema para mover el cursor de una computadora además de generar habla, aunque los sensores no estuvieran colocados en la corteza motora de su mano.

Grabaciones de ondas cerebrales en la pantalla de una computadora, junto a una fotografía que muestra el punto en la cabeza de un participante donde sale la interfaz de la computadora.
Izquierda: Grabaciones de las ondas cerebrales de un participante del estudio mientras intenta hablar. Derecha: Interacción entre el cerebro y la computadora. Crédito: UC Davis.

“Se ofrecen múltiples funciones para que una persona con parálisis gane más independencia en la vida. Ahora pueden enviar correos electrónicos, enviar mensajes de texto, ver la televisión, hacer una presentación de PowerPoint y mantener una conversación en tiempo real”, afirma Singer-Clark. “Los usuarios ya no tienen que elegir entre el control por voz o por computadora”.

Simon Little posa para un retrato en un escritorio. La obra de arte en la pared detrás de él es una gran figura cerebral representada con luces de neón.

El neurólogo Simon Little de la Universidad de California en San Francisco desarrolló un enfoque nuevo y más efectivo para tratar los síntomas del Parkinson.Universidad de California en San Francisco

El tratamiento adaptativo mantiene a raya los síntomas del Parkinson

En la Universidad de California en San Francisco, el neurólogo Simon Little utiliza interfaces cerebro-computadora e inteligencia artificial para mejorar un tratamiento de larga data para la enfermedad de Parkinson. Conocido como estimulación cerebral profunda, este tratamiento consiste en implantar un dispositivo en el cerebro del paciente que puede administrar pulsos eléctricos precisos. Estos pulsos anulan las ondas cerebrales disfuncionales que causan síntomas de Parkinson, como debilidad o temblores.

Hasta hace poco, la estimulación que recibían los pacientes era constante, incluso cuando su actividad cerebral y los síntomas resultantes cambiaban constantemente. «Te reunías con tu neurólogo en una clínica, programábamos el estimulador y luego recibías esa estimulación durante los siguientes meses», dice Little. «Así que a veces tus síntomas no recibían el tratamiento adecuado y a veces recibías demasiada estimulación».

Shawn Connolly trabaja con el Dr. Nicholas B. Galifianakis mientras prueba un tratamiento de estimulación cerebral profunda para la enfermedad de Parkinson.
Shawn Connolly, exprofesional del skateboarding, trabaja con el Dr. Nicholas B. Galifianakis mientras prueba un tratamiento de estimulación cerebral profunda para la enfermedad de Parkinson. Connolly fue uno de los primeros en probar un enfoque adaptativo de estimulación cerebral profunda, cuyo uso clínico generalizado fue aprobado por la FDA a principios de este año. Crédito: UC San Francisco / Maurice Ramirez

El enfoque ideado por Little y sus colegas utiliza implantes que administran estimulación eléctrica para registrar también los patrones de ondas cerebrales asociados a los síntomas y así personalizar la terapia. Este enfoque personalizado fue aprobado por la FDA a principios de este año.

Ahora, Little colabora con el neurocirujano Philip Starr de la Universidad de California en San Francisco para usar inteligencia artificial para reconocer y tratar patrones de ondas cerebrales asociados con el exceso de medicación. Este enfoque redujo los síntomas motores más molestos de los pacientes en un 50 %. Ahora, el equipo aplica un método similar para tratar el sueño, la depresión y la ansiedad en personas con trastornos neurológicos.

Michael Beyeler sonríe para un retrato

Michael Beyeler dirige el Laboratorio de Visión Biónica de UC Santa Bárbara. Laboratorio de Visión Biónica

Visión biónica, asistida por IA

“Más de 40 millones de personas en todo el mundo viven con ceguera incurable”, afirma Michael Beyeler, profesor de la UC Santa Bárbara. La mayoría de estos casos se deben a enfermedades hereditarias que dañan los fotorreceptores, las células oculares que perciben la luz y la traducen en ondas cerebrales. Beyeler, quien dirige el Laboratorio de Visión Biónica de la UC Santa Bárbara , busca restaurar una forma rudimentaria de visión a quienes la han perdido.

La visión biónica existe desde hace algunos años. Funciona mediante un implante en la parte posterior del ojo, que utiliza electricidad para estimular las neuronas que transmiten la información entrante desde los fotorreceptores al cerebro para su procesamiento. En usuarios con pérdida de visión, esta estimulación eléctrica busca reemplazar las señales que, de otro modo, enviarían los fotorreceptores dañados.

Una mano sostiene un par de gafas con una cámara adjunta.
Un sistema de visión biónica que Beyeler ha probado en su laboratorio. Crédito: Laboratorio de Visión Biónica de la UC Santa Bárbara .

El problema es que la imagen que la mente del usuario termina «viendo» —la llamada percepción— no es lo suficientemente nítida como para ser de mucha utilidad en la vida diaria. Beyeler descubrió que parte del problema reside en que los sistemas existentes asumen que nuestros fotorreceptores funcionan como una cuadrícula de píxeles: que si se quiere que alguien perciba la letra E, por ejemplo, solo se necesita estimular un área neuronal con forma de E detrás del ojo. 

Diagrama titulado "Enfoque convencional: Cuadrícula de píxeles". Muestra tres imágenes contiguas. A la izquierda, bajo "Lo que los usuarios quieren "ver", se encuentra una letra "E" nítida en blanco y negro. En el centro, bajo "Neuronas estimuladas", se muestra una ilustración de una placa de circuito con una cuadrícula de puntos blancos que forman una "E". A la derecha, bajo "Lo que los usuarios realmente "ven", se encuentra una imagen borrosa e indistinta en escala de grises con formas difusas, lo que hace que la letra sea irreconocible.
Los estudios de Beyeler han demostrado que abordar la visión biónica como si nuestros fotorreceptores y neuronas ópticas fueran una simple cuadrícula de píxeles no funciona muy bien. Lo que el usuario realmente percibe (derecha) no se parece mucho a la letra E que el sistema intenta transmitir (izquierda) si el sistema simplemente estimula una cuadrícula de neuronas en forma de E detrás del ojo del usuario (centro). Crédito: Laboratorio de Visión Biónica de la UC Santa Bárbara .

“Estudiamos la neurobiología del ojo y descubrimos que las neuronas retinianas están conectadas de forma compleja y que el cerebro interpreta sus señales de forma no lineal”, afirma Beyeler. La simple estimulación de estas células siguiendo un patrón simple, similar al de un píxel, puede producir percepciones borrosas o distorsionadas.

Utilizando inteligencia artificial, Beyeler está mapeando qué células estimular para generar una percepción que sea reconocible como la letra E, aunque la forma de las neuronas que se estimulan en realidad puede no parecerse en nada a una E. En otras palabras, en lugar de luchar contra la fisiología del ojo, su laboratorio está descubriendo cómo trabajar con ella.

Diagrama titulado "Enfoque optimizado para IA". Muestra tres imágenes en paralelo. A la izquierda, bajo "Lo que los usuarios quieren "ver", se ve una letra "E" clara en blanco y negro. En el centro, bajo "Neuronas estimuladas", se muestra una ilustración de una placa de circuito con algunos puntos blancos dispersos fuera de la cuadrícula. A la derecha, bajo "Lo que los usuarios realmente "ven", se ve una letra "E" borrosa en escala de grises, pero reconocible, más clara que en el ejemplo del enfoque convencional.
En el enfoque optimizado de Beyeler, la IA predice la ubicación e intensidad de las neuronas a estimular (centro) para generar la percepción deseada (derecha) que se asemeja mucho más a la letra E que el sistema pretende transmitir (izquierda). Crédito: Laboratorio de Visión Biónica de la UC Santa Bárbara .

“Nuestra principal contribución ha sido comprender mejor cómo se produce esta transformación desde las señales eléctricas desarrolladas por un implante a una experiencia perceptiva de lo que las personas realmente ven”, afirma Beyeler.

Del laboratorio a la clínica, gracias a la financiación gubernamental

Un punto en común entre todos estos esfuerzos es el apoyo y la financiación de agencias federales como los Institutos Nacionales de Salud y la Fundación Nacional de Ciencias. Estas mismas agencias se enfrentan a importantes recortes de financiación en el presupuesto del Congreso del próximo año.

“Llevamos más de veinte años de progreso en interfaces cerebro-computadora, y estas tecnologías finalmente están llegando al punto en que la industria está lista para adoptarlas”, afirma Ganguly. Por ejemplo, Neuralink, una empresa cofundada hace una década por Elon Musk, ha conseguido una importante inversión del sector privado para financiar el desarrollo de un sistema de control de cursor para personas con parálisis.

“Lo que se está comercializando ahora es algo en lo que los académicos, con financiación del gobierno, han estado trabajando durante dos décadas”, afirma Ganguly. “La ciencia detrás del control del habla y el movimiento robótico, estos desafíos más sofisticados en los que trabajamos ahora en la UC, aún están en sus primeras etapas. La única manera de seguir avanzando es si el gobierno sigue invirtiendo en estos estudios experimentales”. 

Universidad de California News. Traducido al español

Artículos relacionados

Epic Games Store

Shrine’s Legacy es un título de 16 bits que retoma la clásica fórmula de los RPG de Super Nintendo

Un joven héroe valiente, un mago misterioso, gemas mágicas y un tirano con tanta armadura que parece que no pueda ni moverse. ¿Os suena de algo? Shrine’s Legacy, el título debut de Positive Concept Games, se inspira en conceptos que han definido los juegos de rol durante décadas. Su protagonista, Rio Shrine, se embarca en una aventura para reunir ocho gemas elementales y restaurar la espada de Shrine (Sword of Shrine), la clave para derrotar al malvado Aklor.

Continuar leyendo...
Scroll al inicio