Un hombre que lleva años sin poder moverse ni hablar imagina tomar una taza y llenarla de agua. En respuesta a sus pensamientos, un brazo robótico montado en su silla de ruedas se desliza hacia adelante, toma la taza de un armario y la acerca a una fuente de agua.
Parece sacado de ciencia ficción. Pero es solo un día más en el laboratorio para el neurólogo de la UC San Francisco, Karunesh Ganguly, uno de los muchos investigadores de la Universidad de California que avanzan en las interfaces cerebro-computadora, con la ayuda de la inteligencia artificial.
Un participante en un estudio de la UC San Francisco sobre interfaces cerebro-computadora, que perdió la capacidad de moverse y hablar hace muchos años a causa de un derrame cerebral, mueve el brazo robótico simplemente imaginando los movimientos en su cabeza. Crédito: UC San Francisco
En la Universidad de California en Davis, científicos le han devuelto la voz a un hombre silenciado por ELA al traducir su actividad cerebral en habla expresiva a través de un altavoz de computadora. En la Universidad de California en Santa Bárbara, neurólogos están logrando que la visión biónica sea más nítida y útil. Además, la FDA aprobó recientemente un nuevo tratamiento que utiliza estimulación cerebral profunda personalizada y adaptativa para aliviar los síntomas de la enfermedad de Parkinson, desarrollado por Simon Little, neurólogo de la Universidad de California en San Francisco.
“Esta combinación de aprendizaje entre humanos e IA es la siguiente fase de estas interfaces cerebro-computadora”, declaró Ganguly el año pasado tras la publicación del estudio. “Es lo que necesitamos para lograr una función sofisticada y realista”.
Paralizado por un derrame cerebral, un hombre aprende a controlar un brazo robótico con sus pensamientos.
Hasta la fecha, gran parte de la investigación en interfaces cerebro-computadora se ha centrado en decodificar las ondas cerebrales en la corteza motora, la franja de neuronas que recorre la parte superior del cerebro como una diadema y es la región más asociada con la coordinación del movimiento corporal. Sensores adheridos al cuero cabelludo o implantados quirúrgicamente en la corteza motora detectan las ondas cerebrales cuando pacientes paralizados intentan conscientemente realizar un movimiento específico. Aunque sus cuerpos no se mueven, una computadora conectada traduce esas señales en instrucciones para mover un cursor o, más recientemente, una extremidad robótica.
“El próximo gran desafío es cómo hacer que esto sea útil para la gente día a día”, dice Ganguly de la UC San Francisco.

Un problema que Ganguly intenta resolver: la interpretación que hace la computadora de las ondas cerebrales de una persona se vuelve menos precisa con el tiempo. Nadie sabía realmente por qué hasta que Ganguly descubrió la causa de esta desviación. Los patrones eléctricos que genera nuestro cerebro al realizar una tarea hoy no son los mismos que generará al realizar la misma tarea mañana.
También descubrió que estas variaciones diarias son especialmente pronunciadas mientras las personas aprenden a controlar un nuevo dispositivo, y que los cambios parecen ocurrir de la noche a la mañana. Esto tiene sentido, considerando lo que sabemos sobre el papel crucial del sueño para ayudar a nuestro cerebro a organizar e integrar nueva información.
Así, Ganguly programó una inteligencia artificial para que reflejara los cambios en las ondas cerebrales de los participantes a lo largo del tiempo. Ahora, el sistema puede decodificar con precisión los movimientos previstos de las personas, día tras día, semana tras semana, sin necesidad de recalibración. Ganguly está perfeccionando los modelos de IA para que el brazo robótico se mueva con mayor rapidez y fluidez, y planea probar el sistema en un entorno doméstico.
Restablecer la comunicación en tiempo real a personas con parálisis
Gracias a veinte años de investigación en interfaces cerebro-computadora, las personas que han perdido la capacidad de hablar ahora pueden controlar los cursores de la computadora mediante sensores implantados en la parte del cerebro que controla el movimiento de las manos. Esto ha hecho posible escribir mensajes que aparecen en una pantalla, una victoria enorme y difícil de conseguir para quienes previamente habían perdido la capacidad de comunicarse, afirma Tyler Singer-Clark, estudiante de doctorado en ingeniería biomédica en la UC Davis.
Y, sin embargo, en comparación con el habla conversacional, escribir las palabras letra por letra es una forma relativamente engorrosa de comunicarse, afirma Singer-Clark. «Imagínense cuánto más eficiente e intuitiva sería una interfaz cerebro-computadora diseñada para traducir el habla. En lugar de tener que escribir las letras una por una en un teclado, uno podría decir simplemente lo que quiere decir».Podemos imaginar cuánto más eficiente e intuitiva sería una interfaz cerebro-computadora diseñada específicamente para traducir el habla.Tyler Singer-Clark, estudiante de doctorado de UC Davis
Ese es el objetivo del Laboratorio de Neuroprótesis de UC Davis , dirigido por Sergey Stavisky y David Brandman, donde Singer-Clark es investigadora. En lugar de pedir a los participantes que imaginen mover la mano en una dirección específica y luego decodifiquen su actividad cerebral para obtener instrucciones para mover un cursor, los investigadores les piden que intenten pronunciar palabras en una pantalla.
En 2024, los investigadores del Laboratorio de Neuroprótesis de UC Davis informaron que una interfaz desarrollada en el laboratorio traduce las señales cerebrales en habla con una precisión de hasta el 97 %, el sistema más preciso de su tipo.
“Si tenemos actividad neuronal mientras los participantes intentan mover la boca y decir las palabras que les pedimos, podemos entrenar a una computadora para que decodifique esos movimientos y palabras”, dice Singer-Clark. “A partir de entonces, la computadora puede realizar tareas o decir palabras en nombre de la persona”.
Trabajando con científicos de laboratorio, un hombre paralizado por una enfermedad neurológica progresiva tiene sensores implantados en la parte del cerebro responsable del habla, en lugar del área responsable del movimiento de la mano. En junio, Maitreyee Wairagkar, científica del proyecto del Laboratorio de Neuroprótesis, publicó un estudio como parte del ensayo clínico BrainGate2 que demuestra que su tecnología puede traducir instantáneamente la actividad cerebral a «habla» desde el altavoz de una computadora.

“La interfaz cerebro-computadora también emuló la cadencia del discurso previsto por el participante, creando efectivamente una pista vocal digital”, afirma Wairagkar. “Este avance le ha devuelto la capacidad de conversar con su familia, cambiar su entonación e incluso cantar melodías”.
En un estudio relacionado publicado este verano , Singer-Clark descubrió que el participante en el estudio del habla podía usar este mismo sistema para mover el cursor de una computadora además de generar habla, aunque los sensores no estuvieran colocados en la corteza motora de su mano.

“Se ofrecen múltiples funciones para que una persona con parálisis gane más independencia en la vida. Ahora pueden enviar correos electrónicos, enviar mensajes de texto, ver la televisión, hacer una presentación de PowerPoint y mantener una conversación en tiempo real”, afirma Singer-Clark. “Los usuarios ya no tienen que elegir entre el control por voz o por computadora”.

El neurólogo Simon Little de la Universidad de California en San Francisco desarrolló un enfoque nuevo y más efectivo para tratar los síntomas del Parkinson.Universidad de California en San Francisco
El tratamiento adaptativo mantiene a raya los síntomas del Parkinson
En la Universidad de California en San Francisco, el neurólogo Simon Little utiliza interfaces cerebro-computadora e inteligencia artificial para mejorar un tratamiento de larga data para la enfermedad de Parkinson. Conocido como estimulación cerebral profunda, este tratamiento consiste en implantar un dispositivo en el cerebro del paciente que puede administrar pulsos eléctricos precisos. Estos pulsos anulan las ondas cerebrales disfuncionales que causan síntomas de Parkinson, como debilidad o temblores.
Hasta hace poco, la estimulación que recibían los pacientes era constante, incluso cuando su actividad cerebral y los síntomas resultantes cambiaban constantemente. «Te reunías con tu neurólogo en una clínica, programábamos el estimulador y luego recibías esa estimulación durante los siguientes meses», dice Little. «Así que a veces tus síntomas no recibían el tratamiento adecuado y a veces recibías demasiada estimulación».

El enfoque ideado por Little y sus colegas utiliza implantes que administran estimulación eléctrica para registrar también los patrones de ondas cerebrales asociados a los síntomas y así personalizar la terapia. Este enfoque personalizado fue aprobado por la FDA a principios de este año.
Ahora, Little colabora con el neurocirujano Philip Starr de la Universidad de California en San Francisco para usar inteligencia artificial para reconocer y tratar patrones de ondas cerebrales asociados con el exceso de medicación. Este enfoque redujo los síntomas motores más molestos de los pacientes en un 50 %. Ahora, el equipo aplica un método similar para tratar el sueño, la depresión y la ansiedad en personas con trastornos neurológicos.

Michael Beyeler dirige el Laboratorio de Visión Biónica de UC Santa Bárbara. Laboratorio de Visión Biónica
Visión biónica, asistida por IA
“Más de 40 millones de personas en todo el mundo viven con ceguera incurable”, afirma Michael Beyeler, profesor de la UC Santa Bárbara. La mayoría de estos casos se deben a enfermedades hereditarias que dañan los fotorreceptores, las células oculares que perciben la luz y la traducen en ondas cerebrales. Beyeler, quien dirige el Laboratorio de Visión Biónica de la UC Santa Bárbara , busca restaurar una forma rudimentaria de visión a quienes la han perdido.
La visión biónica existe desde hace algunos años. Funciona mediante un implante en la parte posterior del ojo, que utiliza electricidad para estimular las neuronas que transmiten la información entrante desde los fotorreceptores al cerebro para su procesamiento. En usuarios con pérdida de visión, esta estimulación eléctrica busca reemplazar las señales que, de otro modo, enviarían los fotorreceptores dañados.

El problema es que la imagen que la mente del usuario termina «viendo» —la llamada percepción— no es lo suficientemente nítida como para ser de mucha utilidad en la vida diaria. Beyeler descubrió que parte del problema reside en que los sistemas existentes asumen que nuestros fotorreceptores funcionan como una cuadrícula de píxeles: que si se quiere que alguien perciba la letra E, por ejemplo, solo se necesita estimular un área neuronal con forma de E detrás del ojo.

“Estudiamos la neurobiología del ojo y descubrimos que las neuronas retinianas están conectadas de forma compleja y que el cerebro interpreta sus señales de forma no lineal”, afirma Beyeler. La simple estimulación de estas células siguiendo un patrón simple, similar al de un píxel, puede producir percepciones borrosas o distorsionadas.
Utilizando inteligencia artificial, Beyeler está mapeando qué células estimular para generar una percepción que sea reconocible como la letra E, aunque la forma de las neuronas que se estimulan en realidad puede no parecerse en nada a una E. En otras palabras, en lugar de luchar contra la fisiología del ojo, su laboratorio está descubriendo cómo trabajar con ella.

“Nuestra principal contribución ha sido comprender mejor cómo se produce esta transformación desde las señales eléctricas desarrolladas por un implante a una experiencia perceptiva de lo que las personas realmente ven”, afirma Beyeler.
Del laboratorio a la clínica, gracias a la financiación gubernamental
Un punto en común entre todos estos esfuerzos es el apoyo y la financiación de agencias federales como los Institutos Nacionales de Salud y la Fundación Nacional de Ciencias. Estas mismas agencias se enfrentan a importantes recortes de financiación en el presupuesto del Congreso del próximo año.
“Llevamos más de veinte años de progreso en interfaces cerebro-computadora, y estas tecnologías finalmente están llegando al punto en que la industria está lista para adoptarlas”, afirma Ganguly. Por ejemplo, Neuralink, una empresa cofundada hace una década por Elon Musk, ha conseguido una importante inversión del sector privado para financiar el desarrollo de un sistema de control de cursor para personas con parálisis.
“Lo que se está comercializando ahora es algo en lo que los académicos, con financiación del gobierno, han estado trabajando durante dos décadas”, afirma Ganguly. “La ciencia detrás del control del habla y el movimiento robótico, estos desafíos más sofisticados en los que trabajamos ahora en la UC, aún están en sus primeras etapas. La única manera de seguir avanzando es si el gobierno sigue invirtiendo en estos estudios experimentales”.
Universidad de California News. Traducido al español