Restaurar el poder del habla a quienes lo han perdido por enfermedad o accidente se está convirtiendo en un concepto cada vez más plausible, a tenor de los resultados de dos implantes cerebrales que muestran resultados alentadores, afirman los investigadores.
Pat Bennett, de 68 años, era una alta ejecutiva de recursos humanos dinámica y deportista antes de que hace más de una década le diagnosticaran esclerosis lateral amiotrófica, también conocida como enfermedad de Lou Gehrig, un trastorno neuronal que se produce como consecuencia de daños en los nervios que transmiten datos desde el cerebro y la médula espinal hacia y desde el resto del cuerpo.
Esta dolencia, que ataca los neutrones que controlan el movimiento, es neurodegenerativa y apaga progresivamente el movimiento del paciente hasta llegar a la parálisis.
Pat empezó experimentando dificultades para enunciar palabras y acabó perdiendo por completo la capacidad de hablar.
Pero se están logrando importantes avances en el tratamiento de este tipo de trastornos mediante implantes.
La revista Nature informaba el miércoles de que, en marzo del año pasado, investigadores del departamento de neurociencia de la Universidad de Stanford implantaron en el cerebro de Pat cuatro pequeños cuadrados de 64 microelectrodos de silicona.
Penetrando apenas 1,5 milímetros en la corteza cerebral, registran las señales eléctricas producidas por las áreas del cerebro vinculadas a la producción del lenguaje.
Las señales producidas se transportan al exterior del cráneo a través de un haz de cables y se procesan mediante un algoritmo.
Conversación fluida
A lo largo de cuatro meses, el sistema “aprendió” a interpretar el significado de las señales asociándolas a fonemas -unidades de sonido que distinguen una palabra de otra- y procesándolas con ayuda de un modelo lingüístico.
“Con estos nuevos estudios ya es posible imaginar un futuro en el que podamos restablecer una conversación fluida con alguien con parálisis”, declaró a la prensa Frank Willett, profesor de Stanford y coautor del estudio.
Con su máquina de interfaz cerebro-ordenador (BCI), Pat Bennett puede hablar a través de una pantalla a más de 60 palabras por minuto.
No llega a las 150 o 200 palabras por minuto de una conversación normal, pero es tres veces más rápida que la marca anterior de 2021, cuando el equipo de Stanford se hizo cargo de su caso.
Además, la tasa de error para un vocabulario de 50 palabras ha caído por debajo del 10 por ciento desde el 20 por ciento anterior.
Avatar
En una segunda prueba, Edward Chang, catedrático de cirugía neurológica de la Universidad de California en San Francisco, y su equipo utilizaron un dispositivo que descansaba sobre una fina tira de 253 electrodos colocada sobre material cortical.
Su rendimiento resultó comparable al del sistema del equipo de Stanford al obtener una mediana de 78 palabras por minuto, es decir, cinco veces más rápido que antes.
Fue un gran avance para el paciente, parapléjico desde que sufrió una hemorragia cerebral y que hasta entonces sólo había podido comunicarse a un máximo de 14 palabras por minuto, mediante una técnica basada en la interpretación de los movimientos de la cabeza.
En estas dos pruebas, el porcentaje de error se eleva a alrededor del 25 por ciento cuando los pacientes utilizan un vocabulario que se extiende a miles de palabras.
La particularidad del sistema de Chang es que se basa en el análisis de las señales emitidas no sólo en las áreas cerebrales directamente relacionadas con el lenguaje, sino también, de forma más amplia, en la corteza sensoriomotora.
Ésta abarca las principales áreas sensoriales y motoras del cerebro y activa los músculos faciales y bucales para producir sonidos.
“Hace unos cinco o seis años empezamos a comprender los patrones eléctricos que dan lugar a los movimientos de los labios, la mandíbula y la lengua que nos permiten producir los sonidos específicos de cada consonante, vocal y palabra”, explica Chang.
La interfaz cerebro-máquina de su equipo produce lenguaje en forma de texto, pero también mediante una voz sintética y un avatar que reproduce las expresiones faciales del paciente cuando habla.
“El habla no consiste sólo en comunicar palabras, sino también quiénes somos: nuestra voz y nuestra expresión son también parte de nuestra identidad”, explica Chang.
Según David Moses, coautor del estudio y profesor adjunto de cirugía neurológica en la Universidad de San Francisco, el equipo intenta ahora crear una versión inalámbrica del dispositivo, que tendría “profundas implicaciones” para la independencia y las interacciones sociales del paciente.