Por primera vez en la historia, un grupo de científicos ha logrado traducir en texto la actividad cerebral de una persona con parálisis que no puede hablar. Para ello, implantaron una matriz de electrodos, del tamaño de una tarjeta de crédito, en la corteza sensorio-motora de un hombre de 36 años, que es la parte del cerebro que controla la articulación del habla.
Posteriormente, los científicos, de la Universidad de California en San Diego, utilizaron “algoritmos de aprendizaje profundo” para entrenar modelos informáticos para reconocer y clasificar palabras a partir de patrones en la actividad cerebral del paciente. De esta forma, le pidieron al hombre que pensara en decir las palabras que le presentaron en una pantalla.
Además de los modelos de aprendizaje profundo, utilizaron un “modelo de lenguaje natural”, que es un programa que predice la siguiente palabra en una oración basándose en las palabras anteriores.
“Este resultado realmente es un hito hacia la restauración del habla para las personas que no pueden comunicarse debido a la parálisis”, indica David Moses, ingeniero postdoctoral en UCSF y autor principal del estudio, quien continuó: “Ha habido otros enfoques existentes, pero esta es la primera prueba de que alguien puede intentar hablar y que podemos traducir lo que estaba tratando de decir a partir de esa actividad cerebro”.
PÉRDIDA DEL HABLA INTELIGIBLE
El participante, que tenían 36 años al comienzo del estudio, tuvo un derrame cerebral en el tronco cerebral cuando tenía 20 años, que resultó en una parálisis severa y pérdida del habla inteligible, conocida como anartria. Otras causas de anartria incluyen la esclerosis lateral amiotrófica, una rara condición neurológica que afecta principalmente a los nervios responsables del movimiento voluntario.
Así, el hombre del estudio podía vocalizar gruñidos y gemidos, pero no podía articular palabras, a pesar de tener funciones cognitivas saludables. De esta forma, usando leves movimientos de su cabeza, pudo controlar un dispositivo de mecanografía basado en ordenador para comunicarse. Sin embargo, su velocidad de escritura con este dispositivo es de solo cinco palabras correctas por minuto.
Después de 48 sesiones de capacitación con la nueva tecnología de “lectura de mentes” durante 81 semanas, pudo generar alrededor de 15 palabras por minuto, con una tasa de error del 26 %.
Los científicos, que informan de sus hallazgos en The New England Journal of Medicine, dicen que las tecnologías de decodificación del habla, generalmente, se consideran utilizables si tienen una tasa de error de palabras por debajo del 30 %.
DATOS DE ACTIVIDAD CEREBRAL
En 48 semanas de capacitación, el participante intentó producir palabras particulares a partir de un conjunto de 50 palabras. En cada ensayo, se le presentó una de estas palabras en una pantalla y, cuando la palabra se ponía verde, después de 2 segundos, intentaba decir la palabra.
En el transcurso de estas sesiones, los investigadores recopilaron 22 horas de datos de actividad cerebral, que alimentaron al algoritmo de aprendizaje profundo. En esas dos sesiones finales adicionales, el hombre intentó usar las palabras previamente entrenadas para generar oraciones como “tengo sed” o “necesito mis gafas”.
Además, en cada ensayo, al participante se le presentó la oración e intentó generar las palabras lo más rápido posible, pensando en decirlas. El algoritmo de aprendizaje profundo y el modelo de lenguaje permitieron que sus pensamientos se decodificaran sin errores en más de la mitad de los ensayos de oraciones.
TIEMPO PRECISO DE LAS PALABRAS
Un estudio previo, realizado por el mismo grupo de investigadores, involucró a voluntarios sanos. En este sentido, uno de los mayores desafíos para los investigadores que intentan crear un programa de aprendizaje profundo que pueda traducir la actividad cerebral de una persona con parálisis es la sincronización precisa de sus palabras.
Esto se debe a que el algoritmo no tiene una forma obvia de distinguir la actividad eléctrica que surge al intentar articular palabras, de la actividad cerebral de fondo. Sin embargo, después del entrenamiento, el nuevo algoritmo logró identificar correctamente el 98 % de los intentos del participante para producir palabras individuales.
Otro desafío es procesar los patrones de actividad cerebral lo suficientemente rápido como para traducirlos en tiempo real. El gran paso de este estudio es que presenta sus resultados en un paciente que ya no puede hablar, puesto que, antes, todos los estudios se realizaban con voluntarios que todavía podían hablar