(CNN) – La Dra. Jaimie Henderson tuvo un único deseo durante toda su infancia: que su padre pudiera hablar con él. Henderson, ahora científico y neurocirujano de Stanford Medicine, y sus colegas están desarrollando implantes cerebrales que podrían hacer realidad deseos similares para otras personas con parálisis o problemas del habla.

Dos estudios publicados el miércoles en la revista Nature muestran cómo los implantes cerebrales, descritos como neuroprótesis, pueden registrar la actividad neuronal de una persona cuando intenta hablar de forma natural, y esa actividad cerebral puede luego decodificarse en palabras en una pantalla de computadora, a través de audio o discurso. Incluso se comunicó usando un avatar animado.

“Cuando tenía 5 años, mi papá estuvo involucrado en un devastador accidente automovilístico que lo dejó apenas capaz de moverse o hablar. Recuerdo reírme de los chistes que intentaba contar, pero su capacidad de hablar estaba tan afectada que no podíamos entender el remate”, dijo Henderson, autor de uno de los estudios y profesor de la Universidad de Stanford, en una rueda de prensa sobre su investigación.

“Así que crecí deseando poder conocerlo y comunicarme con él”, dijo. “Y creo que esa experiencia temprana despertó mi interés personal en comprender cómo el cerebro produce el movimiento y el habla”.

Henderson y sus colegas de Stanford y otras instituciones estadounidenses examinaron el uso de sensores cerebrales implantados en Pat Bennett, de 68 años. Le habían diagnosticado esclerosis lateral amiotrófica en 2012 y esto afectó su habla.

Los investigadores escribieron en su estudio que Bennett puede realizar algunos movimientos faciales limitados y vocalizar sonidos, pero no puede producir un habla clara debido a la ELA, una enfermedad neurológica rara que afecta las células nerviosas del cerebro y la médula espinal.

En marzo de 2022, Henderson realizó la cirugía para implantar conjuntos de electrodos en dos áreas del cerebro de Bennett. Los implantes registraron la actividad neuronal cuando Bennett intentaba realizar movimientos faciales, emitir sonidos o pronunciar palabras sueltas.

Las matrices estaban unidas a cables que salían del cráneo y estaban conectados a una computadora. El software decodificó la actividad neuronal y la convirtió en palabras que se mostraban en la pantalla de la computadora en tiempo real. Cuando Bennett terminó de hablar, presionó un botón para finalizar la decodificación.

Los investigadores evaluaron esta interfaz cerebro-computadora con Bennett intentando hablar con vocalizaciones y solo “articulando” palabras sin vocalización.

Los investigadores estudiaron sensores cerebrales implantados en Pat Bennett, de 68 años, cuyo habla se vio afectada por la ELA. Crédito: Steve Fisch/Medicina de Stanford.

Con un vocabulario de 50 palabras, la tasa de errores en la decodificación fue del 9,1% en los días en que Bennett vocalizaba y del 11,2% en los días en silencio, encontraron los investigadores. Cuando se utilizó un vocabulario de 125.000 palabras, la tasa de error de palabras fue del 23,8 % en todos los días de vocalización y del 24,7 % en los días de silencio.

“En nuestro trabajo, demostramos que podemos descifrar intentos de habla con una tasa de error de palabras del 23% cuando utilizamos un gran conjunto de 125.000 palabras posibles. Esto significa que aproximadamente tres de cada cuatro palabras se descifran correctamente”, dijo en la conferencia de prensa Frank Willett, autor del estudio y científico del Instituto Médico Howard Hughes afiliado al Neural Prosthetics Translational Lab.

“Con estos nuevos estudios, ahora es posible imaginar un futuro en el que podamos restaurar una conversación fluida con alguien con parálisis, permitiéndole decir libremente lo que quiera decir con una precisión lo suficientemente alta como para que se entienda de manera confiable“, dijo.

Los investigadores dicen que la decodificación se realizó a altas velocidades. Bennett hablaba a un ritmo promedio de 62 palabras por minuto, lo que “más que triplica” la velocidad de las interfaces cerebro-computadora anteriores que tenían alrededor de 18 palabras por minuto para los modelos de escritura a mano.

“Estos resultados iniciales han demostrado el concepto y, eventualmente, la tecnología se pondrá al día para hacerlo fácilmente accesible para las personas que no pueden hablar”, escribió Bennett en un comunicado de prensa. “Para aquellos que no son verbales, esto significa que pueden permanecer conectados con el mundo en general, tal vez continuar trabajando, mantener relaciones familiares y de amigos”.

Sin embargo, por ahora, los investigadores escribieron que sus hallazgos son una “prueba de concepto” de que es posible decodificar los movimientos del habla con un vocabulario amplio, pero es necesario probarlo en más personas antes de que pueda considerarse para uso clínico.

“Estos son estudios muy iniciales”, dijo Willett. “Y no tenemos una gran base de datos de datos de otras personas”.

“Hay esperanza”

El otro estudio publicado el miércoles involucró a Ann Johnson, quien no podía hablar con claridad debido a una parálisis después de sufrir un derrame cerebral en 2005, cuando tenía 30 años. En septiembre de 2022, le implantaron un dispositivo de electrodos en el cerebro en el Centro Médico de la UCSF en San Francisco, sin complicaciones quirúrgicas.

El implante registró la actividad neuronal, que se decodificó en texto en una pantalla. Los investigadores escribieron en el estudio que encontraron “una decodificación rápida y precisa de un vocabulario amplio” con una tasa media de 78 palabras por minuto y una tasa media de error de palabras del 25%.

Por otra parte, cuando Johnson intentó hablar en silencio, su actividad neuronal se sintetizó en sonidos del habla. Los investigadores también desarrollaron una animación de un avatar facial para acompañar el habla sintetizada, basada en los intentos de movimientos faciales del paciente.

“Una comunicación más rápida, más precisa y más natural se encuentra entre las necesidades más deseadas por las personas que han perdido la capacidad de hablar después de una parálisis severa”, afirman los investigadores, de la Universidad de California en San Francisco y otras instituciones de Estados Unidos y Estados Unidos. Reino, escribió en su estudio. “Aquí hemos demostrado que todas estas necesidades pueden abordarse con un sistema neuroprotésico del habla que decodifica la actividad cortical articulatoria en múltiples modalidades de salida en tiempo real”.

Los dos nuevos estudios de implantes cerebrales se “superponen” en sus hallazgos y en su “objetivo a largo plazo” de restablecer la comunicación en personas con parálisis, dijo en las noticias el Dr. Edward Chang, neurocirujano y autor del estudio de la Universidad de California en San Francisco.

“Los resultados de ambos estudios (entre 60 y 70 palabras por minuto en ambos) son un verdadero hito para nuestro campo, en general, y estamos muy entusiasmados porque provienen de dos pacientes diferentes, dos centros diferentes. Dos enfoques diferentes”, dijo Chang. “Y el mensaje más importante es que hay esperanza de que esto siga mejorando y proporcione una solución en los próximos años”.

Aunque los dispositivos descritos en ambos artículos nuevos se están estudiando como pruebas de concepto (y actualmente no están disponibles comercialmente), podrían allanar el camino para la ciencia futura y, posiblemente, futuros dispositivos comerciales.

De hecho, estoy muy entusiasmado con la actividad comercial en el área de la interfaz cerebro-computadora”, dijo Henderson. “He cerrado el círculo desde que deseaba poder comunicarme con mi padre cuando era niño hasta ver que esto realmente funciona. Es indescriptible”.

Tags:

Deja tu comentario


Estreno

Martes / 22:30 / CNN Chile