AVANCE CIENTÍFICO

La máquina de leer la mente, más cerca

El físico británico Stephen Hawking flotando en ingravidez creada por las maniobras en vuelo de un avión Boeing 727 modificado, en una imagen del 2007.

El físico británico Stephen Hawking flotando en ingravidez creada por las maniobras en vuelo de un avión Boeing 727 modificado, en una imagen del 2007. / SL**NY**

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

Los neurocientíficos podrían, algún día, ser capaces deescuchar los monólogos internos constantes que tienen lugar en lamente, o escuchar el discurso imaginario de unpaciente con derrame cerebral o con incapacidad para hablar, según un equipo de investigadores de laUniversidad de California, Berkeley. El trabajo, llevado a cabo en los laboratorios de Robert Knight, en Berkeley, y Edward Chang, en la Universidad de California en San Francisco, ha sido publicado enPLoS Biology.

Los científicos han logradodescifrar la actividad eléctrica en una región del sistema auditivo humano llamadacircunvolución temporal superior (STG, por sus siglas en inglés) al analizar el patrón de actividad en la STG, fueron capaces de reconstruir las palabras que los sujetos escuchaban en una conversación normal.

"Este estudio es muy importante para los pacientes que tienen daños en los mecanismos del habla a causa de un accidente cerebrovascular o enfermedad de Lou Gehrig", afirma Knight, profesor de Psicología y Neurociencia de la Universidad de California en Berkeley. "Esta investigación se basa en los sonidos de una persona escucha realmente, pero para usar esto en una prótesis, estos principios deben aplicarse a alguien que está imaginando un discurso", advierte el primer autor, Brian N. Pasley, investigador posdoctoral en la Universidad de California, en Berkeley.

Codificación del habla

Pasley probó dos métodos diferentes paraadaptar los sonidos hablados al patrón de actividad de loselectrodos. Los pacientes oían una sola palabra y Pasley utilizaba dos diferentes modelos computacionales para predecir la palabra basándose en las grabaciones de los electrodos; el mejor de los dos métodos fue capaz de reproducir un sonido bastante cercano a la palabra original.

El objetivo final del estudio fue explorar cómo elcerebro humano codifica el habla, y determinar qué aspectos del lenguaje son más importantes para la comprensión. "En algún momento, el cerebro tiene que extraer de fuera la información auditiva y mapearla en una palabra, ya que podemos entender el lenguaje y las palabras, independientemente de cómo suenan", dice Pasley. "La gran pregunta es, ¿cuál es la unidad más significativa del discurso, una sílaba o un fonema?", agrega.

En el Podcast que acompaña a artículo, el editor dePLoS Biology, Shah Ruchir, se sienta con Brian Knight y Robert Pasley para discutir sus hallazgos principales, las aplicaciones como prótesis neuronales, y las posibles implicaciones éticas de "leer la mente".