AVANCE CIENTÍFICO
La máquina de leer la mente, más cerca
Los neurocientíficos podrían, algún día, ser capaces deescuchar los monólogos internos constantes que tienen lugar en lamente, o escuchar el discurso imaginario de unpaciente con derrame cerebral o con incapacidad para hablar, según un equipo de investigadores de laUniversidad de California, Berkeley. El trabajo, llevado a cabo en los laboratorios de Robert Knight, en Berkeley, y Edward Chang, en la Universidad de California en San Francisco, ha sido publicado enPLoS Biology.
Los científicos han logradodescifrar la actividad eléctrica en una región del sistema auditivo humano llamadacircunvolución temporal superior (STG, por sus siglas en inglés) al analizar el patrón de actividad en la STG, fueron capaces de reconstruir las palabras que los sujetos escuchaban en una conversación normal.
"Este estudio es muy importante para los pacientes que tienen daños en los mecanismos del habla a causa de un accidente cerebrovascular o enfermedad de Lou Gehrig", afirma Knight, profesor de Psicología y Neurociencia de la Universidad de California en Berkeley. "Esta investigación se basa en los sonidos de una persona escucha realmente, pero para usar esto en una prótesis, estos principios deben aplicarse a alguien que está imaginando un discurso", advierte el primer autor, Brian N. Pasley, investigador posdoctoral en la Universidad de California, en Berkeley.
Codificación del habla
Pasley probó dos métodos diferentes paraadaptar los sonidos hablados al patrón de actividad de loselectrodos. Los pacientes oían una sola palabra y Pasley utilizaba dos diferentes modelos computacionales para predecir la palabra basándose en las grabaciones de los electrodos; el mejor de los dos métodos fue capaz de reproducir un sonido bastante cercano a la palabra original.
El objetivo final del estudio fue explorar cómo elcerebro humano codifica el habla, y determinar qué aspectos del lenguaje son más importantes para la comprensión. "En algún momento, el cerebro tiene que extraer de fuera la información auditiva y mapearla en una palabra, ya que podemos entender el lenguaje y las palabras, independientemente de cómo suenan", dice Pasley. "La gran pregunta es, ¿cuál es la unidad más significativa del discurso, una sílaba o un fonema?", agrega.
En el Podcast que acompaña a artículo, el editor dePLoS Biology, Shah Ruchir, se sienta con Brian Knight y Robert Pasley para discutir sus hallazgos principales, las aplicaciones como prótesis neuronales, y las posibles implicaciones éticas de "leer la mente".
- Esto es lo que más mira Hacienda este año de tu declaración de la renta
- La Generalitat dará 15.876 euros a los catalanes menores de 30 años que se den de alta como autónomos
- Barcelona retoma el reto de brindar por fin a la Sagrada Família su escalinata
- En estas localidades de Catalunya también es festivo este lunes, día de la Segunda Pascua
- El agujero de la orientación escolar: 'Me costó mucho encontrar apoyo para hacer FP; como mis notas no eran malas creían que era una pérdida de talento
- La palabra catalana de tres letras para despedirse que debería usarse en toda España
- Supervivientes 2024': Javier expulsado y Blanca y Marieta regresan a la lista de nominados
- El pantano de Talarn llega al máximo de su capacidad y empieza a desembalsar agua