Salud mental e Inteligencia Artificial (IA)
6 claves para conocer tu estado de ánimo a través de la voz
Dime cómo hablas y te diré cómo estás: hemos probado el Emotional Hub

Recreación artística de un pulso de ondas de radio que ha servido para localizar la materia perdida del universo. / Melissa Weiss/CfA

¿Cómo puede la Inteligencia Artificial (IA) saber tu estado de ánimo escuchando solamente tu voz? ¿En qué se basa? Expertos de Eb2 y la universidad Carlos III, una empresa especializada en aplicaciones digitales para ayudar a tratar la salud mental, han desgranado los mecanismos. Y no pesa lo mismo lo que dices y cómo lo dices. Estas son las seis técnicas con las que desnudan tus emociones a través del audio
Ir a la fuente: las cuerdas
En primer lugar, el aire pasa por las cuerdas vocales. Ahí se observa si los períodos en los que sale el aire, en cada fonema, son iguales, son regulares, o no. O si la amplitud de la apertura de las cuerdas es regular. En personas con problemas psicológicos, los armónicos son irregulares y no son periódicos, indica Ascensión Gallardo, profesora de la Universidad Carlos III de Madrid. Si la persona no está bien, la voz puede sonar más temblorosa, más ronca y áspera. Se mide todo, con la IA. También el tiempo en el que las cuerdas vocales están abiertas y la onda que emite ese sonido.
La caja de resonancia
La boca y la nariz son una caja de resonancia. Si la boca se abre más, ello indica relajación. Una boca más cerrada puede indicar más tensión. La posición de la lengua también es un indicador. Puede hacer que la voz sea más clara o más monótona, apagada. La falta de vocalización también se tiene en cuenta.
La prosodia
Es el ritmo, la entonación. Cada persona tiene su frecuencia propia. Las variaciones sobre esa frecuencia pueden dar indicios sobre su estado psicológico. Y la voz puede sonar monótona, desganada si la frecuencia es baja. O tensa si es muy variable. La intensidad -el volumen- también es determinante.
Las personas con depresión tienden a decir más pronombres en primera persona, están muy concentrados en sí mismos
Las personas con depresión, según Gallardo, acostumbran a tener una intensidad baja. Las personas aceleradas hablan más alto. Finalmente se valora también la velocidad con la que habla la persona. Y las pausas: si son muy largas pueden indicar deterioro cognitivo, si son frecuentas y cortas, ello puede mostrar nerviosismo. Si son largas e irregulares, puede ser un indicio de tensión cognitiva.

Inteligencia artificial / SOPRA STERIA - Archivo
El contenido
Una vez se transcribe el mensaje de audio, la información es también muy útil -al margen incluso del significado de las frases. Por ejemplo, disponer o no de un vocabulario amplio. Usar una paleta de palabras limitada puede indicar deterioro cognitivo. También se mide la cantidad de pronombres en primera persona, porque pueden indicar que la persona está ansiosa. "Las personas con depresión tienden a decir más pronombres en primera persona, están muy concentrados en sí mismos", indica la investigadora.
La parte más importante es el cómo lo dices, porque la voz es un indicador muy difícil de engañar
También las llamadas 'pausas rellenas' y las oraciones cortas con complejidad baja, pueden indicar dificultades cognitivas. La IA también mide la coherencia semántica, la capacidad de hilar un discurso de forma coherente hasta el final. Si ese parámetro es bajo, la IA puede indicar cierto deterioro cognitivo. La repetición de conceptos puede significar, si es alta, dificultades para expresarse.
¿Cómo se traduce la información?
Toda esta información se procesa con algoritmos personalizados para crear un "fenotipo digital", es decir, un perfil para cada persona que, a medida que va escuchando mensajes de voz, perfila cuándo hay cambios significativos en el estado de ánimo. La docente de la Carlos III resume que, en el caso de la depresión, se detectan frases simples, dificultada para encontrar palabras, pausas, repeticiones léxicas, una intensidad menor de la voz, una entonación más monótona, trastornos de vocalización y una voz susurrante y entrecortada. Todo ello está traducido por la IA en diversos indicadores medibles. Para la ansiedad el tono es mayor, con mucha variación y uan voz más tensa y con trastornos de articulación.
Dificil de engañar
En las matemáticas de la IA pesa más el cómo se habla que lo que se dice. Así lo afirma David Martín, científico de datos de la empresa Eb2 (que ha llevado su app a centros de salud mental privados y colabora científicamente con centros públicos), para quien "la parte más importante es el cómo lo dices, porque la voz es un indicador muy difícil de engañar". "Puedes estar diciendo 'estoy feliz' pero el tono de voz no se corresponde, hay una inconsistencia", añade. La IA detecta, en estos casos, datos inconsistentes.
Suscríbete para seguir leyendo
- Detectado un caso de tuberculosis entre los trabajadores de las obras del Camp Nou
- Residir cerca del mar no alarga la vida: en el interior de España se vive hasta 10 años más que en la costa
- Vídeo | La retirada del camión accidentado el sábado en la AP-7 provoca retenciones de más de 10 kilómetros en Tarragona
- Protecció Civil enviará alertas 'menos invasivas' para casos sin riesgo inminente
- ¿Por qué el camión accidentado en L'Ametlla mantiene cortada la AP-7 30 horas después?
- Los ingenieros apuestan por conectar el río Ter con el norte de la Costa Brava en casos de emergencia
- El investigador Manel Esteller ficha por Sant Pau y no se marcha a EEUU
- La justicia archiva el caso de la menor vendida en Mollerussa por falta de pruebas y ordena su regreso con la familia