Nuevo sistema de inteligencia artificial descifra la comunicación no verbal

Con el sistema han descubierto que mirar y gesticular al tribunal en un examen oral hace obtener mejores notas en las presentaciones académicas

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

Investigadores de la Universidad de Barcelona (UB) han desarrollado un nuevo sistema de inteligencia artificial que analiza la comunicación no verbal, con el que han descubierto, por ejemplo, que mirar y gesticular al tribunal en un examen oral hace obtener mejores notas en presentaciones académicas.

El investigador de la Facultad de Matemáticas de la UB, Sergio Escalera, ha explicado que las competencias en comunicación son actualmente una de las cualidades más relevantes, tanto en el aspecto profesional como en el personal.

En el caso concreto del mundo universitario, según Escalera, "hasta ahora, la evaluación se centraba mucho a valorar el dominio de los contenidos y la capacidad para redactar; pero con la entrada en el espacio europeo de educación superior se valoran mucho más las competencias relacionadas con el trabajo en equipo y la comunicación".

Escalera, que también es miembro del Centro de Visión por Computador y jefe del Grupo de Investigación de Análisis Automática del Comportamiento Humano (HuPBA), ha dirigido el desarrollo de este sistema junto con los estudiantes de tercer ciclo de la UB Álvaro Cepero y Albert Clapés.

El sistema, que ha sido publicado en la revista "AI Communications", es una evolución de una primera propuesta del mismo grupo de investigadores con el apoyo del estudiante de doctorado Víctor Ponce. "Nuestro programa muestra que los sistemas actuales de visión por computador e inteligencia artificial son viables para analizar automáticamente la calidad de la comunicación no verbal. El sistema se puede usar para analizar presentaciones, con propósitos de formación y evaluación, así como para entrevistas laborales, por ejemplo", ha dicho Escalera.

El nuevo sistema de análisis de conductas se ha aplicado en el análisis de 54 presentaciones de estudiantes del grado de Ingeniería Informática de la UB y del máster interuniversitario de Inteligencia Artificial (UPC-UB-URV). Para ello, han utilizado el dispositivo KinectTM, de Microsoft, que permite capturar imágenes y datos de profundidad y de audio.

"En una primera etapa, basándonos en la bibliografía sobre comunicación no verbal, determinamos una serie de indicadores para extraerlos a partir de los datos obtenidos, como el nivel de agitación o la posición de las manos respecto al cuerpo", ha explicado Clapés.

Para analizar si el usuario mira a la audiencia, por ejemplo, el sistema estudia el número de fotogramas en que el interlocutor mira adelante. O a partir de la distancia de las manos en los hombros contrarias se puede determinar si el orador tiene los brazos cruzados. El sistema también mide "el nivel de agitación de quien hace la presentación", en función del movimiento de los brazos respecto al cuerpo y el ritmo de la voz.