Nuevo sistema de inteligencia artificial descifra la comunicación no verbal
Con el sistema han descubierto que mirar y gesticular al tribunal en un examen oral hace obtener mejores notas en las presentaciones académicas
Investigadores de la Universidad de Barcelona (UB) han desarrollado un nuevo sistema de inteligencia artificial que analiza la comunicación no verbal, con el que han descubierto, por ejemplo, que mirar y gesticular al tribunal en un examen oral hace obtener mejores notas en presentaciones académicas.
El investigador de la Facultad de Matemáticas de la UB, Sergio Escalera, ha explicado que las competencias en comunicación son actualmente una de las cualidades más relevantes, tanto en el aspecto profesional como en el personal.
En el caso concreto del mundo universitario, según Escalera, "hasta ahora, la evaluación se centraba mucho a valorar el dominio de los contenidos y la capacidad para redactar; pero con la entrada en el espacio europeo de educación superior se valoran mucho más las competencias relacionadas con el trabajo en equipo y la comunicación".
Escalera, que también es miembro del Centro de Visión por Computador y jefe del Grupo de Investigación de Análisis Automática del Comportamiento Humano (HuPBA), ha dirigido el desarrollo de este sistema junto con los estudiantes de tercer ciclo de la UB Álvaro Cepero y Albert Clapés.
El sistema, que ha sido publicado en la revista "AI Communications", es una evolución de una primera propuesta del mismo grupo de investigadores con el apoyo del estudiante de doctorado Víctor Ponce. "Nuestro programa muestra que los sistemas actuales de visión por computador e inteligencia artificial son viables para analizar automáticamente la calidad de la comunicación no verbal. El sistema se puede usar para analizar presentaciones, con propósitos de formación y evaluación, así como para entrevistas laborales, por ejemplo", ha dicho Escalera.
El nuevo sistema de análisis de conductas se ha aplicado en el análisis de 54 presentaciones de estudiantes del grado de Ingeniería Informática de la UB y del máster interuniversitario de Inteligencia Artificial (UPC-UB-URV). Para ello, han utilizado el dispositivo KinectTM, de Microsoft, que permite capturar imágenes y datos de profundidad y de audio.
"En una primera etapa, basándonos en la bibliografía sobre comunicación no verbal, determinamos una serie de indicadores para extraerlos a partir de los datos obtenidos, como el nivel de agitación o la posición de las manos respecto al cuerpo", ha explicado Clapés.
Para analizar si el usuario mira a la audiencia, por ejemplo, el sistema estudia el número de fotogramas en que el interlocutor mira adelante. O a partir de la distancia de las manos en los hombros contrarias se puede determinar si el orador tiene los brazos cruzados. El sistema también mide "el nivel de agitación de quien hace la presentación", en función del movimiento de los brazos respecto al cuerpo y el ritmo de la voz.
- MAPA| Así se ha repartido la lluvia que cae desde el viernes en Catalunya
- Mezcla aceite de coco y vinagre, te sorprenderá el resultado | Vídeo
- Los dueños de apartamentos turísticos pedirán indemnizaciones si les quitan la licencia y se desvinculan de la crisis de vivienda
- El temporal deja en Catalunya el día más lluvioso en seis meses y provoca una súbita crecida de los ríos
- Yolanda Díaz insta a la patronal a pactar la reducción de la jornada "antes de verano" o legislará sin ella
- Tiempo de Catalunya, hoy, martes 30 de abril: esto no se ha acabado
- El reembolso de Hacienda que miles de jubilados van a recibir si han cotizado estas fechas: así se solicita
- Salen pocos y están muy buscados": Barcelona acoge el único centro de España que enseña FP de relojería