Un equipo de investigadores de la Universidad de las Islas Baleares (UIB) ha desarrollado un modelo por ordenador que permite generar caras en las que, por primera vez, se visualizan emociones y estados de ánimo acordes a los rasgos de personalidad.
El estudio se ha publicado en el último número de la revista Computer Animation and Virtual Worlds ."El objetivo de este trabajo ha sido diseñar un modelo que evidencie los estados emocionales de un personaje y su visualización en una cara virtual", señala una de las autoras del estudio, Diana Arellano, de la Unidad de Gráficos y Visión por Ordenador e Inteligencia Artificial de la UIB. La investigadora recuerda que las emociones (como el miedo, la alegría o la sorpresa) son alteraciones del ánimo casi instantáneas, a diferencia de los estados emocionales (como el aburrimiento o la ansiedad) que son más duraderos, o la personalidad, que suele durar toda la vida.
Los diseñadores han seguido las teorías de Albert Mehrabian para establecer el modelo, según los cinco rasgos de personalidad que establece este psicólogo estadounidense: extroversión, neurosis, apertura, diligencia y simpatía.
Los puntos de la cara que definen estas emociones se pueden determinar matemáticamente, y con los algoritmos desarrollados por los informáticos se pueden obtener de forma "fácil y rápida" las distintas expresiones faciales. El sistema, que emplea el estándar de codificación de vídeo MPEG-4 para generar las imágenes, permite visualizar las emociones básicas (enfado, asco, miedo, alegría, tristeza, sorpresa) y las situaciones intermedias. Los resultados del método se han evaluado tanto de modo objetivo (mediante un reconocedor automático que identificó el 82% de las expresiones generadas) como subjetivo, a través de una encuesta a un grupo de 75 alumnos universitarios.
Los puntos de la cara que definen estas emociones se pueden determinar matemáticamente, y con los algoritmos desarrollados por los informáticos se pueden obtener de forma "fácil y rápida" las distintas expresiones faciales. El sistema, que emplea el estándar de codificación de vídeo MPEG-4 para generar las imágenes, permite visualizar las emociones básicas (enfado, asco, miedo, alegría, tristeza, sorpresa) y las situaciones intermedias. Los resultados del método se han evaluado tanto de modo objetivo (mediante un reconocedor automático que identificó el 82% de las expresiones generadas) como subjetivo, a través de una encuesta a un grupo de 75 alumnos universitarios.
Los estudiantes reconocieron con éxito el 86% de las emociones y el 73% de los estados emocionales representados en el ordenador.Aun así, los investigadores han detectado que algunas emociones son difíciles de diferenciar, como el miedo y la sorpresa, y que es el contexto el que ayuda a diferenciarlas. El equipo ya trabaja en esta línea y prepara un cuentacuentos virtual que enriquezca la narración expresando con su rostro las emociones que genera la historia contada.
"Nuestro siguiente paso es concentrarnos en una malla genérica de alta calidad que permitirá incluir tanto arrugas como movimientos de ojos, párpados y cabeza, y sintetizar la voz", concluye la investigadora.
No hay comentarios:
Publicar un comentario