Durante el transcurso de una comunicación cara a cara, gran parte de la comunicación no verbal se produce por medio de la expresión facial. A pasar de estos estudios y de la propuesta de varios modelos físicos que imitan el comportamiento de los ojos y boca humanos, se ha avanzado poco en el desarrollo de las expresiones faciales como soporte de la comunicación no verbal. Este artículo introduce un sistema robótico emocional basado en el movimiento de ojos y boca. El propósito principal del modelo es proveer un interfaz parecido al humano que sea capaz de comunicar sus estados emocionales, dependiendo del estado del robot o de la naturaleza del diálogo. Para conseguirlo se ha introducido un modelo bayesiano capaz de aprender y generar diferentes movimientos para una misma expresión, dándole así un matiz más humano a la interfaz robótica física desarrollada.
© 2008-2024 Fundación Dialnet · Todos los derechos reservados