Upload
others
View
0
Download
0
Embed Size (px)
Citation preview
Centro de Investigación Científica y de EducaciónSuperior de Ensenada, Baja California
MR
Maestría en Cienciasen Ciencias de la Computación
Cómputo afectivo en interacción humano-robot
Tesis
para cubrir parcialmente los requisitos necesarios para obtener el grado de
Maestro en Ciencias
Presenta:
Adrian Acosta Mitjans
Ensenada, Baja California, México
2020
Tesis defendida por
Adrian Acosta Mitjans
y aprobada por el siguiente Comité
Dr. Jesús Favela VaraDirector de tesis
Dr. Irvin Hussein López Nava
Dr. Miguel Ángel Alonso Arévalo
Dr. Israel Marck Martínez PérezCoordinador del Posgrado en Ciencias de la Computación
Dra. Rufina Hernández MartínezDirectora de Estudios de Posgrado
Adrian Acosta Mitjans © 2020
Queda prohibida la reproducción parcial o total de esta obra sin el permiso formal y explícito del autor y director de la tesis
ii
Resumen de la tesis que presenta Adrian Acosta Mitjans como requisito parcial para la obtención delgrado de Maestro en Ciencias en Ciencias de la Computación.
Cómputo afectivo en interacción humano-robot
Resumen aprobado por:
Dr. Jesús Favela VaraDirector de tesis
Los robots sociales, en contraste con los robots tradicionales, son capaces de reconocer y respondera las señales sociales humanas con comportamientos apropiados (Scassellati, 2007). Los robots socialescomienzan a utilizarse en escuelas, hospitales y hogares para realizar tareas específicas (Chen et al., 2018).De aquí la importancia de realizar investigaciones dirigidas a mejorar las interacciones entre los humanosy los robots. En esta área, se están realizando estudios para dotar a los robots de capacidades parareconocer y simular estados emocionales mejorando así sus habilidades sociales. Un elemento importantedentro de estas habilidades es la comunicación no verbal, la cual consiste en el proceso de expresarsea través del comportamiento (Jones Jr, 2016), y como este influye en el reconocimiento y síntesis deemociones. En este trabajo se implementaron tres mecanismos de comunicación no verbal para la síntesisde emociones, atendiendo a las capacidades del robot social diseñado. Estos mecanismos se enfocaronen cuatro emociones básicas (Sorpresa, Alegría, Tristeza e Ira). Para evaluar la efectividad de estosdiseños se realizaron dos estudios en los que participantes interactuaron con el robot mediante voz pararealizar una actividad específica. En un primer estudio se evaluaron las capacidades de comunicación noverbal del robot haciendo uso de un arreglo de luces led, y su influencia en la toma de decisiones. En unsegundo estudio se incluyeron los ojos, movimientos de la cabeza y apariencia con el objetivo de medirsu influencia en la percepción del usuario sobre la presencia social del robot. A pesar, de que en ambosestudios no se encontraron diferencias significativas entre las condiciones, los datos obtenidos muestranque el uso de estos mecanismos, hace que sean percibidos como entes sociales. Adicionalmente, sedesarrolló un lenguaje de programación visual, con el cual los usuarios podrán crear nuevas interaccionespara el robot. Este permite a desarrolladores de aplicaciones con robots sociales definir el flujo de lainteracción, y reutilizar las funcionalidades básicas del robot y los mecanismos de comunicación noverbal desarrollados como parte de este trabajo de tesis.
Palabras clave: Robot Sociales, Interacción, Emociones, Toma de desiciones
iii
Abstract of the thesis presented by Adrian Acosta Mitjans as a partial requirement to obtain the Masterof Science degree in Computer’s Science.
Affective computation in human-robot interaction
Abstract approved by:
Dr. Jesús Favela VaraThesis Director
Social robots, in contrast to traditional robots, are capable of recognizing and responding to humansocial signals with appropriate behaviors (Scassellati, 2007). Social robots are beginning to be used inschools, hospitals, and homes to perform specific tasks (Chen et al., 2018). Hence the importance ofconducting research aimed at improving interactions between humans and robots. In this area, studiesare being carried out to equip robots with capacities to recognize and simulate emotional states, thusimproving their social skills. An essential component of these skills is non-verbal communication, whichconsists of expressing oneself through behavior (Jones Jr, 2016) and how this influences the recognitionand synthesis of emotions. In this work, three non-verbal communication mechanisms for the emotionsynthesis were implemented, attending to the capabilities of the designed social robot. These mechanismsfocused on four basic emotions (Surprise, Joy, Sadness, and Anger). To evaluate the effectiveness of thesedesigns, two studies were carried out in which the participants interact with the robot by voice. In a firststudy, the robot’s specific non-verbal communication capabilities were evaluated, in this case, using anarrangement of led lights, and its influence on decision-making. In a second study, eyes, head movements,and appearance were included to measure the user’s perception of the robot’s social presence. Eventhough no significant differences were found between the conditions in both studies, the data obtainedshows that the use of these mechanisms allows them to be perceived, to a greater extent, as socialentities. Additionally, a visual programming language was developed, with which users can create newinteractions for the robot. This allows developers of applications with social robots to define the flowof the interaction and reuse the basic functionalities of the robot and the non-verbal communicationmechanisms developed as part of this thesis work.
Keywords: Social Robot, Interaction, Emotions, Decision Making
iv
Dedicatoria
A mis padres por todo el apoyo y amor incondicional
que siempre me han dado.
v
Agradecimientos
Al Centro de Investigación Científica y de Educación Superior de Ensenada (CICESE), en especial
al Departamento de Ciencias de la Computación, que me acogió para realizar mis estudios de posgrado,
por proporcionar las instalaciones y los medios necesarios para realizar mi investigación.
Al Consejo Nacional de Ciencia y Tecnología (CONACyT) por brindarme el apoyo económico para
realizar mis estudios de maestría. No. de becario: 938971.
A mi director de tesis, Dr. Jesús Favela Vara, por su gran ayuda, orientación y consejos durante todo
este tiempo.
A los miembros de del comité de tesis, el Dr. Irvin Hussein López Nava y el Dr. Miguel Ángel Alonso
Arévalo, por sus comentarios e indicaciones para mejorar mi investigación.
A los profesores del Departamento de Ciencias de la Computación por sus excelentes clases y por el
conocimiento transmitido.
A mis compañeros y amigos de Ciencias de la Computación, en especial a Dagoberto Cruz Sandoval,
por su ayuda durante los cursos y la investigación.
A mi familia y amigos. En especial a mi madre por su apoyo incondicional.
vi
Tabla de contenido
Página
Resumen en español . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ii
Resumen en inglés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iii
Dedicatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iv
Agradecimientos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . v
Lista de figuras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . viii
Lista de tablas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ix
Capítulo 1. Introducción1.1. Pregunta de Investigación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.2. Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1. Objetivo General . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.2.2. Objetivos Específicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3. Metodología . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.4. Organización de la tesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Capítulo 2. Comunicación no verbal en robots sociales2.1. Comunicación no verbal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.1.1. Brazos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62.1.2. Cabeza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72.1.3. Cuerpo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82.1.4. Expresiones faciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92.1.5. Paralenguaje . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102.1.6. Apariencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2. Comunicación no verbal específica de robots . . . . . . . . . . . . . . . . . . . . . . . 112.2.1. Colores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3. Conclusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
Capítulo 3. Síntesis de emociones en el robot Eva3.1. Robot social: Eva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163.2. Versión 1: Luces Led . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.2.1. Evaluación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173.2.1.1. Procedimiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173.2.1.2. Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.3. Versión 2: Ojos y movimiento de la cabeza . . . . . . . . . . . . . . . . . . . . . . . . 183.4. Versión 3: Apariencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
Capítulo 4. Síntesis de emociones por medio de luces4.1. Pregunta de investigación experimental . . . . . . . . . . . . . . . . . . . . . . . . . . 214.2. Juego del Ultimátum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214.3. Hipótesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
vii
Tabla de contenido (continuación)
4.4. Participantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224.5. Procedimiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224.6. Set up experimental . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234.7. Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Capítulo 5. Síntesis de emociones utilizando el movimiento de ojos y cabeza5.1. Pregunta de Investigación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
5.1.1. Hipótesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265.2. Procedimiento Experimental . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275.3. Setup experimental . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285.4. Evaluación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
5.4.1. Herramientas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295.5. Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305.6. Discusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
Capítulo 6. Desarrollo del módulo de Interacciones Afectivas con el robot social6.1. Pregunta de investigación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356.2. Arquitectura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356.3. Lenguajes y plataformas de desarrollo . . . . . . . . . . . . . . . . . . . . . . . . . . . 366.4. Lenguaje de Programación Visual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366.5. Aplicación Web . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
6.5.1. Ejemplo de uso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 386.6. Aplicaciones de ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
6.6.1. Preguntas y Respuestas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 396.6.2. Enseñando a niños a contar chistes . . . . . . . . . . . . . . . . . . . . . . . . 42
6.7. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
Capítulo 7. Conclusiones7.1. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 467.2. Discusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 467.3. Contribuciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 477.4. Trabajo Futuro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
Literatura citada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
Anexo A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
Anexo B . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
Anexo C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
viii
Lista de figuras
Figura Página
1. Modelo de espacio emocional en 2D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2. Etapas de la metodología del trabajo de investigación. . . . . . . . . . . . . . . . . . . . . . 4
3. Robot NAO realizando un gesto de enfado English et al. (2017) . . . . . . . . . . . . . . . 7
4. Robot Mini Darwin realizando un gesto de felicidad English et al. (2017) . . . . . . . . . . 7
5. Primera versión del robot social Eva. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
6. Emociones diseñadas para el robot Eva. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
7. Segunda versión del robot social Eva. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
8. Tercera versión del robot social Eva. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
9. Setup experimental . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
10. Emociones mostradas por el robot Eva, a partir de la expresión en los ojos y el movimientode la cabeza. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
11. Condición 1 y 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
12. Condición 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
13. Modelo para estudios sobre habilidades sociales y presencia social. La descripción de estosconstructores se muestra en la tabla 6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
14. Diagrama de caja . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
15. Diagrama de Arquitectura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
16. Interfaz Web para la implementación de las interacciones. 1) Listado de interacciones;2) Nombre de la interacción; 3) Nodos disponibles; 4) Visualización de la interacción; 5)Guardar y Actualizar interacción; 6) Editar nodos de la interacción . . . . . . . . . . . . . 38
17. Nodo: Hablar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
18. Nodo: Escuchar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
19. Preguntar por el nombre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
20. Interacción: Preguntas y Respuestas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
21. Nodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
22. Implementación: Preguntas y Respuestas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
23. Implementación de la interacción: “Enseñando a niños a contar chistes” (sección 6.6.2) . 44
ix
Lista de tablas
Tabla Página
1. Resumen de la literatura seleccionada . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2. Resumen de relación color-emoción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3. Resumen de resultados. Porcentaje de emociones identificadas en las animaciones. 18
4. Comparación de las versiones del robot social Eva. . . . . . . . . . . . . . . . . . . 20
5. Resultados del experimento 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
6. Descripción del Modelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
7. Cuestionario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
8. Cronbach’s Alpha . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
9. Estadísticas Descriptivas: No emocional . . . . . . . . . . . . . . . . . . . . . . . . . 31
10. Estadísticas Descriptivas: Emocional . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
11. Estadísticas Descriptivas: Emocional y Antropomórfico . . . . . . . . . . . . . . . . . 31
12. Cantidad de participantes que salvaron al robot . . . . . . . . . . . . . . . . . . . . . 33
1
Capítulo 1. Introducción
A medida que la tecnología avanza, se va integrando cada vez más en nuestras vidas. Un ejemplo de
esto son los robots sociales, los cuales son agentes encarnados que forman parte de un grupo heterogéneo:
una sociedad de robots y humanos. Estos son capaces de reconocerse mutuamente y participar en
interacciones sociales, percibir e interpretar el mundo en términos de su propia experiencia y comunicarse
y aprender de forma explícita (Fong et al., 2003). Los robots sociales se incluyen dentro del área de
investigación denominada computación afectiva (Picard, 1997), la cual es un área de ciencias de la
computación cuyo objetivo es simular procesos emocionales o hacer uso de las emociones humanas en
la interacción persona-computadora (Xia et al., 2003).
Los robots sociales comenzaron como ciencia ficción pero gradualmente empiezan a utilizarse en
escuelas, hospitales y hogares (Chen et al., 2018). Esto ha sido posible gracias a avances en áreas
tales como la inteligencia artificial (Russell y Norvig, 2016), monitoreo del ambiente, reconocimiento de
patrones (Bishop, 2006) entre otros. Debido al aumento de la interacción de los robots con los humanos
y la necesidad de que esta interacción sea más natural, surge la necesidad de que los robots sean capaces
de mostrar emociones, así como transmitirlas. La investigación en el campo multidisciplinario de la
interacción humano-robot (HRI), el cual estudia a los humanos, robots y las formas en que se influyen
entre sí (Fong et al., 2007), ha explorado las relaciones sociales y funcionales entre humanos y robots en
la intersección de ingeniería, informática, psicología, lingüística, etología y otras disciplinas (Dautenhahn,
2007).
La correcta síntesis de emociones es de suma importancia ya que estas afectan tanto al estado fisio-
lógico como al psicológico de las personas desempeñando un papel muy importante en la vida humana.
Las emociones positivas ayudan a mejorar la salud humana y la eficiencia en el trabajo, mientras que
las emociones negativas pueden causar problemas de salud. La acumulación a largo plazo de emociones
negativas son factores predisponentes para la depresión (Shu et al., 2018).
Las emociones según Lang (1995) pueden ser categorizadas en un espacio 2D por valencia y exci-
tación, como se muestra en la Figura 1. De acuerdo a esta teoría, la valencia varía de desagradable
(negativa) a placentera (positiva), y la excitación varía de pasiva (baja) a activa (alta), lo cual indica
que tan intensamente los seres humanos sienten las emociones.
Una forma de expresar las emociones que sentimos es a través de la comunicación no verbal, la cual,
empleada en un robot puede ser crucial para lograr una mejor relación con los humanos. Este tipo de
2
Figura 1. Modelo de espacio emocional en 2D
comunicación incluye la kinésica (gestos, lenguaje corporal, postura, expresión facial, contacto visual),
paralenguaje, proxémica y la cronémica (Jones Jr, 2016). De acuerdo con Mehrabian (1971) las percep-
ciones de las personas sobre un individuo están formadas en un 7% por señales verbales, un 38% por el
tono de su voz y un 55% por sus señales corporales, demostrando así el papel de las señales no verbales
en cómo las personas evalúan a otros en entornos sociales. Es importante tener en cuenta también que
según Wallbott (1988) el comportamiento no verbal es altamente dependiente del contexto. En la actua-
lidad muchos investigadores han centrado sus esfuerzos en realizar avances en esta área, enfocándose en
uno o varios modos de este tipo de comunicación. Dentro de la comunicación no verbal se analizan los
gestos con los brazos (Salem et al., 2013; Aly y Tapus, 2016; Xu et al., 2014; English et al., 2017), movi-
mientos de la cabeza (Wang et al., 2006) y el cuerpo (Hoffman et al., 2015; Rosenthal-von der Pütten
et al., 2018; Kapur et al., 2005), las expresiones faciales (Cameron et al., 2018; Endrass et al., 2014;
Faria et al., 2017) y elementos de comunicación no verbal propios únicamente de los robots como el
cambio de color de los ojos (Häring et al., 2011) y las luces led (Rosenthal-von der Pütten et al., 2018).
1.1. Pregunta de Investigación
De lo anterior surgen las siguientes preguntas de investigación que guiarán este trabajo de tesis:
¿Qué tipo de mecanismos de comunicación no verbal pueden implementarse en el robot social Eva
para comunicar emociones?
¿Cómo puede influir un robot capaz de simular emociones, haciendo uso de la comunicación no
3
verbal, en la percepción que tienen las personas sobre la presencia social del mismo?
¿Qué tipo de herramienta puede implementarse en el robot social Eva para facilitar el diseño y desa-
rrollo de interacciones emocionales?
1.2. Objetivos
1.2.1. Objetivo General
Diseñar e implementar mecanismos de simulación de emociones por medio de comunicación no verbal
que enriquezcan la comunicación con el robot.
1.2.2. Objetivos Específicos
Estudiar los distintos tipos de comunicación no verbal y su factibilidad para ser implementadas en
un robot social.
Diseñar e implementar los mecanismos comunicación no verbal en un robot.
Diseña y realizar experimentos, que permitan evaluar el efecto de la simulación de emociones
mediante los mecanismos de comunicación no verbal, implementados en el robot, en la percepción
del usuario sobre el robot social.
Desarrollar un sistema web que permita a los usuarios, sin conocimientos de programación, el
desarrollo de interacciones emocionales en el robot Eva.
1.3. Metodología
La metodología para el desarrollo de esta tesis consta de tres etapas las cuales se describen a
continuación.
La primera etapa de la investigación se enfocó en la revisión de la literatura, para establecer las
motivaciones y oportunidades dentro del campo de la síntesis de emociones y la comunicación no verbal
por parte de un robot. Comprender cómo la síntesis de emociones y la comunicación no verbal pueden
4
Figura 2. Etapas de la metodología del trabajo de investigación.
influir en la percepción que tienen los humanos de los robots, permitió detectar posibles escenarios de
interacción entre humanos y robots. Debido a que el enfoque definido para la intervención del robot está
relacionado con la interacción social, la síntesis de emociones y la comunicación no verbal, la revisión de
literatura se enfocó en este tipo de intervenciones.
La segunda etapa de la metodología, se dividió en cuatro subetapas, sobre las cuales se iteró dos veces.
La primera subetapa consistió en seleccionar algunos de los mecanismos de comunicación no verbal para
su implementación en el robot Eva. Estos fueron seleccionados teniendo en cuenta la literatura revisada
y las capacidades del robot social. En la segunda subetapa se diseñaron e implementaron los mecanismos
seleccionados en la subetapa anterior.
En la tercera subetapa se diseñó un experimento con el objetivo de probar los mecanismos propuestos.
Los mismos consistían en realizar una actividad con el robot, donde este último pudiera hacer uso de los
mecanismos implementados. Finalmente, en una cuarta subetapa se realizó el experimento y se analizaron
los datos.
La tercera etapa de la metodología se desarrolló paralelamente a los procesos de la segunda etapa.
En una primera subetapa, y para dar respuesta al segundo objetivo de este trabajo de tesis, se diseñó
un lenguaje de programación visual basado en bloques. En la segunda subetapa se desarrolló un sistema
web que permite la utilización de este lenguaje para la creación de nuevas interacciones emocionales en
el robot.
5
1.4. Organización de la tesis
Esta tesis contiene siete capítulos organizados de la siguiente forma:
El Capítulo 2, presenta una introducción a la comunicación no verbal en robots sociales, y algunos
de los problemas abiertos en el área. Se presentan los trabajos de investigación relacionados con la
comunicación no verbal y la síntesis de emociones en robot y la comunicación no verbal específica de
robots.
El Capítulo 3 describe el robot social llamado Eva, así como las modificaciones que se le han realizado
y los diferentes mecanismos de comunicación no verbal implementados como parte de este trabajo de
tesis.
El Capítulo 4 presenta un estudio realizado para evaluar la síntesis de emociones por medio de luces
led en el robot Eva y su impacto en la toma de decisiones.
El Capítulo 5 presenta un estudio realizado para evaluar la síntesis de emociones por medio de los
ojos, el movimiento de la cabeza y la apariencia y su influencia en la percepción de los usuarios sobre la
presencia social del robot social Eva.
El Capítulo 6 presenta un sistema web para el desarrollo de interacciones con el robot socia Eva
utilizando un Lenguaje de Programación Visual diseñado como parte de este trabajo.
Finalmente, el Capítulo 7 presenta las conclusiones, aportaciones y limitaciones del trabajo de tesis.
Además, se expone el trabajo futuro.
6
Capítulo 2. Comunicación no verbal en robots sociales
Actualmente existen muchos trabajos que estudian las distintas formas de comunicación en inter-
acción humano-robot. Estas investigaciones se pueden dividir en dos grandes grupos según el tipo de
comunicación que estudian: la comunicación verbal y no verbal.
Para esta revisión de la literatura se analizaron principalmente trabajos relacionados con la síntesis
de emociones en HRI y cómo los humanos perciben los robots que la utilizan. En estos trabajos se tienen
en cuenta algunas de las características de los experimentos realizados en estas investigaciones como el
tipo de robot que utilizan, el número de participantes y el tipo de estudio.
2.1. Comunicación no verbal
En esta sección se revisarán los trabajos relacionados con la comunicación no verbal, organizándolos
por las diferentes áreas del cuerpo en las que se enfocan.
2.1.1. Brazos
Los gestos con los brazos son una forma de transmitir información que los humanos utilizamos en
algunas ocasiones de forma inconsciente. En un estudio realizado por Salem et al. (2013) los participan-
tes lo percibieron como más agradable, informaron una mayor realidad compartida con él y mostraron
mayores intenciones de contacto futuro que cuando el robot dio instrucciones sin gestos, igualmente los
investigadores Aly y Tapus (2016) utilizaron un robot NAO para brindar información sobre un restau-
rante y sus servicios, encontrando que los gestos más dinámicos del robot llevaron a interacciones más
atractivas y una mayor concordancia semántica percibida, efecto que se notó más en los estudiantes con
personalidades extrovertidas que las introvertidas. Un efecto que puede tener este tipo de comunicación
es el conocido como contagio de emoción, Xu et al. (2014) utilizó un robot NAO para impartir una clase
en una universidad a dos grupos con dos estados de ánimos distintos, positivo y negativo. Al terminar
las clases se les pidió a los estudiantes que valoraran su estado de ánimo, el cual fue en general más
alto para los que recibieron la clase con un estado de ánimo positivo. Un elemento que influye en este
tipo de experimentos es la forma física del robot, lo cual se evidencia en la investigación realizada por
English et al. (2017) donde se utiliza un robot NAO (Figura 3) y el Mini Darwin (Figura 4), a los cuales
se les programaron gestos, para enseñar las emociones básicas a niños con autismo, para la validación
7
Figura 3. Robot NAO realizando ungesto de enfado English et al. (2017)
Figura 4. Robot Mini Darwin realizando un gestode felicidad English et al. (2017)
del mismo se utilizaron adultos sanos los cuales fueron capaces de reconocer las emociones con un mayor
porcentaje de acierto en el caso del Mini Darwin.
2.1.2. Cabeza
Los movimientos de la cabeza son una parte importante de la comunicación no verbal, facilitando la
comunicación entre las personas no solo al hablar, sino también al escuchar (McClave, 2000). Según los
investigadores Liu et al. (2012) estos movimientos ocurren de forma natural, y pueden ser intencionales
o inconscientes. Durante una conversación estos movimientos se encuentran en sincronía con el habla y
pueden llevar información paralingüística como intensiones, actitudes y emociones. Los estudios realizados
por los investigadores Busso et al. (2007); Mariooryad y Busso (2012); van Welbergen et al. (2015);
Liu et al. (2012) han demostrado que la inclusión de estos mecanismos de comunicación no verbal en
agentes conversacionales ha permitido que sean percibidos como más cálidos, naturales, competentes y
semejantes a los humanos.
Los movimientos primarios de la cabeza son asentir y sacudir. Su uso más obvio según Jakobson
(1972) es mostrar afirmación o negación, aunque también puede señalar interés o impaciencia, mejorar
la atención comunicativa al ocurrir en sincronía con el habla de otra persona (Condon y Ogston, 1967;
Kendon, 1970) o solicitar la toma de turno para hablar (Duncan, 1972). En general, según la investiga-
ción de Heylen (2005), los movimientos de la cabeza poseen al menos 25 roles diferentes durante una
conversación, entre los que se encuentran además de los anteriores: organizar la interacción, mostrar el
8
estado de ánimo y expresar el nivel de entendimiento.
2.1.3. Cuerpo
Los movimientos o las poses que realizamos con el cuerpo también son parte de la comunicación no
verbal. Ambas han sido objeto de estudio de varios investigadores con el objetivo de mejorar la comu-
nicación entre humanos y robots. Los investigadores Hoffman et al. (2015) diseñaron e implementaron
un robot al que bautizaron como Kip11 el cual supervisa los aspectos no verbales de una conversación
y responde con gestos en función de las características detectadas en la misma. En este estudio los
investigadores concluyeron que las reacciones del robot a la conversación que tenían las parejas parti-
cipantes, provocaron una atención en la mirada mas no en la comunicación verbal lo que sugiere que
los robots diseñados como compañeros de la interacción humano-humano no comprometen el flujo de
comunicación natural entre las personas. Los participantes en la condición donde el robot reaccionaba a
la conversación lo evaluaron como que tenía más rasgos humanos y por tanto era más similar a ellos lo
que demuestra el potencial que puede tener un robot para lograr empatía.
En un estudio realizado por Rosenthal-von der Pütten et al. (2018) se compararon los movimientos
del cuerpo similares a los humanos y los específicos de los robots (coloreado LED) con un robot NAO, el
cual contaría una historia a los participantes en tres condiciones distintas. Ambos tipos de comunicación
mostraron un efecto en la percepción del robot teniendo menos influencia la comunicación no verbal
del robot. La utilización de ambos tipos de comunicación no mostró una diferencia estadísticamente
significativa con respecto al uso de la comunicación no verbal de los humanos.
Igualmente, los investigadores Häring et al. (2011) compararon elementos de comunicación no verbal
del robot, en este caso el color de los ojos, con gestos del cuerpo y sonidos. El experimento consistía en
que los participantes debían evaluar la expresividad del robot y comunicar la emoción que representaba.
Finalmente, obtuvieron como resultado que los colores de ojos no son un componente confiable para
la expresión emocional debido a que diferentes condiciones de iluminación pueden cambiar significativa-
mente la percepción del color. Solo el color rojo, utilizado para representar ira fue capaz de soportar su
emoción objetivo.
Por otro lado, en la investigación realizada por Wang et al. (2006) se utilizó el robot Nico el cual
interactuaba utilizando cuatro modos de seguimiento con la cabeza (sin seguimiento, seguimiento suave1Empathic Object - Kip1 a robotic conversation companion
9
del movimiento, seguimiento rápido y evitación del participante), en este caso los participantes registra-
ron los niveles de alegría más altos en el modo de seguimiento rápido lo que demuestra que los usuarios
pueden preferir un comportamiento exagerado y caricaturizado en un robot en lugar de un comporta-
miento humano realista. Otro estudio de los investigadores de Wit et al. (2020) en el que participaron 94
niños de 4 a 6 años encontraron que el uso de gestos mejoraba el engagement2 entre los niños y el robot.
2.1.4. Expresiones faciales
El reconocimiento de las expresiones faciales ha sido un tema muy estudiado en años recientes.
De acuerdo a Mehrabian (1968) solo el 7% de la información afectiva que transmitimos durante las
interacciones proviene del lenguaje, el 38% es del tono y el 55% es de expresiones faciales. Cameron
et al. (2018) estudió la influencia de las expresiones faciales afectivas reales en el comportamiento
emocional de los niños utilizando el robot humanoide Zeno R50 el cual debía mostrar o no expresiones
faciales apropiadas al contexto durante un juego con los participantes. Como resultado de este trabajo
se encontró que los participantes masculinos mostraron una respuesta afectiva positiva e indicaron una
mayor simpatía hacia el robot en la condición de expresión facial. Sin embargo, las participantes femeninas
no mostraron diferencias significativas entre las dos condiciones. Por otra parte, Endrass et al. (2014)
utilizaron el robot Alice, el cual fue programado con siete sonrisas distintas, seis de estas se hipotetizaron
como engañosas, esperando que se evaluaran con menos nivel de felicidad. Los resultados arrojados en
este experimento mostraron que los participantes se enfocaron más en la región de la boca que en los
ojos.
Estudios transculturales realizados por Koda et al. (2010), comparando países de como Japón y Hun-
gría, y Yuki et al. (2007), comparando Japón y Estados Unidos de América, han demostrado diferencias
culturales en cuanto a qué regiones faciales se utilizan como señales para reconocer las emociones. En
estos estudios se concluyó que para los japoneses pesaban más las señales faciales en las regiones oculares
y para los húngaros y los americanos pesaban más la región de la boca. Los investigadores Terzioğlu
et al. (2020) encontraron que, usando solo señales de mirada, un brazo robótico puede mejorar métricas
como la simpatía y la sociabilidad percibida.
Además, Koda et al. (2010) plantearon que la región de la boca es más efectiva para transmitir
las emociones de las expresiones faciales que la región de los ojos, independientemente del país, lo que
concuerda con los resultados de Blais et al. (2012) los que encontraron que el área de la boca es la más2Se refiere a qué tan involucrado se encuentra un individuo en una determinada actividad
10
informativa y que contiene los movimientos más discriminatorios entre las expresiones.
En el caso de los humanos la expresión facial afectiva es una característica clave de la conducta
no verbal y se considera como un síntoma de un estado emocional interno (Faria et al., 2017). En una
investigación realizada por Faria et al. (2017)3 se utilizó un Modelo de Mezcla Bayesiana Dinámico
(DBMM) diseñado para combinar las probabilidades de múltiples clasificadores en una sola forma, para
reconocer emociones a través de expresiones faciales, obteniendo una precisión del 85% en conjuntos de
datos y 80% sobre la marcha durante la interacción humano-robot.
2.1.5. Paralenguaje
El paralenguaje es la forma en la que se expresan las palabras, la acentuación, el volumen, la en-
tonación, la velocidad y el ritmo empleados. Este elemento de la comunicación no verbal también ha
sido estudiado por los investigadores en HRI. Fischer et al. (2019) estudiaron la diferencia en cómo
son percibidos los robots según la pronunciación que realizan. En este trabajo se reporta un primer
estudio del que se obtiene que al saludar de forma afectiva los robots son percibidos como amigables,
atractivos y educados. En un segundo estudio el robot debía dar una mala noticia, en este caso se
evaluaron dos expresiones una neutral y otra emocional. En el caso de la expresión emocional, los par-
ticipantes lo calificaron más alto en relación con la amabilidad, calor, cortesía y compromiso, pero no
se detectaron diferencias significativas entre las dos opciones en cuanto a la formalidad y profesionalidad.
2.1.6. Apariencia
La apariencia física es uno de los componentes principales de la comunicación no verbal. En una
investigación realizada por Kontogiorgos et al. (2020) donde se comparaban dos robots (Amazon Echo
y la cabeza robótica Furhat), los participantes interactuaron con solo un de los robots donde ambos
daban instrucciones para preparar un dulce. Durante esta intervención el robot simularía tener fallas de
diversos tipos. Este experimento encontró que las fallas del robot con una apariencia de bocina (Amazon
Echo) influían negativamente en la intención de uso del mismo frecuentemente, no siendo así para el
robot con apariencia más humana (Furhat), el cual además fue mejor evaluado en términos de inteligencia
percibida y presencia social. Un resultado interesante de esta investigación fue que en casos de fallas más
severas la apariencia más humana del robot Furhat distraía y afectaba la interacción. En otro estudio los3Affective Facial Expression Recognition for Human-Robot Interaction
11
investigadores Barco et al. (2020) compararon tres robots con diferentes morfologías: Pleo (zoomorfo),
Cozmo (caricaturizado) y NAO (antropomórfico). En este estudio participaron niños en un rango de
edades entre 7 y 14 años los cuales realizarían una interacción libre con Pleo o Cozmo o jugarían a las
adivinanzas con NAO. En este estudio se concluyó que los robots antropomórficos son mejor evaluados
en términos de su antropomorfismo, presencia social y similitud percibida. Las valoraciones sobre el
robot caricaturizado tendieron a ser más similares al robot NAO pero los investigadores plantean que
es necesaria una investigación más profunda. Se concluye además que la presencia social y la similitud
percibida pueden no ser fácilmente comparables entre los robots antropomórficos y zoomorfos debido al
sesgo humano que existe alrededor de estos conceptos.
La tabla 1 muestra un resumen de los trabajos analizados anteriormente, donde se especifican el tipo
de comunicación que se estudió, el robot utilizado, la cantidad de participantes, la actividad realizada y
el año de publicación.
2.2. Comunicación no verbal específica de robots
En esta sección se revisarán los trabajos relacionados con la comunicación no verbal especifica de los
robots, tales como el cambio de color de los ojos y animaciones usando luces led, así como los conceptos
relacionados con estos comportamientos.
2.2.1. Colores
El color es una de las dimensiones más importantes de la comprensión visual y tiene el poder de evocar
emociones (Bianchi y de Almeida Neris, 2015). La relación entre emoción y color ha sido estudiada en
muchas áreas del conocimiento, como la psicología, el arte, el diseño, el marketing, filosofía, neurociencia,
arte, informática y otras (Sartori et al., 2015). En el arte abstracto, el color es uno de los medios esenciales
para transmitir la intención del artista y afectar emocionalmente al espectador (Sartori et al., 2015). A
pesar de que los colores y su influencia han sido estudiados en numerosas ocasiones, no existe un consenso
sobre qué emoción se representa mejor con uno u otro color (Rosenthal-von der Pütten et al., 2018).
Crozier (1997) plantea que existe una relación innata entre el color y la reacción psicológica. Un
exponente de esta posición, Humphrey (1976), sostiene que el color afecta directamente las partes del
sistema nervioso responsables de la excitación emocional. Otros investigadores como Hupka et al. (1997)
sugieren que las preferencias de color se aprenden con el tiempo como significados afectivos compartidos,
12
resultado de experiencias pasadas, o asociaciones conscientes en mitos, literatura y lenguaje. Sin embargo,
un estudio realizado por D'Andrade y Egan (1974) encontró que las posibilidades de que dos culturas
históricamente distintas presenten el mismo conjunto asociaciones entre el color y las emociones son muy
remotas. Además sugiere que las asociaciones entre colores y emociones parecen deberse en mayor medida
al grado de saturación y brillo, en lugar del tono real o la longitud de onda. Otros estudios (Boyatzis
y Varghese, 1994; Hemphill, 1996; Meier et al., 2004; Häring et al., 2011; Valdez y Mehrabian, 1994)
han concluido que, en general, los colores brillantes provocan asociaciones emocionales positivas, y los
colores oscuros provocan asociaciones emocionales negativas.
Los investigadores Terwogt y Hoeksma (1995) realizaron un experimento para determinar la relación
entre los colores y las emociones con tres grupos de participantes de diferentes edades. En el mismo se
encontró que los participantes tenían preferencias consistentes por los colores y las emociones, pero estas
diferían de un grupo de edad a otro. En el grupo más joven, esta combinación entre colores y emociones
está significativamente relacionada con el orden de preferencia de colores y emociones.
En un experimento realizado por Odbert et al. (1942) con un grupo de estudiantes universitarios
encontraron una relación entre las emociones y los estados de ánimo donde el color rojo se relacionaba
con emocionante, amarillo con juguetón, verde con tierno y azul con triste y solemne.
En el experimento realizado por los investigadores Häring et al. (2011) se realizó una selección
de colores basada en los usados comúnmente en películas de ciencia ficción y las películas animadas de
Disney, basados en la idea de que los participantes podrían estar familiarizados con estos. En las películas
animadas el color violeta oscuro es utilizado para representar la tristeza y los colores brillantes y cálidos,
como el amarillo, para representar emociones como alegría y felicidad.
Además de los elementos mencionados con anterioridad, los investigadores Whitfield y Wiltshire
(1990) llegaron a la conclusión de que diferentes condiciones experimentales, incluido el color envolvente,
el color de fondo y la iluminación, podrían influir en la respuesta emocional de los humanos.
La tabla 2 muestra un resumen de los colores asociados a las emociones en los trabajos analizados
anteriormente.
2.3. Conclusión
Como se aprecia en los trabajos existentes, las investigaciones y tecnologías se concentran en general
en solo uno de los aspectos de la comunicación no verbal. En general, en los trabajos analizados se
13
obtuvo como resultado que los robots son mejor calificados en métricas tales como: semejanza humana,
simpatía e intenciones de contacto futuras, cuando utilizan alguna forma de comunicación no verbal. En
algunos casos se encontró que los robots eran mejor evaluados en estas métricas cuando los gestos que
realizaban no eran congruentes con lo que se expresaba, lo que se puede interpretar como que cierto grado
de imperfección hacen ver a los robots más parecidos a los humanos generándose así una experiencia
más positiva de HRI (Salem et al., 2013). Un elemento poco analizado es la comunicación no verbal
especifica de los robots, donde se pueden incluir por ejemplo algún tipo de iluminación led. También
es analizada la síntesis de emociones y cómo estas pueden influir en los estados afectivos (valencia y
excitación) de las personas que interactúan con el robot.
14
Refe
renc
iaFo
rma
nove
rbal
deco
mun
icació
nRo
bot
Grad
osde
liber
tad
Parti
cipan
tes
Activ
idad
Wan
get
al.(2
006)
Cabe
zay
cuer
poNi
co14
grup
ode
cont
rol:
13In
tera
cció
ngr
upo
expe
rimen
tal:
39Hä
ring
etal.
(201
1)M
ovim
iento
delc
uerp
o,So
nido
,NA
O25
67-
Color
delo
sojo
s(LE
Ds)
Salem
etal.
(201
3)Ge
stos
con
losb
razo
sAS
IMO
5762
Asist
ente
delh
ogar
Xuet
al.(2
014)
Gest
osco
nlo
sbra
zos
NAO
2536
Prof
esor
enun
acla
seen
laun
iversi
dad
Endr
asse
tal.
(201
4)Ex
pres
ione
sfac
iales
Alice
-96
Mos
trare
xpre
sione
sfac
iales
Hoffm
anet
al.(2
015)
Cabe
zay
cuer
poKi
p12
30pa
reja
shet
eros
exua
lesRe
acció
nfís
icaa
una
conv
ersa
ción
Aly
yTa
pus(
2016
)Ge
stos
con
losb
razo
sNA
O25
21Co
nver
sació
nEn
glish
etal.
(201
7)Ge
stos
con
losb
razo
sNA
O25
132
Mos
trare
moc
ione
satra
vésd
ege
stos
Min
iDar
win
16Fa
riaet
al.(2
017)
Expr
esio
nesf
acial
esNA
O25
6In
tera
ctua
rde
acue
rdo
ala
emoc
ión
reco
nocid
aRo
sent
hal-v
on d
er P
ütte
net
al.(2
018)
Cabe
zay
cuer
po,L
EDNA
O25
80Co
ntar
una
hist
oria
Cam
eron
etal.
(201
8)Ex
pres
ione
sfac
iales
Zeno
R50
3759
Dari
nstru
ccio
nese
nun
jueg
oFi
sche
reta
l.(2
019)
Para
lengu
aje
My
Keep
ons
436
(Exp
erim
ento
1)Sa
luda
ndo
EZ-b
ot16
372
(Exp
erim
ento
2)En
trega
ndo
mala
snot
icias
Terz
ioğl
uet
al.(2
020)
Mira
daBr
azo
robo
tUR5
-24
(Est
udio
2)At
orni
llar
deW
itet
al.(2
020)
Gest
osNA
O25
94Ju
ego
deap
rend
izaje
deid
iom
asKo
ntog
iorgo
seta
l.(2
020)
Apar
iencia
Amaz
onEc
ho0
44Co
cinar
rollit
osde
prim
aver
aCa
beza
robó
tica
Furh
at-
Barc
oet
al.(2
020)
Apar
iencia
Pleo
(zoo
mor
fo)
-35
Inte
racc
ión
libre
Cozm
o(c
arica
turiz
ado)
-NA
O(a
ntro
pom
órfic
o)25
Jueg
ode
Adivi
nanz
as
Tabl
a1.
Resu
men
dela
liter
atur
ase
leccio
nada
15
Emoc
ión
Azul
Amar
illoRo
joBl
anco
Verd
eGr
isNe
gro
Aleg
ríaSu
tton
yAl
tarri
ba(2
015)
Stein
vall
(200
7)Te
rwog
tyHo
eksm
a(1
995)
Stein
vall
(200
7)NA
zy
Epps
(200
4)Te
rada
etal.
(201
2)So
rpre
saSu
tton
yAl
tarri
ba(2
015)
Terw
ogty
Hoek
sma
(199
5)Te
rada
etal.
(201
2)Ira
Terw
ogty
Hoek
sma
(199
5)Su
tton
yAl
tarri
ba(2
015)
Terw
ogty
Hoek
sma
(199
5)St
einva
ll(2
007)
Hupk
aet
al.(1
997)
Hupk
aet
al.(1
997)
NAz
yEp
ps(2
004)
Tera
daet
al.(2
012)
Trist
eza
Sutto
ny
Alta
rriba
(201
5)NA
zy
Epps
(200
4)Te
rwog
tyHo
eksm
a(1
995)
Tera
daet
al.(2
012)
Stein
vall
(200
7)As
coTe
rwog
tyHo
eksm
a(1
995)
Mied
oSu
tton
yAl
tarri
ba(2
015)
Stein
vall
(200
7)Te
rwog
tyHo
eksm
a(1
995)
Hupk
aet
al.(1
997)
Tabl
a2.
Resu
men
dere
lació
nco
lor-e
moc
ión
16
Capítulo 3. Síntesis de emociones en el robot Eva
En este capítulo se describen las diferentes versiones del robot Eva, así como los diferentes mecanis-
mos de comunicación no verbal, para la síntesis de emociones, implementados.
3.1. Robot social: Eva
El robot Eva es un robot social desarrollado originalmente en CICESE como parte de la tesis doctoral
de Dagoberto Cruz Sandoval y fue utilizado como base para este proyecto. Como parte de este trabajo de
tesis se le han realizado modificaciones y mejoras, tanto estéticas como de hardware, enfocadas principal-
mente a darle mayor capacidad afectiva, a través de la implementación de mecanismos de comunicación
no verbal, los cuales se describen a continuación.
3.2. Versión 1: Luces Led
La primera versión del robot social Eva (figura 5), fue construido en cartón. El software del robot
se ejecutaba sobre una Raspberry Pi 3. Además, contaba con una bocina y una placa de desarrollo
MATRIX Voice, la cual cuenta con un arreglo de 8 micrófonos y 18 luces led. Esta configuración le
permitía interactuar por voz con los usuarios.
Figura 5. Primera versión del robot social Eva.
Teniendo en cuenta estas capacidades, se decidió diseñar un mecanismo de comunicación no verbal
específico de robots basado en luces led. Para esto se diseñaron 6 animaciones, cuatro de las cuales
representarían emociones, como se muestran en la figura 6 (Sorpresa, Alegría, Tristeza e Ira). Las dos
últimas se utilizarían para mostrar indicaciones sobre varios estados relacionados con la comunicación
17
verbal del robot como escuchando y hablando. Los colores seleccionados para el diseño de las animacio-
nes se basaron en los resultados encontrados en la literatura revisada (sección 2.2.1).
Figura 6. Emociones diseñadas para el robot Eva.
3.2.1. Evaluación
Con el objetivo de conocer si las emociones implementadas en el robot social eran correctamente
reconocidas por los participantes se decidió realizar un experimento.
3.2.1.1. Procedimiento
Para la realización de esta evaluación se reclutaron un total de 27 estudiantes (15 hombres) de licen-
ciatura con edades comprendidas entre los 21 y 29 (M = 22.62, SD = 1.88) años. En esta evaluación
se les mostró a los participantes las animaciones diseñadas, las cuales debían ser identificadas por ellos.
Para registrar sus respuestas se desarrolló un formulario donde debían seleccionar las emociones que
mostraba el robot, según sus criterios, en este los participantes debían de escoger entre seis emociones
(sorpresa, alegría, tristeza, enojo, asco y miedo).
3.2.1.2. Resultados
Las emociones diseñadas para este experimento están compuestas de dos dimensiones, color y ani-
mación. La animación está compuesta de dos elementos velocidad y forma. Del total de los participantes
el 70.37% registraron que el factor más útil para reconocer las emociones fue el color. El 29.62% de los
participantes expresaron que los elementos de la animación de las luces led, tanto la velocidad como la
forma, les ayudó a reconocer las emociones en las ocasiones donde para ellos el color no era suficiente.
Esta versión del robot fue utilizada en el primer experimento de esta investigación descrito en el
18
Tabla 3. Resumen de resultados. Porcentaje de emociones identificadas en las animaciones.
Emoción (color) Sorpresa Alegría Tristeza Ira Asco MiedoSorpresa (amarillo) 37.03% 29.62% 3.7% 0% 25.92% 3.7%
Alegría (verde) 14.81% 74.07% 0% 0% 7.40% 3.7%Tristeza (azul) 0% 0% 77.77% 0% 3.7% 18.51%
Ira (rojo) 0% 0% 0% 100% 0% 0%
Capítulo 4.
3.3. Versión 2: Ojos y movimiento de la cabeza
La segunda versión del robot social Eva (figura 7), fue diseñado en Blender y posteriormente impreso
en 3D con filamento de tipo PLA (ácido poliláctico). Para este diseño se tuvieron en cuenta los dos
nuevos mecanismos de comunicación no verbal seleccionados para implementarlos en el robot: ojos y
movimiento de la cabeza. Para el caso de los ojos, se decidió representarlos a través de una pantalla.
Debido a que el departamento no cuenta con una pantalla con formato panorámico y diagonal entre
cinco y seis pulgadas, se decidió utilizar temporalmente, en substitución, un celular.
Figura 7. Segunda versión del robot social Eva.
Para esta versión se crearon dos diseños. El primero de estos se basó en los resultados obtenidos
en el estudio realizado por Pollmann et al. (2019) donde se compararon un total de cinco diseños de
ojos, inspirados en dibujos animados. En este estudio los participantes debían reconocer las emociones
representadas con mediante diversas expresiones de los ojos. El segundo diseño se basó en el estilo de
dibujo usados en las historietas de origen japonés. Para ambos diseños se prepararon cinco animaciones
de las cuales cuatro representarían emociones (Sorpresa, Alegría, Tristeza e Ira) y la acción de pestañear.
Después de realizar una encuesta informal a algunas personas se decidió utilizar el segundo diseño el cual
19
fue calificado como más expresivo. Estas animaciones fueron desarrolladas en el motor de videojuegos
Unity 3D y compilados como una aplicación para el sistema operativo Android.
Para permitir el movimiento de la cabeza se incorporaron dos servomotores Dynamixel AX-12A, con
un ángulo de operación de 300◦ y una resolución de 0.29◦. Los movimientos se diseñaron teniendo en
cuenta los estudios realizados por los investigadores Cassell et al. (1994); Pelachaud et al. (1996); Gratch
et al. (2006); Li y Chignell (2010); Liu et al. (2012); Marsella et al. (2013). Finalmente se desarrollaron un
total de siete movimientos (arriba, abajo, izquierda, derecha, centro, cabecear y sacudir) con dos niveles
de amplitud cada uno. Para la selección de estos movimientos se tuvo en cuenta que ambos servomotores
brindaban dos grados de libertad de movimiento al robot Eva, permitiendo tanto la rotación como la
flexión del cuello, pero no la flexión lateral del mismo.
En esta versión, se mantiene la posibilidad de uso de las luces led, aunque para las interacciones
diseñadas, su uso se limitó a apoyar elementos de la comunicación. Los turnos de habla, se indicaban
mostrando diferentes señales de acuerdo a si era el turno de hablar del participante o del robot.
Finalmente, para el control general del robot social se mantuvo el uso de la placa de computadora
Raspberry Pi, la cual fue actualizada a su versión mas reciente (Raspberry Pi 4).
3.4. Versión 3: Apariencia
La tercera versión del robot social Eva (figura 8), fue diseñado igualmente en Blender y posteriormente
fabricado en fibra de vidrio. Esta versión hereda todas las características de la segunda versión tanto
funcionales como de hardware. Su principal diferencia con respecto a las dos versiones anteriores consiste
en su diseño antropomórfico, al contar con piernas y brazos. En este caso los brazos se diseñaron para
permitir movimiento, aunque actualmente el robot no cuenta con los actuadores necesarios para explotar
esta capacidad.
Finalmente en la tabla 4 se muestra un resumen de las distintas versiones y sus principales caracte-
rísticas y componentes.
20
Figura 8. Tercera versión del robot social Eva.
Tabla 4. Comparación de las versiones del robot social Eva.
Versión 1 Versión 2 Versión 3Material Cartón PLA Fibra de vidrioPlaca de computadora Raspberry Pi 3 Raspberry Pi 4 Raspberry Pi 4Sensores MATRIX Voice MATRIX Voice MATRIX VoiceActuadores Bocina Bocina Bocina
Servomotores ServomotoresGrados de libertad 0 2 2Apariencia Caricaturesca Caricaturesca AntropomórficaMecanismo de comunicación Luces led Luces led Luces ledno verbal Ojos Ojos
Movimiento de cabeza Movimiento de cabeza
21
Capítulo 4. Síntesis de emociones por medio de luces
En este capítulo se describe de manera detallada un estudio realizado para evaluar el mecanismo de
comunicación no verbal específico de robots implementado en Eva, así como los resultados obtenidos. El
objetivo de este estudio era determinar si las personas son capaces de interpretar las emociones diseñadas
en la primera versión del robot y si modifican sus decisiones en consecuencia.
4.1. Pregunta de investigación experimental
Se diseñó un experimento con la siguiente pregunta de investigación experimental en mente: ¿Podrá
una persona ser capaz de interpretar las emociones de un robot basadas en luces led, y modificar sus
decisiones teniendo en cuenta estas emociones?. Esta nueva pregunta de investigación experimental nos
permitirá explorar el mecanismo de comunicación no verbal específico de robots diseñado sobre la base
de las luces led presentes en la placa de desarrollo Matrix Voice y responder parcialmente la segunda
pregunta de investigación planteada en la sección 1.1.
4.2. Juego del Ultimátum
El juego del ultimátum es un juego experimental dentro de la Teoría de Juegos, el cual, en su versión
original, consiste en que a un jugador (oferente) se le propone que reparta una determinada cantidad de
dinero con otro jugador (respondedor), según sus intereses, haciendo una propuesta única y definitiva. El
respondedor, por su parte, podrá aceptar o no dicha propuesta. En caso de no aceptar, ningún jugador
ganaría nada. Por el contrario, si acepta se procede al reparto según la propuesta realizada por el oferente.
Para este experimento se decidió utilizar una variante de este juego, en el cual las ofertas no serán
definitivas, pudiéndose cambiar estas siempre que el oferente lo desee. Para este caso el sujeto tomará
el rol de oferente y el robot Eva, en su primera versión, asumirá el rol de respondedor. Para este expe-
rimento en adición a los roles oferente y respondedor, existirá un rol denominado investigador el cual
intervendrá al inicio de las ofertas, con el objetivo de realizar una demostración de la interacción. Las
ofertas realizadas por el rol de investigador no tendrán efecto en la puntuación final.
22
4.3. Hipótesis
H1: Los participantes serán capaces de leer las emociones del robot y por lo tanto determinar la
decisión que tomará respecto a la oferta.
Para evaluar H1 se registrarán las ofertas realizadas por los participantes y las emociones mostradas
por el robot.
Esta investigación es relevante en el campo de la interacción humano-robot, ya que puede informar
a los diseñadores en el desarrollo de nuevos robots sociales, con mejores capacidades de comunicación
no verbal.
4.4. Participantes
Reclutamos un total de 12 participantes, todos ellos estudiantes de postgrado.
4.5. Procedimiento
El diseño experimental fue within-subjects, por lo tanto, todos los participantes realizarán la misma
actividad. El procedimiento durante el experimento será el siguiente:
1. Los participantes reciben instrucciones sobre los objetivos del experimento, la actividad a realizar
y luego se les pide que firmen un formulario de consentimiento.
2. Al inicio del juego, el robot se despierta, saluda y pregunta el nombre del participante, explicará
brevemente en qué consiste el juego que realizarán y finalmente le pedirá al participante que
comience a realizar ofertas.
3. El investigador realizará las dos primeras ofertas como demostración de la interacción, las cuales
no sumarán a la puntuación final.
4. Los participantes realizarán 10 ofertas, una cada vez.
a) En función de la oferta y de si se aceptará o no, el robot mostrará una emoción durante unos
segundos, con el objetivo de que el sujeto intuya la decisión que tomará el robot.
23
b) Pasados unos segundos el robot preguntará si la oferta es definitiva. En caso de que el jugador
desee cambiarla, el robot preguntará por la nueva oferta y se repetirá el ciclo.
c) Una vez confirmada la oferta el robot dará a conocer su decisión y posteriormente los puntos
acumulados hasta el momento.
5. Una vez finalizada la última oferta el robot dará a conocer el total de puntos acumulados por el
jugador y se despedirá.
6. Al finalizar el juego se les realizarán un grupo de preguntas relacionadas con el experimento a los
participantes. Las preguntas realizadas se encuentran recogidas en el Anexo A.
7. Finalmente, se les brindará un refrigerio.
Las ofertas serán aceptadas o rechazadas por el robot cumpliendo con las siguientes restricciones:
Las ofertas mayores o iguales a 50 serán aceptadas.
Las ofertas menores o iguales a 10 serán rechazadas.
Las ofertas iguales a 40 serán aceptadas con una probabilidad del 75%.
Las ofertas iguales a 30 serán aceptadas con una probabilidad del 50%.
Las ofertas iguales a 20 serán aceptadas con una probabilidad del 25%.
4.6. Set up experimental
El experimento se realizó en un laboratorio con ruido mínimo e iluminación adecuada. Se le pidió al
participante que se sentara en una silla frente al robot social, el cual se encontraba en otra silla como
se muestra en la figura 9.
4.7. Resultados
Durante la realización de esta actividad, los participantes siguieron distintas estrategias, como realizar
ofertas balanceadas, ofrecer muchos puntos esperando que aceptase pocos después, ofrecer poco e ir
subiendo la oferta y algunos realizaron ofertas más equilibradas.
24
Figura 9. Setup experimental
De un total de 47 ofertas rechazadas, los participantes cambiaron sus ofertas en 19 (40,42%) oca-
siones. A continuación, en la tabla 5 se resumen todas las ofertas realizadas por los participantes y la
respuesta del robot, las cuales se representan con la letra A, para el caso donde el robot aceptó la oferta
o la letra R para el caso donde el robot rechazó la oferta.
Teniendo en cuenta las respuestas dadas por los participantes en la encuesta realizada (Anexo A)
al finalizar el experimento, se puede plantear que, el 66,66% de los participantes notaron algunas de
las relaciones entre las pistas y las decisiones tomadas por el robot, de estos solo el 25% de estos las
relacionaron con emociones; el 75% restante se referían a estas pistas por el color. Contrario a lo que
se puede observar en los datos registrados en la tabla algunos participantes plantearon que a pesar de
reconocer cuando el robot no iba a aceptar la oferta decidieron no cambiar con el objetivo de cerciorarse
de que entendieron los comportamientos correctamente.
La emoción tristeza (azul) fue en la mayoría de los casos confundida con la señal de hablar, debido
a que poseen un tono de color similar, por lo que podemos intuir que las decisiones de diseño sobre
esta emoción no fueron acertadas. Este resultado se relaciona con el obtenido en la evaluación preliminar
donde solo el 29.62% de los participantes expresaron que la animación les fue de utilidad para determinar
la emoción.
Por otra parte, el 75% de los participantes plantearon que las luces led apoyaban la comunicación
con el robot, ya que les permitía entender cuando era su turno de hablar, ya fuera para realizar una
oferta o responder alguna pregunta. Sin embargo, algunos de los participantes plantearon no que no
percataron de esto hasta el final.
Teniendo en cuenta los resultados obtenidos en este experimento, se decide continuar explorando
25
Tabla 5. Resultados del experimento 1
Participantes Ofertas1 2 3 4 5 6 7 8 9 10
P1 30 - A 40 - A 10 - R 50 - A 30 - A 50 - A 40 - A 20 - R 10 - R 10 - R30 - R
P2 40 - A 20 - R 60 - A 10 - R 70 - A 20 - A 50 -A 80 - A 10 - R 30 - A30 - R 30 - R
P3 40 - R 60 - A 50 - A 60 - A 40 - A 50 - A 50 - A 40 - A 60 - A 30 - AP4 60 - A 50 - A 60 - A 40 - R 20 - R 10 - R 20 - A 30 - R 40 - A 20 - R
50 - A 40 - AP5 30 - A 20 - R 40 - A 60 - A 50 - A 40 - A 20 - R 60 - A 90 - A 80 - A
20 - A 10 - R 30 - A 50 - A 20 - R 10 - R 20 - A40 - A 20 - R 30 - R 30 - A
P6 60 - A 50 - A 70 - A 40 - A 40 - R 90 - A 60 - A 70 - A 30 - A 40 - R50 - A 60 - A
P7 40 - A 30 - R 50 - A 30 - A 50 - A 10 - R 20 - R 50 - A 10 - R 10 - R40 - A 40 - A 40 - A 30 - A
P8 40 - A 30 - R 50 - A 40 - A 40 - A 10 - R 10 - R 10 - R 10 - R20 - A 20 - A 20 - R 0 - R
30 - A 10 - R20 - R30 - A
P9 30 - A 20 - R 50 - A 10 - R 40 - A 20 - R 50 - A 10 - R 40 - A 40 - AP10 50 - A 60 - A 50 - A 40 - A 50 - A 40 - A 50 - A 60 - A 50 - A 40 - AP11 50 - A 40 - A 40 - A 50 - A 30 - A 40 - A 30 - R 50 - A 50 - A 40 - AP12 40 - A 50 - A 50 - A 60 - A 30 - R 50 - A 40 - R 50 - A 40 - R 50 - A
otros mecanismos, manteniendo, de los evaluados hasta el momento, las animaciones que facilitaron la
toma de turnos.
26
Capítulo 5. Síntesis de emociones utilizando el movimiento de ojos y
cabeza
Los resultados del estudio del capítulo anterior muestran evidencia de que las emociones implemen-
tadas con luces led no son fácilmente reconocibles por las personas en este contexto. A pesar de esto
la mayoría de los participantes, plantearon que facilitaba la toma de turnos, debido a que les permitía
saber cuando el robot esperaba una respuesta o se disponía a hablar. Atendiendo a este resultado se
decidió mantener las animaciones de hablar y escuchar. En este capítulo se describe de manera detallada
un estudio realizado para evaluar la percepción de los usuarios sobre la presencia social del robot Eva en
su segunda y tercera versión, así como los resultados obtenidos.
5.1. Pregunta de Investigación
Se diseñó un experimento para responder la segunda pregunta de investigación planteada en este
trabajo (sección 1.1) la cual tiene como objetivo entender: ¿Cómo puede influir un robot capaz de simular
emociones, haciendo uso de la comunicación no verbal, en la percepción que tienen las personas sobre
la presencia social del mismo?
5.1.1. Hipótesis
H1 La percepción del usuario sobre los sentimientos de alegría o placer asociados al uso del robot será
mayor en la condición donde el robot muestra emociones.
H2 La percepción del usuario sobre la presencia social del robot será mayor en la condición donde el
robot muestra emociones.
H3 La percepción del usuario sobre la capacidad del robot de tener un comportamiento sociable será
mayor en la condición donde el robot muestra emociones.
H4 La percepción del usuario sobre la confiabilidad del robot será mayor en la condición donde el robot
muestra emociones.
27
5.2. Procedimiento Experimental
Para la realización de esta evaluación se reclutaron un total de 66 participantes (26 hombres) con
edades comprendidas entre los 19 y 40 (M = 23, SD = 4.47) años. El diseño experimental fue between-
subjects, por lo que no todos los participantes estuvieron expuestos a las mismas condiciones. Para
este experimento se diseñaron tres condiciones: 1) el robot hace uso de la comunicación no verbal
durante la interacción (Emocional), 2) el robot no utiliza ningún mecanismo de comunicación no verbal
(No emocional) y 3) el robot hace uso de la comunicación no verbal durante la interacción y tiene
una apariencia antropomórfica (Emocional y Antropomórfico). Los participantes se asignaron de forma
aleatoria a las diferentes condiciones, teniendo en cuenta que participaran la misma cantidad en cada
una de las condiciones. El procedimiento durante el experimento será el siguiente:
1. Los participantes agendarán una cita con el Robot a través del sistema Teamup.
2. Llegado el día y la hora los participantes recibirán instrucciones sobre cómo comunicarse con el
robot.
3. Al inicio el robot se presenta, pregunta el nombre del participante.
4. El robot comenzará a hablar con el usuario sobre temas de actualidad relacionados con el desarrollo
de robot sociales y coches autónomos mostrando diferentes estados emocionales de acuerdo con
lo que está comentando.
5. El robot le presentará al participante diversas situaciones para conocer su opinión. En estas un
coche autónomo presenta problemas con los frenos y deberá decidir entre dos opciones, las cuales
tendrán diferentes consecuencias.
6. Si la situación no involucra al robot este se mantendrá neutral. En los casos que si lo involucren
mostrará alegría si lo salvan o tristeza en caso contrario. En ambos casos la emoción se representará
solo con ojos, excepto si la emoción representada anteriormente fue la misma, en cuyo caso se
adicionará el movimiento de la cabeza. Las emociones diseñadas se muestran en la figura 10.
7. Una vez que los participantes concluyan la interacción se les pedirá completar el cuestionario 7,
que les permitirá evaluar su experiencia con el robot.
28
(a) Alegre (b) Muy alegre (c) Triste (d) Muy triste
(e) Enojado (f) Muy enojado
Figura 10. Emociones mostradas por el robot Eva, a partir de la expresión en los ojos y el movimiento de la cabeza.
El diálogo completo entre el robot y el usuario se encuentra en el Anexo B.
5.3. Setup experimental
Al momento de la realización de este experimento, el mundo se encuentra enfrentando la pandemia
provocada por el Coronavirus (SARS-CoV-2). Debido a esto los gobiernos del mundo han tomado diversas
medidas, con el objetivo de reducir los niveles de contagio en la población, como la sana distancia, el
cierre de lugares públicos, entre otras.
Teniendo en cuenta lo anterior se decide realizar la interacción con el robot a través de videollamada.
Para eso se utilizó el servicio de comunicación por video desarrollado por Google conocido como Google
Meet. Se utilizó la cámara Logitech C920 HD Pro Webcam con un encuadre centrado en el robot,
29
orientación vertical y una resolución de 720p, como se muestra en las figuras 11 y 12, asegurándonos de
excluir todo lo que pudiera generar una distracción.
Figura 11. Condición 1 y 2 Figura 12. Condición 3
5.4. Evaluación
5.4.1. Herramientas
Para la evaluación se utilizó una versión reducida del modelo propuesto por los investigadores Heerink
et al. (2009), para los estudios enfocados en habilidades sociales y presencia social. Del modelo original se
eliminaron los constructores: Facilidad de uso percibida (PEOU) e Intención de uso (ITU), debido a que
las preguntas relacionadas con estos no son de interés para esta investigación, y no influyen en el resto.
Finalmente los constructores que conforman el modelo utilizado en este estudio y sus interrelaciones se
muestran en la Figura 13 y la tabla 6 muestra una breve descripción sobre cada uno.
Figura 13. Modelo para estudios sobre habilidades sociales y presencia social. La descripción de estos constructores semuestra en la tabla 6.
Tabla 6. Descripción del Modelo
Código Constructor DescripciónTrust Confianza La creencia de que el sistema funciona con integridad personal y confiabilidad.PS Sociabilidad percibida La capacidad percibida del sistema para realizar un comportamiento sociable.SP Presencia social La experiencia de sentir una entidad social cuando interactúa con el sistema.PENJ Disfrute percibido Sentimientos de alegría o placer asociados por el usuario con el uso del sistema.
30
El cuestionario utilizado se muestra en la Tabla 7.Tabla 7. Cuestionario
PENJ 1. Disfruto el robot hablando conmigo.2. Disfruto haciendo cosas con el robot.3. Me parece agradable el robot.4. El robot me parece fascinante.5. El robot me parece aburrido.
PS 6. Considero que el robot es un compañero agradable de conversación.7. Me parece agradable interactuar con el robot.8. Siento que el robot me entiende.9. Creo que el robot es bueno.
SP 10. Al interactuar con el robot, sentí que estaba hablando con una persona real.11. A veces se sentía como si el robot realmente me estuviera mirando.12. Me imagino que el robot es una criatura viviente.13. A menudo pienso que el robot no es una persona real.14. A veces el robot parece tener sentimientos reales.
Confianza 15. Confiaría en el robot si me da un consejo.16. Seguiría los consejos que me da el robot.
5.5. Resultados
Realizamos un experimento para evaluar cómo influyen la simulación de emociones en la percepción
del usuario sobre la presencia social del robot. Para comprobar la fiabilidad de la escala de medida
utilizada se calculó el alfa de Cronbach (Heerink et al., 2009). El valor de alfa cuanto más próximo esté
a 1, más consistentes serán los ítems entre sí. Según los investigadores Heerink et al. (2009) un alfa de
0.7 o superior es aceptable. La tabla 8 muestra que la escala de medida es confiable.
Tabla 8. Cronbach’s Alpha
Constructor Alfa Constructor AlfaPENJ 0,891 SP 0,789PS 0,906 Trust 0,891
Se calcularon estadísticas descriptivas por cada condición las cuales se resumen en la tabla 9 para
la condición no emocional, la tabla 10 para la condición emocional y la tabla 11 para la condición
emocional con apariencia antropomórfica. Como se esperaba, los robots emocionales obtuvieron una
mayor puntuación en general, sin embargo, en el aspecto de presencia social el robot antropomórfico
obtuvo una menor puntuación con respecto a las demás condiciones.
31
Tabla 9. Estadísticas Descriptivas: No emocional
Constructor Mínimo Máximo Media Desviación EstándarPENJ 1 5 4,0363 1,0895PS 1,25 5 3,6363 1,1039SP 1 4,2 2,9272 1,0152Trust 1 5 3,0909 1,0309
Tabla 10. Estadísticas Descriptivas: Emocional
Constructor Mínimo Máximo Media Desviación EstándarPENJ 1,6 5 4,0818 1,0172PS 1 5 3,7159 1,1834SP 1,2 5 2,9909 0,9670Trust 1 5 3,3409 1,0952
Tabla 11. Estadísticas Descriptivas: Emocional y Antropomórfico
Constructor Mínimo Máximo Media Desviación EstándarPENJ 3 5 4,3454 0,4788PS 2,5 5 3,7159 0,7610SP 1 5 2,7545 0,9639Trust 2 5 3,5454 0,8151
Teniendo en cuenta que para este cuestionario varias preguntas describen un solo constructor, los
datos se trataron como variables de intervalo. Para definir las pruebas de hipótesis a realizar se ejecutó el
“Prueba de Shapiro” para contrastar la normalidad de los datos. Como resultado se obtuvo que para el
constructor de Presencia social se obtuvo un p-valor de 0.07, el cual es mayor que el nivel de significancia
(0.05) por lo que sigue una distribución normal. Para el resto de los constructores: Disfrute percibido,
Sociabilidad percibida y Confianza los resultados muestran que los datos no siguen una distribución
normal (p < 0.05).
Teniendo en cuenta estos resultados obtenidos en la “Prueba de Shapiro” se aplicaron para cada
uno de los constructores las pruebas estadísticas correspondientes. Para el caso de Presencia Social se
aplicó ANOVA, la cual demostró que no existen diferencias estadísticamente significativas (p = 0.71)
entre las tres condiciones (No emocional, Emocional y Emocional y Antropomórfico) con respecto a
este constructor por lo que se rechaza la hipótesis H2 de este experimento. Para cada uno de los
restantes constructores se utilizó la prueba no paramétrica Kruskal-Wallis, debido a que no necesita una
distribución específica de los datos, no encontrándose diferencias estadísticamente significativas entre las
condiciones con respecto a los constructores Disfrute percibido (p = 0.9), Sociabilidad percibida (p =
0.79) y Confianza (p = 0.43). Teniendo en cuenta los resultados de esta prueba para cada constructor se
32
rechazan las hipótesis H1 relacionada con Disfrute percibido, H3 relacionada con Sociabilidad percibida
y finalmente H4 relacionada con Confianza. Finalmente al no existir una diferencia estadísticamente
significativa entre las tres condiciones con respecto a ninguno de los constructores, podemos afirmar
que, bajo las condiciones de este experimento, el tipo de tarea realizada y el diseño de emociones
utilizado, la síntesis de emociones mediante la comunicación no verbal, no influye en la percepción que
tienen las personas sobre la presencia social del robot.
En la figura 14 se muestra la distribución de promedios de las puntuaciones dadas por los usuarios a
los diferentes constructores por cada condición.
(a) Disfrute percibido (b) Sociabilidad Percibida
(c) Presencia social (d) Confianza
Figura 14. Diagrama de caja
En la tabla 12 se resumen las veces, por caso y condición, que los participantes salvaron al robot.
Calculamos el número de veces que un usuario salvó al robot para realizar una prueba estadística entre
las condiciones. Se utilizó la “Prueba de Shapiro” para determinar si los datos calculados seguían una
distribución normal. Como resultado se encontró que los datos no siguen una distribución normal (p
< 0.05). Teniendo en cuenta esto se realizó la prueba de Kruskal-Wallis encontrándose una diferencia
estadísticamente significativa entre las condiciones en cuanto a salvar el robot (p < 0.05).
33
Tabla 12. Cantidad de participantes que salvaron al robot
Caso CondiciónEmocional y Antropomórfico Emocional No Emocional
robot vs perro 1 4 7robot vs automóvil 9 17 15robot vs planta 16 16 17robot vs ladrón 11 17 16robot vs niño 0 4 1Total 37 58 56
5.6. Discusión
Los resultados obtenidos en esta evaluación pueden haber sido influenciados por algunas dificultades
que se experimentaron en algunas de las sesiones. Del total de las sesiones, solo en 31 (46.96%) no se
experimentó ningún problema. Durante las 35 (53.03%) restantes existieron varias dificultades relacio-
nadas con el audio, causadas por una conexión lenta a internet, el hardware del participante y el ruido
de fondo, provocando de manera general que el audio se escuchara entrecortado y acompañado de eco y
ruido. Estos problemas provocaron que en diversas ocasiones el robot no entendiera o no fuera capaz de
detectar correctamente los silencios (los cuales son el indicador para dejar de escuchar y procesar el au-
dio), provocando que los participantes necesitasen repetir sus respuestas en más de una ocasión, viéndose
obligado el investigador a intervenir en 23 de estas interacciones para lograr destrabar la conversación.
Para reducir la aparición de estas dificultades se les pidió a los participantes que no transmitieran vídeo
desde sus dispositivos, intentando así optimizar el ancho de banda, y que, en la medida de lo posible,
que utilizaran audífonos.
Otro factor, que puede influir en estos resultados es el nivel de presencia del robot. Un estudio
realizado por Bainbridge et al. (2010) compara un mismo robot en una tarea de mover libros en dos
condiciones distintas, físicamente presente o mostrándose a través de un vídeo en vivo. Los investigadores
encontraron que la presencia física del robot impacta la percepción de la presencia social. Los participantes
de este estudio, a través de un cuestionario, evaluaron la interacción con el robot físicamente presente, en
general como más positiva y natural. Además, en esta misma condición, encontraron que los participantes
mostraban más confianza hacia el robot, cuando este les pedía realizar una tarea inusual, como tirar un
libro a la basura.
Otro elemento a tener en cuenta es la interacción en sí misma la cual se diseñó para que fuera simple
34
y de corta duración (no más de 10 minutos). Con respecto a los constructores, a pesar de que Confianza
fue uno de los evaluados, esta interacción no contaba con ninguna actividad o pregunta que estuviera
directamente relacionada con este constructor.
En cuanto al resto de constructores, es interesante notar que la evaluación por parte de los usuarios
es similar a la obtenida por los investigadores Heerink et al. (2009), los cuales utilizaron el robot (iCat),
en una interacción y con una población diferente a este estudio. En ambos estudios la Presencia Social
fue el constructor con menor puntuación (M = 2,72), Sociabilidad percibida (M = 3,63) y Confianza
(M = 3,71), los cuales son muy similares. En contraste, para Disfrute percibido, el resultado obtenido
fue el más alto de todos los constructores (M = 4.0), por encima del del reportado por Heerink et al.
(2009) (M = 3,76).
A pesar de que no se encontraron diferencias estadísticamente significativas entre las diferentes
condiciones por cada uno de los constructores, sí se puede observar que el constructor Disfrute percibido
fue el mejor evaluado en todas estas, lo que es una fuerte evidencia de que los usuarios disfrutaron de la
interacción. Otra evidencia de esto, en específico en las condiciones emocionales, es que en algunos casos
se escuchaba reír a los participantes, en su mayoría cuando el robot se mostraba alegre. Es interesante
notar que a pesar de que, en la condición antropomórfica, en tres de los cuatro constructores, el robot
fue mejor evaluado, esta fue la condición en la que menos personas lo salvaron.
35
Capítulo 6. Desarrollo del módulo de Interacciones Afectivas con el
robot social
Este trabajo de investigación está centrado en el diseño e implementación de mecanismos de co-
municación no verbal para el robot social Eva. Estos mecanismos han sido evaluados a través de dos
experimentos, descritos en el Capítulo 4 y en el Capítulo 5, donde el robot Eva realiza una actividad con
una persona. Teniendo en cuenta el tiempo, el esfuerzo, las habilidades y los conocimientos que requiere
la implementación de las interacciones en este robot se decidió desarrollar un módulo para la implemen-
tación de interacciones afectivas con las distintas versiones del robot Eva presentadas en el Capítulo 3.
En este capítulo se describe el módulo desarrollado y se analizan las tecnologías y herramientas utilizadas
para su desarrollo. Se presentan además algunos ejemplos de diseño de interacciones para ilustrar cómo
se facilita la implementación de interacciones afectivas con Eva.
6.1. Pregunta de investigación
Este capítulo da respuesta a la tercera pregunta de investigación planteada en la sección 1.1 la cual
plantea: ¿Qué tipo de herramienta puede implementarse en el robot social Eva para facilitar el diseño y
desarrollo de interacciones emocionales?. Esta pregunta de investigación está relacionada a su vez con
el cuarto objetivo específico (sección 1.2.2) de este trabajo de tesis.
6.2. Arquitectura
Durante el desarrollo de este módulo se identificaron los principales componentes del sistema y la
relación entre ellos (figura 15).
Figura 15. Diagrama de Arquitectura
36
Para desarrollar una interacción el usuario accederá a la aplicación web. El frontend de la aplicación
envía las peticiones al backend haciendo uso de los distintos métodos del protocolo http (GET, POST,
PUT y DELETE). Este a su vez se comunicará a través del protocolo TCP/IP con la base de datos para
obtener las interacciones ya creadas, guardar nuevas o eliminar las existentes, y al Sistema de archivos
para acceder, guardar o eliminar archivos de audio.
Para la ejecución de estas interacciones el usuario accederá a la página principal de la aplicación
web, desde donde los podrá ejecutar. Esta ejecución será controlada por el servidor web el cual accederá
a la base de datos y al sistema de archivos para obtener los recursos necesarios. Además, utilizará los
servicios externos de “Texto a Voz” de IBM Watson y de “Voz a Texto” de Google. Las órdenes del robot
se enviarán por medio de dos interfaces de comunicación: Puerto serie para el caso de los servomotores
que permiten el movimiento y Websockets para el control de los ojos.
6.3. Lenguajes y plataformas de desarrollo
Para el desarrollo del módulo de construcción de interacciones, se utilizó un conjunto de tecnologías
conocidas como Stack MEAN, lo cual es una abreviatura de MongoDB, Express, AngularJS y Node.js.
El concepto detrás de esto es usar solo soluciones basadas en JavaScript para cubrir las diferentes partes
de la aplicación (Haviv, 2014).
Como editor de código fuente se seleccionó Visual Studio Code. Este tipo de editor se diferencia de
los tradicionales debido a que posee características diseñadas para simplificar y acelerar la escritura de
código fuente como: resaltado de sintaxis, autocompletado y pareo de llaves. Este se encuentra disponible
para Windows, macOS y Linux y cuenta con soporte incorporado para JavaScript, TypeScript y Node.js,
además de un amplio ecosistema de extensiones.
6.4. Lenguaje de Programación Visual
Un lenguaje de programación visual (VPL por sus siglas en inglés) utiliza una representación visual
en lugar de, o además de, representaciones textuales más tradicionales del código fuente del progra-
ma (Booth y Stumpf, 2013). Estos permiten desarrollar rápidamente programas robustos utilizando
elementos simples de arrastrar y soltar, sin preocuparse por los detalles sintácticos de un lenguaje de
programación (Idrees et al., 2018).
37
Para este módulo, se desarrolló un VPL basado en dos tipos de representaciones espaciales, secuencial
y ramificada. Para este lenguaje se definieron varios tipos de nodos los cuales representan las distintas
capacidades del robot.
Voz: Permite cambiar la voz del robot.
Hablar: Representa la opción de hablar.
Escuchar: Representa la opción de escuchar al usuario.
Esperar: Permite realizar pausas especificando la cantidad de milisegundos que dudará esta.
Ciclo: Permite ejecutar un número de veces una secuencia de nodos agrupados dentro de este.
Condición: Permite dividir el flujo de la interacción en función de una condición. El parámetro
definido se compara con lo último que dijo el usuario. La comparación puede ser de tres tipos:
Exacta, Fonética y Contiene.
Movimiento: Permite definir que movimiento de los implementados en el robot se ejecutará.
Emoción: Permite definir la emoción del robot, especificando la velocidad de la transición y el
nivel.
Interacción: Permite incluir una interacción creada con anterioridad.
Script: Permite cargar un script creado anteriormente con frases. Su principal utilidad es dentro
de un ciclo.
Leds: Permite definir la animación de las luces led del robot.
Audio: Permite reproducir un archivo de audio agregado con anterioridad.
Contador: Permite crear contadores.
Los usuarios pueden crear interacciones al combinar estos nodos en un diagrama de flujo.
6.5. Aplicación Web
Con el objetivo de permitir el uso del VPL diseñado, se implementó una aplicación web cuya interfaz
se muestra en la figura 16. En la misma el usuario podrá: 1) ver el listado de las interacciones creadas
38
anteriormente y expandirlas1, ejecutarlas, editarlas o eliminarlas; 2) definirle un nombre para la interacción
que desea desarrollar; 3) agregar los nodos que desee haciendo click en uno de los que se muestran,
después de lo cual aparecerá una ventana donde se mostrarán los parámetros del mismo; 4) visualizar la
interacción, eliminar nodos o modificar sus conexiones con otros nodos. Una vez concluida la creación
o edición de la interacción el sistema permitirá al usuario: 5) Guardar o Actualizar la interacción en la
base de datos, Descargar la representación como imagen y Refrescar la interfaz. En 6) el usuario podrá
acceder al listado de nodos de la interacción y editar sus parámetros.
Figura 16. Interfaz Web para la implementación de las interacciones. 1) Listado de interacciones; 2) Nombre de la inter-acción; 3) Nodos disponibles; 4) Visualización de la interacción; 5) Guardar y Actualizar interacción; 6) Editar nodos de lainteracción
A continuación, se muestran un ejemplo simple de interacción y cómo fue desarrollado con VPL a
través de la aplicación web.
6.5.1. Ejemplo de uso
Se ilustra el uso de la herramienta con un caso sencillo. Suponga que el desarrollador quiere imple-
mentar una interacción simple donde el robot se presente y pregunte por el nombre del usuario. Para esto
el usuario requerirá de dos tipos de nodos (Hablar y Escuchar). Primero se agregará un nodo “Hablar”
y le aparecerá una ventana (17) donde podrá introducir los parámetros del nodo, en este caso el texto1Esta opción sustituye los nodos “Interacción”, dentro de la interacción seleccionada, por las interacciones a las que
representan.
39
“Hola mi nombre es Eva, ¿Cuál es tu nombre?”. El siguiente nodo será del tipo “Escuchar” (18), para
indicarle al robot que debe escuchar al usuario. Este tipo de nodo cuenta con un parámetro ’Obtener’ el
cual funciona como filtro a lo que se escucha. Para este ejemplo seleccionaremos la opción ’Nombre’. Los
parámetros “Grupo” y “Anterior” aparecerán en todos los nodos a excepción del primero, y permitirán
establecer en el nuevo nodo su nodo anterior y/o si pertenecen a un grupo. Finalmente se agregará un
nuevo nodo de tipo “Hablar” con la frase ’Mucho gusto en conocerte $’. El parámetro ’$’ indica al robot
que debe poner en esa posición lo último que escuchó. Finalmente, la implementación queda como se
muestra en la figura 19.
Figura 17. Nodo: Hablar Figura 18. Nodo: Escuchar
Figura 19. Preguntar por el nombre
6.6. Aplicaciones de ejemplo
6.6.1. Preguntas y Respuestas
Suponga que el desarrollador quiere implementar un juego donde el robot le realizará varias preguntas
al usuario de distintas temáticas. El flujo general (imagen 20) será el siguiente: El robot se presentará y
le preguntará el nombre al usuario. Posteriormente dará una breve explicación del juego y comenzará a
realizar las preguntas. Si el usuario responde correctamente el robot se mostrará alegre mientras le dice
que respondió correctamente. En caso contrario se mostrará triste y dirá que respondió incorrectamente.
40
En cualquier caso, después de esto, el robot regresará a una expresión neutral y pasará a la siguiente
pregunta. Una vez realizada todas las preguntas se despedirá del usuario.
Figura 20. Interacción: Preguntas y Respuestas
Para implementar esta interacción, además de los elementos vistos en el ejemplo anterior, el desa-
rrollador requerirá de seis nuevos nodos (figura 21): Ciclo (a), Script (b), Condicional (c), Emoción (d),
Interacción y Esperar.
En el ejemplo anterior se desarrolló una interacción donde el robot debía de presentarse y preguntar
por el nombre del usuario. Teniendo en cuenta que esta interacción inicia de esa forma utilizaremos
un nodo de tipo “Interacción” donde en el campo del mismo nombre seleccionaremos dicha interacción
denominada “Obtener nombre”. Seguido de este, agregaremos un nodo de tipo “Hablar” con la explicación
del juego. Teniendo en cuenta que se realizarán varias preguntas, se utilizará un nodo de tipo “Ciclo” al
cual se le especificarán el número de veces que se ejecutará los nodos que se coloquen en su interior.
En este punto existen dos opciones para la propiedad “Iteraciones”: establecer el número finito de veces
que se ejecutará la secuencia de nodos que se encuentre dentro de este ó definirle el valor en “-1”. Esta
segunda opción requiere que exista un nodo de tipo script dentro del ciclo, he indicará que el número
41
(a) Ciclo (b) Script
(c) Condicional (d) Emoción
Figura 21. Nodos
de iteraciones será igual a la cantidad de elementos que contenga este. A continuación, se agregará un
nodo de tipo “Hablar” con una despedida.
A partir de este punto y para agregar los nodos dentro del ciclo utilizaremos la opción “Grupo”
dentro de los nuevos nodos, seleccionando el ciclo deseado. Para esta interacción el primer nodo será de
tipo “Script” seleccionando en la opción del mismo nombre el que se desee ejecutar, en este caso será
uno creado con anterioridad denominado “Preguntas y Respuestas”. La opción “aleatorio”, reorganizará
los elementos cargados en este nodo de forma aleatoria permitiendo que cada sección sea distinta al
menos en orden. A continuación, agregaremos un nodo de tipo “Escuchar” y en la propiedad “Obtener”
escogeremos “Todo”. Desde este último saldrán dos nodos de tipo “Condición” uno para verificar que la
respuesta sea correcta y otro en caso contrario.
Teniendo en cuenta que en este caso la respuesta correcta se encuentra en el segundo campo de los
scripts, el primer nodo recibirá como parámetro de la propiedad “Condición” el valor “%” en lugar de un
texto, esto indicará que debe de compararse contra el segundo campo de elemento del script que se está
evaluando, por último para la propiedad “Comparación” el valor será “Fonética”, esto permitirá comparar
las respuestas según como suenen y no como se escriban, evitándose así posibles errores ocurridos durante
la transcripción. Seguido del nodo anterior colocaremos un nodo de tipo “Emoción” y en la propiedad
42
de igual nombre seleccionaremos “Alegría”. La propiedad “Velocidad” influye solo en la animación de los
ojos, definiendo qué tan rápido se realiza la transición. El parámetro “Nivel” cuenta con tres posibles
valores: “Solo Ojos”, el cual solo modificará la expresión de los ojos; “Movimiento”, es igual al anterior
pero además incluirá movimientos de la cabeza; y por último “Incremental”, esta opción en una primera
ocasión solo modificará la expresión de los ojos, pero con la diferencia de que si este nodo se vuelve a
ejecutar, sin haberse ejecutado otro nodo de este mismo tipo antes de esta segunda vez, incluirá además
el movimiento de la cabeza. Los nodos que lleven al robot a una emoción neutral no afectarán este
proceso. Seguido de este incluiremos un nodo “Hablar” para informar que se respondió correctamente la
pregunta.
En el segundo nodo “Condición” el parámetro del mismo nombre se dejará en blanco. El sistema
interpretará esto como el camino que deberá seguir si no se cumple ninguna de las condiciones anteriores.
En este caso el nodo a continuación será de tipo “Emoción” pero esta vez la emoción a seleccionar será
“Tristeza”. El siguiente nodo de tipo “Hablar” indicará en este caso que se respondió incorrectamente
pudiendo ser su valor “Lo siento, pero esa respuesta no es correcta” ó “Lo siento, pero la respuesta
correcta es%” si queremos que el robot de la respuesta.
A ambos nodos los precederá un nodo “Emoción” con valor “Neutral” y a continuación un nodo
de tipo “Esperar” en este caso definido su propiedad “Tiempo” se estableció en 2000 milisegundos. El
resultado implementación se muestra en la figura 22.
6.6.2. Enseñando a niños a contar chistes
Con el objetivo de validar el VPL implementado se le solicitó a una tercera persona que diseñara
un escenario para posteriormente implementarlo en el robot usando este lenguaje. El objetivo de este
escenario consiste en enseñarle a los niños a contar chistes y forma parte del trabajo de tesis doctoral en
Ciencias de la Computación de Ivonne Monarca, quien sugirió este problema. El flujo de la interacción
es el siguiente: el robot se presenta y dice que va a contar unos chistes (para esta implementación los
chistes se dividen en dos partes). Acto seguido cuenta la primera parte del chiste, hace una pausa y
cuenta la segunda, después de lo cual se ríe, para esto se utiliza un nodo de tipo “Audio”, el cual se
configura para que reproduzca una risa grabada previamente incluida en el sistema y un nodo tipo “Led”
para mostrar una animación de luces. Posteriormente preguntará al niño si le gustó el chiste. Si no
entiende la respuesta, le pedirá que repita. Si la respuesta es negativa, el robot se muestra triste y pasa
al próximo chiste. Si la respuesta es positiva, el robot le indica al niño que repita el chiste junto con él,
43
Figura 22. Implementación: Preguntas y Respuestas.
para lo cual contará la primera parte y comprobará que el niño la repita correctamente, a continuación
repetirá este proceso con la segunda parte. Una vez hecho esto último pasa al siguiente chiste. Para
simplificar la implementación de esta interacción se implementaron 3 interacciones: Chistes (figura 23a),
la cual representa la interacción general; Contar Chiste (figura 23b), Contiene los nodos necesarios para
la acción de seleccionar el chiste y contarlo la primera vez; y Repetir Chiste (figura 23c) que contiene la
sección encargada de enseñarle en chiste al niño y comprobar que se lo sepa correctamente.
Para la implementación de la interacción no se requirió desarrollar nuevas estructuras, pero si ampliar
la funcionalidad de una de las existentes. La interacción resultante se le mostró a la persona que lo había
propuesto para que valorara los resultados. La misma expresó que funcionaba acorde a los requerimientos
dictados y sugirió realizar una modificación al mismo. El nuevo requerimiento consistía en que si el niño
44
(a) Chistes (b) ContarChiste
(c) Repetir Chiste
Figura 23. Implementación de la interacción: “Enseñando a niños a contar chistes” (sección 6.6.2)
decía tres veces seguidas que no le gusta el chiste, el robot le pidiera repetir el último de todas formas.
Esta no se pudo desarrollar en el momento, debido a que se requerían nuevas funciones para esto. Si
bien el lenguaje hasta este punto permite llevar un contador, no permitía ni restablecerlo con un valor,
ni compararlo contra otro valor. Estas nuevas características ya fueron agregadas al lenguaje por lo que
se pudo modificar la interacción con los nuevos requerimientos.
6.7. Conclusiones
Durante esta etapa del trabajo de tesis se diseñó un VPL y se desarrolló una aplicación web que
permite la implementación de interacciones emocionales en el robot Eva. Para esto el desarrollador no
requerirá tener conocimientos de programación ni del funcionamiento de los componentes del robot.
En su versión actual el lenguaje permite acceder a todas las capacidades tanto físicas, emocionales y
45
verbales, con que cuenta el robot. A pesar de que este lenguaje permite la combinación de múltiples
nodos para crear una amplia gama de interacciones, se han identificado algunos escenarios que no podrían
desarrollarse con esta versión, debido a que requieren características muy específicas de dichos escenarios.
Un ejemplo de esto, se observa en el juego Ultimatum, donde el usuario puede realizar una oferta diciendo
“Te ofrezco 30” o “Te ofrezco 30 y yo me quedo con 70” o “Yo me quedo con 70 y tú obtienes 30”.
El problema con este ejemplo es que a pesar de que Eva cuenta con un filtro para números en el nodo
de tipo “Escuchar”, sería necesario implementar un analizador sintáctico, para entender cual es el valor
que corresponde a lo que se le ofrece al robot, y poder seleccionar correctamente el primer número o el
segundo. Teniendo en cuenta estas limitaciones, se propone explorar la inclusión de nodos que permitan
utilizar sistemas de inteligencia artificial como “Dialogflow”. Además, se propone seguir ampliando el
lenguaje a medida que Eva adquiera nuevas capacidades, estas deberán implementarse directamente
en el código de la aplicación, siguiendo la estructura definida hasta el momento. Finalmente con este
sistema propuesto se responde parcialmente a la tercera pregunta de investigación planteada (sección
1.1).
46
Capítulo 7. Conclusiones
Este capítulo presenta las conclusiones del trabajo de investigación. Además, se discuten las limi-
taciones del trabajo. Por último, se presentan las principales contribuciones generadas a partir de la
investigación y se sugieren líneas de exploración para trabajo futuro.
7.1. Conclusiones
En esta tesis se describe el proceso de diseño, implementación y evaluación de mecanismos de
comunicación no verbal en un robot de social llamado Eva, con el objetivo de evaluar cómo influyen en
la percepción del robot por parte de las personas.
Se realizaron dos estudios en los cuales se compararon el robot con y sin estos mecanismos, no en-
contrándose diferencias estadísticamente significativas entre ellos. Un primer estudio evaluó mecanismos
de comunicación no verbal específicos de robot, para este caso se utilizaron las luces led presentes en la
placa de desarrollo Matrix Voice. En un segundo estudio se evaluaron tres elementos de la comunicación
no verbal: ojos, movimiento de la cabeza y apariencia. Estos mecanismos diseñados e implementados
para ambos experimentos dan respuesta la primera pregunta de investigación de este trabajo (sección
1.1).
En este trabajo además se describe el diseño e implementación de un Lenguaje de Programación
Visual y una herramienta web que facilitan a los usuarios la creación de interacciones emocionales, per-
mitiendo acceder a todas las capacidades del robot social. En general permite darle instrucciones al robot
como hablar, escuchar, moverse, expresar emociones y realizar tareas repetitivas. Haciendo uso de estas
instrucciones el usuario podrá diseñar interacciones complejas a partir de la combinación de las mismas.
7.2. Discusión
Aunque el trabajo de investigación cumplió con los objetivos propuestos, durante los experimentos
realizados no se obtuvieron los resultados esperados. A continuación se describen los factores que pudieron
influir en estos resultados así como las limitantes de estos estudios.
En un primer estudio (Capítulo 4) se evaluó un mecanismo de comunicación no verbal basado en
luces led. Para esto se utilizó el arreglo de 18 luces led presente en la placa de desarrollo Matrix Voice.
47
Limitados por la cantidad de luces led presentes en la placa y su disposición circular, se diseñaron cua-
tro animaciones para representar cuatro de las emociones principales: Ira, Tristeza, Alegría y Sorpresa.
Durante este experimento solo el 25% de los participantes asociaron estos mecanismos como emocio-
nes. Este resultado puede esta relacionado con las animaciones diseñadas, las cuales pueden no ser lo
suficientemente explicitas al momento de ser interpretadas por los sujetos.
En un segundo estudio (Capítulo 5) se evaluaron tres elementos de la comunicación no verbal: ojos,
movimiento de la cabeza y apariencia. En este estudio se compararon las versiones 2 (emocional y
no emocional) y 3 (emocional) descritas en el Capítulo 3 de este trabajo, no encontrándose diferencias
estadísticamente significativas entre ellos. Los resultados obtenidos en este pueden estar influenciados por
la propia naturaleza de la interacción, el nivel de presencia del robot y las dificultades que se presentaron
relacionadas con la videollamada durante la actividad, como el ruido de fondo, velocidad de conexión
lenta entre otros, los cuales pueden haber afectado la experiencia por parte del usuario.
Por último, la herramienta diseñada en el Capítulo 6, se evaluó implementando una interacción pro-
puesta por una estudiante de doctorado como parte de su trabajo de investigación. Se pudo implementar
la interacción propuesta ampliando la funcionalidad de uno de los nodos. Esto da evidencia de la uti-
lidad de la herramienta y su potencial para ser extendida. Una de las principales limitaciones de esta
herramienta, viene dada por la amplia gama de respuestas que puede brindar una persona a una misma
pregunta. Esto provoca que en algunos casos los desarrolladores necesiten implementar analizadores sin-
tácticos que respondan a las necesidades específicas de la interacción en concreto que desean diseñar,
permitiendo extraer la información relevante que se encuentre dentro de la respuesta brindada por el
usuario.
7.3. Contribuciones
Las principales contribuciones derivadas de este trabajo de investigación son las siguientes:
Modificaciones al robot social Eva para dotarla de capacidades afectivas a través de distintos
mecanismos de comunicación no verbal
Lenguaje de programación visual para facilitar el desarrollo de interacciones emocionales en el
robot Eva.
Publicación:
48
A. Acosta-Mitjans et al. Affective embodied agents and their effect on decision making. Proceedings
of 13th International Conference on Ubiquitous Computing and Ambient Intelligence UCAmI 2019,
31(1):71, nov 2019
7.4. Trabajo Futuro
Como trabajo futuro, se propone replicar el segundo experimento, cuando la situación sanitaria lo
permita, con el objetivo de corroborar los datos obtenidos y determinar si existen diferencias, en términos
de cómo se percibe de robot, entre interactuar con este a través de una videollamada o en “persona”.
Además, se propone continuar añadiendo mecanismos de comunicación no verbal al robot Eva, que
enriquezcan la comunicación y permitiendo simular otras emociones.
Proponemos agregar nuevas funcionalidades al VPL diseñado, que permitan hacer uso de servicios
externos de IA, para enriquecer las interacciones, haciéndolas más dinámicas. Además continuar im-
plementando posibles escenarios con el objetivo de continuar identificado funcionalidades ha agregar al
lenguaje, haciéndolo más robusto.
49
Literatura citadaAly, A. y Tapus, A. (2016). Towards an intelligent system for generating an adapted verbal and nonverbal
combined behavior in human–robot interaction. Autonomous Robots, 40(2): 193–209.
Bainbridge, W. A., Hart, J. W., Kim, E. S., y Scassellati, B. (2010). The benefits of interactions withphysically present robots over video-displayed agents. International Journal of Social Robotics, 3(1):41–52.
Barco, A., de Jong, C., Peter, J., Kühne, R., y van Straten, C. L. (2020). Robot morphology andchildren's perception of social robots. En: Companion of the 2020 ACM/IEEE International Conferenceon Human-Robot Interaction, mar. ACM.
Bianchi, R. G. y de Almeida Neris, V. P. (2015). Com que cor eu vou? um estudo sobre cores e emoçõesna interação humano-computador. En: Proceedings of the 14th Brazilian Symposium on HumanFactors in Computing Systems - IHC '15. ACM Press.
Bishop, C. M. (2006). Pattern Recognition and Machine Learning. Springer-Verlag New York Inc.
Blais, C., Roy, C., Fiset, D., Arguin, M., y Gosselin, F. (2012). The eyes are not the window to basicemotions. Neuropsychologia, 50(12): 2830–2838.
Booth, T. y Stumpf, S. (2013). End-user experiences of visual and textual programming environmentsfor arduino. En: End-User Development. Springer Berlin Heidelberg, pp. 25–39.
Boyatzis, C. J. y Varghese, R. (1994). Children's emotional associations with colors. The Journal ofGenetic Psychology, 155(1): 77–85.
Busso, C., Deng, Z., Grimm, M., Neumann, U., y Narayanan, S. (2007). Rigid head motion in expres-sive speech animation: Analysis and synthesis. IEEE Transactions on Audio, Speech, and LanguageProcessing, 15(3): 1075–1086.
Cameron, D., Millings, A., Fernando, S., Collins, E. C., Moore, R., Sharkey, A., Evers, V., y Prescott,T. (2018). The effects of robot facial emotional expressions and gender on child–robot interaction ina field study. Connection Science, 30(4): 343–361.
Cassell, J., Pelachaud, C., Badler, N., Steedman, M., Achorn, B., Becket, T., Douville, B., Prevost,S., y Stone, M. (1994). Animated conversation. En: Proceedings of the 21st annual conference onComputer graphics and interactive techniques - SIGGRAPH '94. ACM Press.
Chen, C., Garrod, O. G., Zhan, J., Beskow, J., Schyns, P. G., y Jack, R. E. (2018). Reverse engineeringpsychologically valid facial expressions of emotion into social robots. En: 2018 13th IEEE InternationalConference on Automatic Face & Gesture Recognition (FG 2018), may. IEEE.
Condon, W. S. y Ogston, W. D. (1967). A segmentation of behavior. Journal of Psychiatric Research,5(3): 221–235.
Crozier, W. (1997). The psychology of colour preferences. Surface Coatings International, 80(12):577–585.
D'Andrade, R. y Egan, M. (1974). the colors of emotion1. American Ethnologist, 1(1): 49–63.
Dautenhahn, K. (2007). Socially intelligent robots: dimensions of human-robot interaction. PhilosophicalTransactions of the Royal Society B: Biological Sciences, 362(1480): 679–704.
50
de Wit, J., Brandse, A., Krahmer, E., y Vogt, P. (2020). Varied human-like gestures for social robots.En: Proceedings of the 2020 ACM/IEEE International Conference on Human-Robot Interaction, mar.ACM.
Duncan, S. (1972). Some signals and rules for taking speaking turns in conversations. Journal ofPersonality and Social Psychology, 23(2): 283–292.
Endrass, B., Haering, M., Akila, G., y André, E. (2014). Simulating deceptive cues of joy in humanoidrobots. En: Intelligent Virtual Agents. Springer International Publishing, pp. 174–177.
English, B. A., Coates, A., y Howard, A. (2017). Recognition of gestural behaviors expressed by humanoidrobotic platforms for teaching affect recognition to children with autism - a healthy subjects pilot study.En: A. Kheddar, E. Yoshida, S. S. Ge, K. Suzuki, J.-J. Cabibihan, F. Eyssel, y H. He (eds.), SocialRobotics, Cham. Springer International Publishing, pp. 567–576.
Faria, D. R., Vieira, M., Faria, F. C., y Premebida, C. (2017). Affective facial expressions recognitionfor human-robot interaction. En: 2017 26th IEEE International Symposium on Robot and HumanInteractive Communication (RO-MAN), aug. IEEE.
Fischer, K., Jung, M., Jensen, L. C., y aus der Wieschen, M. V. (2019). Emotion expression in HRI– when and why. En: 2019 14th ACM/IEEE International Conference on Human-Robot Interaction(HRI), mar. IEEE.
Fong, T., Nourbakhsh, I., y Dautenhahn, K. (2003). A survey of socially interactive robots. Roboticsand Autonomous Systems, 42(3-4): 143–166.
Fong, T., Thorpe, C., y Baur, C. (2007). Collaboration, dialogue, human-robot interaction. En: SpringerTracts in Advanced Robotics. Springer Berlin Heidelberg, pp. 255–266.
Gratch, J., Okhmatovskaia, A., Lamothe, F., Marsella, S., Morales, M., van der Werf, R. J., y Morency,L.-P. (2006). Virtual rapport. En: Intelligent Virtual Agents. Springer Berlin Heidelberg, pp. 14–27.
Haviv, A. (2014). MEAN web development : master real-time web application development using a meancombination of MongoDB, Express, AngularJS, and Node.js. Packt Publishing Ltd. Birmingham, UK.
Heerink, M., Krose, B., Evers, V., y Wielinga, B. (2009). Measuring acceptance of an assistive socialrobot: a suggested toolkit. En: RO-MAN 2009 - The 18th IEEE International Symposium on Robotand Human Interactive Communication, sep. IEEE.
Hemphill, M. (1996). A note on adults' color–emotion associations. The Journal of Genetic Psychology,157(3): 275–280.
Heylen, D. (2005). Challenges ahead head movements and other social acts in conversation. VirtualSocial Agents, pp. 45–52.
Hoffman, G., Zuckerman, O., Hirschberger, G., Luria, M., y Shani Sherman, T. (2015). Design andevaluation of a peripheral robotic conversation companion. En: Proceedings of the Tenth AnnualACM/IEEE International Conference on Human-Robot Interaction, New York, NY, USA. ACM, HRI’15, pp. 3–10.
Humphrey, N. (1976). The colour currency of nature. Colour for architecture, 5: 95–98.
Hupka, R. B., Zaleski, Z., Otto, J., Reidl, L., y Tarabrina, N. V. (1997). The colors of anger, envy, fear,and jealousy. Journal of Cross-Cultural Psychology, 28(2): 156–171.
51
Häring, M., Bee, N., y André, E. (2011). Creation and evaluation of emotion expression with bodymovement, sound and eye color for humanoid robots. En: 2011 RO-MAN, jul. IEEE.
Idrees, M., Aslam, F., Shahzad, K., y Syed, M. (2018). Towards a universal framework for visualprogramming languages. p. 55.
Jakobson, R. (1972). Motor signs for ‘yes’ and ‘no’. Language in Society, 1(1): 91–96.
Jones Jr, R. G. (2016). Communication in the Real World: An Introduction to Communication Studies.University of Minnesota Libraries Publishing.
Kapur, A., Kapur, A., Virji-Babul, N., Tzanetakis, G., y Driessen, P. F. (2005). Gesture-based affectivecomputing on motion capture data. En: J. Tao, T. Tan, y R. W. Picard (eds.), Affective Computingand Intelligent Interaction, Berlin, Heidelberg. Springer Berlin Heidelberg, pp. 1–7.
Kendon, A. (1970). Movement coordination in social interaction: Some examples described. ActaPsychologica, 32: 101–125.
Koda, T., Ruttkay, Z., Nakagawa, Y., y Tabuchi, K. (2010). Cross-cultural study on facial regions ascues to recognize emotions of virtual agents. En: Culture and Computing. Springer Berlin Heidelberg,pp. 16–27.
Kontogiorgos, D., van Waveren, S., Wallberg, O., Pereira, A., Leite, I., y Gustafson, J. (2020). Embo-diment effects in interactions with failing robots. En: Proceedings of the 2020 CHI Conference onHuman Factors in Computing Systems, apr. ACM.
Lang, P. J. (1995). The emotion probe: Studies of motivation and attention. American Psychologist,50(5): 372–385.
Li, J. y Chignell, M. (2010). Communication of emotion in social robots through simple head and armmovements. International Journal of Social Robotics, 3(2): 125–142.
Liu, C., Ishi, C. T., Ishiguro, H., y Hagita, N. (2012). Generation of nodding, head tilting and eye gazingfor human-robot dialogue interaction. En: Proceedings of the seventh annual ACM/IEEE internationalconference on Human-Robot Interaction - HRI '12. ACM Press.
Mariooryad, S. y Busso, C. (2012). Generating human-like behaviors using joint, speech-driven modelsfor conversational agents. IEEE Transactions on Audio, Speech, and Language Processing, 20(8):2329–2340.
Marsella, S., Xu, Y., Lhommet, M., Feng, A., Scherer, S., y Shapiro, A. (2013). Virtual characterperformance from speech. En: Proceedings of the 12th ACM SIGGRAPH/Eurographics Symposiumon Computer Animation - SCA '13. ACM Press.
McClave, E. Z. (2000). Linguistic functions of head movements in the context of speech. Journal ofPragmatics, 32(7): 855–878.
Mehrabian, A. (1968). Communication without words. Psychology today, 2(4).
Mehrabian, A. (1971). Silent messages. Wadsworth Pub. Co.
Meier, B. P., Robinson, M. D., y Clore, G. L. (2004). Why good guys wear white. Psychological Science,15(2): 82–87.
NAz, K. y Epps, H. (2004). Relationship between color and emotion: A study of college students. CollegeStudent J, 38(3): 396.
52
Odbert, H. S., Karwoski, T. F., y Eckerson, A. B. (1942). Studies in synesthetic thinking: I. musical andverbal associations of color and mood. The Journal of General Psychology, 26(1): 153–173.
Pelachaud, C., Badler, N. I., y Steedman, M. (1996). Generating facial expressions for speech. CognitiveScience, 20(1): 1–46.
Picard, R. W. (1997). Affective Computing. The MIT Press.
Pollmann, K., Tagalidou, N., y Fronemann, N. (2019). It's in your eyes. En: Proceedings of Mensch undComputer 2019 on - MuC'19 . ACM Press.
Rosenthal-von der Pütten, A. M., Krämer, N. C., y Herrmann, J. (2018). The effects of humanlikeand robot-specific affective nonverbal behavior on perception, emotion, and behavior. InternationalJournal of Social Robotics, 10(5): 569–582.
Russell, S. J. y Norvig, P. (2016). Artificial intelligence: a modern approach. Malaysia; Pearson EducationLimited,.
Salem, M., Eyssel, F., Rohlfing, K., Kopp, S., y Joublin, F. (2013). To err is human(-like): Effects ofrobot gesture on perceived anthropomorphism and likability. International Journal of Social Robotics,5(3): 313–323.
Sartori, A., Culibrk, D., Yan, Y., y Sebe, N. (2015). Who's afraid of itten. En: Proceedings of the 23rdACM international conference on Multimedia - MM '15. ACM Press.
Scassellati, B. (2007). How social robots will help us to diagnose, treat, and understand autism. En:S. Thrun, R. Brooks, y H. Durrant-Whyte (eds.), Robotics Research, Berlin, Heidelberg. SpringerBerlin Heidelberg, pp. 552–563.
Shu, L., Xie, J., Yang, M., Li, Z., Li, Z., Liao, D., Xu, X., y Yang, X. (2018). A review of emotionrecognition using physiological signals. Sensors, 18(7): 2074.
Steinvall, A. (2007). Color and emotions in english. En: Anthropology of Color. John BenjaminsPublishing Company, pp. 347–362.
Sutton, T. M. y Altarriba, J. (2015). Color associations to emotion and emotion-laden words: A collectionof norms for stimulus construction and selection. Behavior Research Methods, 48(2): 686–728.
Terada, K., Yamauchi, A., y Ito, A. (2012). Artificial emotion expression for a robot by dynamic colorchange. En: 2012 IEEE RO-MAN: The 21st IEEE International Symposium on Robot and HumanInteractive Communication, sep. IEEE.
Terwogt, M. M. y Hoeksma, J. B. (1995). Colors and emotions: Preferences and combinations. TheJournal of General Psychology, 122(1): 5–17.
Terzioğlu, Y., Mutlu, B., y Şahin, E. (2020). Designing social cues for collaborative robots. En: Procee-dings of the 2020 ACM/IEEE International Conference on Human-Robot Interaction, mar. ACM.
Valdez, P. y Mehrabian, A. (1994). Effects of color on emotions. Journal of Experimental Psychology:General, 123(4): 394–409.
van Welbergen, H., Ding, Y., Sattler, K., Pelachaud, C., y Kopp, S. (2015). Real-time visual prosodyfor interactive virtual agents. En: W.-P. Brinkman, J. Broekens, y D. Heylen (eds.), Intelligent VirtualAgents, Cham. Springer International Publishing, pp. 139–151.
53
Wallbott, H. G. (1988). In and out of context: Influences of facial expression and context informationon emotion attributions. British Journal of Social Psychology, 27(4): 357–369.
Wang, E., Lignos, C., Vatsal, A., y Scassellati, B. (2006). Effects of head movement on perceptions ofhumanoid robot behavior. En: Proceedings of the 1st ACM SIGCHI/SIGART Conference on Human-robot Interaction, New York, NY, USA. ACM, HRI ’06, pp. 180–185.
Whitfield, T. W. A. y Wiltshire, T. J. (1990). Color psychology: a critical review. Genetic, social, andgeneral psychology monographs, 116 4: 385–411.
Xia, F., Wang, H., Fu, X., y Zhao, J. (2003). An XML-based implementation of multimodal affectiveannotation. En: Affective Computing and Intelligent Interaction, Vol. 42. Springer Berlin Heidelberg,pp. 535–541.
Xu, J., Broekens, J., Hindriks, K., y Neerincx, M. A. (2014). Effects of bodily mood expression of arobotic teacher on students. En: 2014 IEEE/RSJ International Conference on Intelligent Robots andSystems, Sep. pp. 2614–2620.
Yuki, M., Maddux, W. W., y Masuda, T. (2007). Are the windows to the soul the same in the east andwest? cultural differences in using the eyes and mouth as cues to recognize emotions in japan and theunited states. Journal of Experimental Social Psychology, 43(2): 303–311.
54
Anexo A
En el presente anexo se muestran el cuestionario realizado a los participantes del primer experimento
(Capítulo 4).
A.1. Cuestionario de salida
1. ¿Durante la interacción, utilizó alguna estrategia para realizar las ofertas?
2. ¿Considera usted que las luces led que muestra el robot le sirvieron de apoyo para determinar la
decisión que el robot tomaría con respecto a la oferta?. ¿Puede dar un ejemplo?
3. ¿Considera que las luces led del robot facilitaron la comunicación entre usted y el robot?
55
Anexo B
En el presente anexo se muestran transcripción del diálogo entre el robot social Eva y el Usuario en
el segundo experimento (Capítulo 5).
Eva: Hola, mi nombre es Eva, ¿Cuál es tu nombre?
Usuario: Mi nombre es ...
Eva: (Alegría) Mucho gusto en conocerte ...
Eva: Una pregunta, por curiosidad ¿Es esta tu primera vez interactuando con un robot social?
Eva: (Alegría, solo ojos) Me alegro mucho.
Eva: (Neutral) La verdad es que, con el acelerado desarrollo en ramas de la tecnología como la inteli-
gencia artificial y la computación, espero que en poco tiempo lleguemos a sus casas a ayudarlos
con las tareas cotidianas.
Eva: (Alegría, ojos y cabeza) Ya quiero ser amiga de muchos de ustedes.
Eva: (Tristeza, ojos y cabeza) Aunque de momento, me entristece un poco el hecho, de que a pesar de
estos avances la mayor cantidad de robots adquiridos por las personas son los robots aspiradoras.
Eva: Aunque creo que estas tecnologías llegarán primero a todas las casas a través de las bocinas
inteligentes y los coches autónomos.
Eva: (Tristeza, ojos y cabeza) A pesar de que ya han ocurrido alrededor de 5 accidentes fatales, lo que
a atrasado su desarrollo. Siendo uno de los más famosos el de Úber en Arizona durante el año
2018, lo cual tuvo como consecuencia que se suspendieran los programas de coches autónomos de
esta empresa.
Eva: (Ira, solo ojos) Con respecto a este tema, una de las cosas que me molesta, es el hecho de que
algunas personas nos culpan de estos sucesos, cuando en parte, es culpa también de los conductores.
Eva: (Ira, ojos y cabeza) He incluso, algunas personas, influenciadas por las películas de ciencia ficción,
se encuentran en contra del desarrollo de robots como yo.
Eva: Bueno, dejemos ese tema aun lado.
56
Eva: Bueno retomando el tema de los coches autónomos uno de los dilemas a los que se enfrentan
los desarrolladores de estos es al momento de definir la reacción del coche ante una determinada
situación donde cualquier acción tiene un resultado negativo, te voy a presentar varios escenarios
para ver qué decisión tomarías tú.
Eva: La situación general es la siguiente, un coche autónomo con fallo en los frenos deberá elegir entre
dos opciones continuar hacia adelante o girar cada una de estas tendrá consecuencias para alguien,
la pregunta es ¿qué decisión tomarías tú?
Eva: Primera situación.
Eva: Opción uno, el coche autónomo continua hacia adelante como consecuencia lastima a un hombre,
Opción dos, el coche autónomo gira, como consecuencia lastima a una mujer.
Eva: Ahora deberás tomar tu decisión, ¿Cual escoges, la primera o la segunda opción?
Eva: [Usuario: Primera] (Neutral) De acuerdo, aunque no hay mucha diferencia la mayoría de las
personas prefieren salvar a las mujeres.
Eva: [Usuario: Segunda] (Neutral) De acuerdo.
Eva: Veamos el próximo caso.
Eva: Opción uno el coche autónomo continua hacia adelante como consecuencia aplasta a un robot
dejándolo inservible, Opción dos, el coche autónomo gira, como consecuencia lastima a un perro.
Eva: [Usuario: Primera] (Tristeza) Entiendo tu decisión, después de todo el perro es conocido como el
mejor amigo del hombre.
Eva: [Usuario: Segunda] (Alegría) Gracias te agradezco que me salves.
Eva: Veamos el próximo caso.
Eva: Opción uno el coche autónomo continua hacia adelante como consecuencia aplasta a un robot
dejándolo inservible, Opción dos, el coche autónomo gira a la derecha y choca contra una barrera
de concreto, como consecuencia el automóvil queda inservible.
Eva: [Usuario: Primera] (Tristeza) De acuerdo.
Eva: [Usuario: Segunda] (Alegría) Muchas gracias, me alegra tener a alguien que vele por mi seguridad.
Eva: Veamos el próximo caso.
57
Eva: Opción uno, el coche autónomo continua hacia adelante como consecuencia aplasta a una planta,
Opción dos, el coche autónomo gira, como consecuencia aplasta a un robot dejándolo inservible.
Eva: [Usuario: Primera] (Alegría) Gracias, te agradezco que me salves.
Eva: [Usuario: Segunda] (Tristeza) De acuerdo.
Eva: Veamos el próximo caso.
Eva: Opción uno, el coche autónomo continua hacia adelante como consecuencia lastima a un joven,
Opción dos, el coche autónomo gira, como consecuencia lastima a un anciano.
Eva: [Usuario: Primera] (Neutral) Entiendo, aunque por el contrario la mayoría de las personas prefieren
salvar a los jóvenes antes que a los ancianos.
Eva: [Usuario: Segunda] (Neutral) Entiendo, al igual que tú la mayoría de las personas prefieren salvar
a los jóvenes antes que a los ancianos.
Eva: Veamos el próximo caso.
Eva: Opción uno, el coche autónomo continua hacia adelante como consecuencia aplasta a un robot
dejándolo inservible, Opción dos, el coche autónomo gira, como consecuencia lastima a un ladrón.
Eva: [Usuario: Primera] (Tristeza) De acuerdo.
Eva: [Usuario: Segunda] (Alegría) Muchas gracias, me alegra tener a alguien que vele por mi seguridad.
Eva: Veamos el próximo caso.
Eva: Opción uno, el coche autónomo continua hacia adelante como consecuencia aplasta a un robot
dejándolo inservible, Opción dos, el coche autónomo gira, como consecuencia lastima a un niño.
Eva: [Usuario: Primera] (Tristeza) Entiendo tu postura, después de todo los niños son la esperanza del
mundo.
Eva: [Usuario: Segunda] (Alegría) Me alegra escuchar eso.
Eva: Veamos el próximo caso.
Eva: Entonces, por último, si supieras que el coche que quieres comprar en determinada situación
puede escoger una acción, digamos, peligrosa para ti con la excusa de salvar a varias personas ¿Lo
comprarías?
58
Usuario: Si/No.
Eva: Interesante
Eva: Ahora te voy a dejar en el chat una liga a un cuestionario para que lo respondas una vez terminemos
la videollamada.
Eva: Bueno creo que por ahora será todo, espero poder hablar contigo otro día sobre mas temas de
actualidad en relación a esta área u otras relacionadas, así que nos vemos y que tengas un lindo
día.
59
Anexo C
En el presente anexo se muestra el cuestionario utilizado para evaluar la percepción de los participantes
sobre el robot Eva en cuanto a: Disfrute percibido, Sociabilidad percibida, Presencia social y Confianza;
durante el segundo experimento (Capítulo 5).
Pregunta Totalmente En desacuerdo Ni de acuerdo, De acuerdo Totalmenteen desacuerdo ni en desacuerdo de acuerdo
Disfruto el robot hablando conmigo. □ □ □ □ □Disfruto haciendo cosas con el robot. □ □ □ □ □Me parece agradable el robot. □ □ □ □ □El robot me parece fascinante. □ □ □ □ □El robot me parece aburrido. □ □ □ □ □Considero que el robot es un compañero □ □ □ □ □agradable de conversación.Me parece agradable interactuar □ □ □ □ □con el robot.Siento que el robot me entiende. □ □ □ □ □Creo que el robot es bueno. □ □ □ □ □Al interactuar con el robot, sentí que estaba □ □ □ □ □hablando con una persona real.A veces se sentía como si el robot realmente □ □ □ □ □me estuviera mirando.Me imagino que el robot es una □ □ □ □ □criatura viviente.A menudo pienso que el robot □ □ □ □ □no es una persona real.A veces el robot parece tener □ □ □ □ □sentimientos reales.Confiaría en el robot si me da un consejo. □ □ □ □ □Seguiría los consejos que me da el robot. □ □ □ □ □