69
Centro de Investigación Científica y de Educación Superior de Ensenada, Baja California MR Maestría en Ciencias en Ciencias de la Computación Cómputo afectivo en interacción humano-robot Tesis para cubrir parcialmente los requisitos necesarios para obtener el grado de Maestro en Ciencias Presenta: Adrian Acosta Mitjans Ensenada, Baja California, México 2020

Maestría en Ciencias en Ciencias de la Computación Cómputo

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Maestría en Ciencias en Ciencias de la Computación Cómputo

Centro de Investigación Científica y de EducaciónSuperior de Ensenada, Baja California

MR

Maestría en Cienciasen Ciencias de la Computación

Cómputo afectivo en interacción humano-robot

Tesis

para cubrir parcialmente los requisitos necesarios para obtener el grado de

Maestro en Ciencias

Presenta:

Adrian Acosta Mitjans

Ensenada, Baja California, México

2020

Page 2: Maestría en Ciencias en Ciencias de la Computación Cómputo

Tesis defendida por

Adrian Acosta Mitjans

y aprobada por el siguiente Comité

Dr. Jesús Favela VaraDirector de tesis

Dr. Irvin Hussein López Nava

Dr. Miguel Ángel Alonso Arévalo

Dr. Israel Marck Martínez PérezCoordinador del Posgrado en Ciencias de la Computación

Dra. Rufina Hernández MartínezDirectora de Estudios de Posgrado

Adrian Acosta Mitjans © 2020

Queda prohibida la reproducción parcial o total de esta obra sin el permiso formal y explícito del autor y director de la tesis

Page 3: Maestría en Ciencias en Ciencias de la Computación Cómputo

ii

Resumen de la tesis que presenta Adrian Acosta Mitjans como requisito parcial para la obtención delgrado de Maestro en Ciencias en Ciencias de la Computación.

Cómputo afectivo en interacción humano-robot

Resumen aprobado por:

Dr. Jesús Favela VaraDirector de tesis

Los robots sociales, en contraste con los robots tradicionales, son capaces de reconocer y respondera las señales sociales humanas con comportamientos apropiados (Scassellati, 2007). Los robots socialescomienzan a utilizarse en escuelas, hospitales y hogares para realizar tareas específicas (Chen et al., 2018).De aquí la importancia de realizar investigaciones dirigidas a mejorar las interacciones entre los humanosy los robots. En esta área, se están realizando estudios para dotar a los robots de capacidades parareconocer y simular estados emocionales mejorando así sus habilidades sociales. Un elemento importantedentro de estas habilidades es la comunicación no verbal, la cual consiste en el proceso de expresarsea través del comportamiento (Jones Jr, 2016), y como este influye en el reconocimiento y síntesis deemociones. En este trabajo se implementaron tres mecanismos de comunicación no verbal para la síntesisde emociones, atendiendo a las capacidades del robot social diseñado. Estos mecanismos se enfocaronen cuatro emociones básicas (Sorpresa, Alegría, Tristeza e Ira). Para evaluar la efectividad de estosdiseños se realizaron dos estudios en los que participantes interactuaron con el robot mediante voz pararealizar una actividad específica. En un primer estudio se evaluaron las capacidades de comunicación noverbal del robot haciendo uso de un arreglo de luces led, y su influencia en la toma de decisiones. En unsegundo estudio se incluyeron los ojos, movimientos de la cabeza y apariencia con el objetivo de medirsu influencia en la percepción del usuario sobre la presencia social del robot. A pesar, de que en ambosestudios no se encontraron diferencias significativas entre las condiciones, los datos obtenidos muestranque el uso de estos mecanismos, hace que sean percibidos como entes sociales. Adicionalmente, sedesarrolló un lenguaje de programación visual, con el cual los usuarios podrán crear nuevas interaccionespara el robot. Este permite a desarrolladores de aplicaciones con robots sociales definir el flujo de lainteracción, y reutilizar las funcionalidades básicas del robot y los mecanismos de comunicación noverbal desarrollados como parte de este trabajo de tesis.

Palabras clave: Robot Sociales, Interacción, Emociones, Toma de desiciones

Page 4: Maestría en Ciencias en Ciencias de la Computación Cómputo

iii

Abstract of the thesis presented by Adrian Acosta Mitjans as a partial requirement to obtain the Masterof Science degree in Computer’s Science.

Affective computation in human-robot interaction

Abstract approved by:

Dr. Jesús Favela VaraThesis Director

Social robots, in contrast to traditional robots, are capable of recognizing and responding to humansocial signals with appropriate behaviors (Scassellati, 2007). Social robots are beginning to be used inschools, hospitals, and homes to perform specific tasks (Chen et al., 2018). Hence the importance ofconducting research aimed at improving interactions between humans and robots. In this area, studiesare being carried out to equip robots with capacities to recognize and simulate emotional states, thusimproving their social skills. An essential component of these skills is non-verbal communication, whichconsists of expressing oneself through behavior (Jones Jr, 2016) and how this influences the recognitionand synthesis of emotions. In this work, three non-verbal communication mechanisms for the emotionsynthesis were implemented, attending to the capabilities of the designed social robot. These mechanismsfocused on four basic emotions (Surprise, Joy, Sadness, and Anger). To evaluate the effectiveness of thesedesigns, two studies were carried out in which the participants interact with the robot by voice. In a firststudy, the robot’s specific non-verbal communication capabilities were evaluated, in this case, using anarrangement of led lights, and its influence on decision-making. In a second study, eyes, head movements,and appearance were included to measure the user’s perception of the robot’s social presence. Eventhough no significant differences were found between the conditions in both studies, the data obtainedshows that the use of these mechanisms allows them to be perceived, to a greater extent, as socialentities. Additionally, a visual programming language was developed, with which users can create newinteractions for the robot. This allows developers of applications with social robots to define the flowof the interaction and reuse the basic functionalities of the robot and the non-verbal communicationmechanisms developed as part of this thesis work.

Keywords: Social Robot, Interaction, Emotions, Decision Making

Page 5: Maestría en Ciencias en Ciencias de la Computación Cómputo

iv

Dedicatoria

A mis padres por todo el apoyo y amor incondicional

que siempre me han dado.

Page 6: Maestría en Ciencias en Ciencias de la Computación Cómputo

v

Agradecimientos

Al Centro de Investigación Científica y de Educación Superior de Ensenada (CICESE), en especial

al Departamento de Ciencias de la Computación, que me acogió para realizar mis estudios de posgrado,

por proporcionar las instalaciones y los medios necesarios para realizar mi investigación.

Al Consejo Nacional de Ciencia y Tecnología (CONACyT) por brindarme el apoyo económico para

realizar mis estudios de maestría. No. de becario: 938971.

A mi director de tesis, Dr. Jesús Favela Vara, por su gran ayuda, orientación y consejos durante todo

este tiempo.

A los miembros de del comité de tesis, el Dr. Irvin Hussein López Nava y el Dr. Miguel Ángel Alonso

Arévalo, por sus comentarios e indicaciones para mejorar mi investigación.

A los profesores del Departamento de Ciencias de la Computación por sus excelentes clases y por el

conocimiento transmitido.

A mis compañeros y amigos de Ciencias de la Computación, en especial a Dagoberto Cruz Sandoval,

por su ayuda durante los cursos y la investigación.

A mi familia y amigos. En especial a mi madre por su apoyo incondicional.

Page 7: Maestría en Ciencias en Ciencias de la Computación Cómputo

vi

Tabla de contenido

Página

Resumen en español . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ii

Resumen en inglés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iii

Dedicatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iv

Agradecimientos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . v

Lista de figuras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . viii

Lista de tablas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ix

Capítulo 1. Introducción1.1. Pregunta de Investigación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.2. Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1.2.1. Objetivo General . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.2.2. Objetivos Específicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1.3. Metodología . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.4. Organización de la tesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

Capítulo 2. Comunicación no verbal en robots sociales2.1. Comunicación no verbal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2.1.1. Brazos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62.1.2. Cabeza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72.1.3. Cuerpo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82.1.4. Expresiones faciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92.1.5. Paralenguaje . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102.1.6. Apariencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2.2. Comunicación no verbal específica de robots . . . . . . . . . . . . . . . . . . . . . . . 112.2.1. Colores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2.3. Conclusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

Capítulo 3. Síntesis de emociones en el robot Eva3.1. Robot social: Eva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163.2. Versión 1: Luces Led . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

3.2.1. Evaluación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173.2.1.1. Procedimiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173.2.1.2. Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

3.3. Versión 2: Ojos y movimiento de la cabeza . . . . . . . . . . . . . . . . . . . . . . . . 183.4. Versión 3: Apariencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

Capítulo 4. Síntesis de emociones por medio de luces4.1. Pregunta de investigación experimental . . . . . . . . . . . . . . . . . . . . . . . . . . 214.2. Juego del Ultimátum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214.3. Hipótesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

Page 8: Maestría en Ciencias en Ciencias de la Computación Cómputo

vii

Tabla de contenido (continuación)

4.4. Participantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224.5. Procedimiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224.6. Set up experimental . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234.7. Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

Capítulo 5. Síntesis de emociones utilizando el movimiento de ojos y cabeza5.1. Pregunta de Investigación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

5.1.1. Hipótesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265.2. Procedimiento Experimental . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275.3. Setup experimental . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285.4. Evaluación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

5.4.1. Herramientas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295.5. Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305.6. Discusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

Capítulo 6. Desarrollo del módulo de Interacciones Afectivas con el robot social6.1. Pregunta de investigación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356.2. Arquitectura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356.3. Lenguajes y plataformas de desarrollo . . . . . . . . . . . . . . . . . . . . . . . . . . . 366.4. Lenguaje de Programación Visual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366.5. Aplicación Web . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

6.5.1. Ejemplo de uso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 386.6. Aplicaciones de ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

6.6.1. Preguntas y Respuestas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 396.6.2. Enseñando a niños a contar chistes . . . . . . . . . . . . . . . . . . . . . . . . 42

6.7. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

Capítulo 7. Conclusiones7.1. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 467.2. Discusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 467.3. Contribuciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 477.4. Trabajo Futuro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

Literatura citada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

Anexo A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

Anexo B . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

Anexo C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

Page 9: Maestría en Ciencias en Ciencias de la Computación Cómputo

viii

Lista de figuras

Figura Página

1. Modelo de espacio emocional en 2D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

2. Etapas de la metodología del trabajo de investigación. . . . . . . . . . . . . . . . . . . . . . 4

3. Robot NAO realizando un gesto de enfado English et al. (2017) . . . . . . . . . . . . . . . 7

4. Robot Mini Darwin realizando un gesto de felicidad English et al. (2017) . . . . . . . . . . 7

5. Primera versión del robot social Eva. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

6. Emociones diseñadas para el robot Eva. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

7. Segunda versión del robot social Eva. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

8. Tercera versión del robot social Eva. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

9. Setup experimental . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

10. Emociones mostradas por el robot Eva, a partir de la expresión en los ojos y el movimientode la cabeza. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

11. Condición 1 y 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

12. Condición 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

13. Modelo para estudios sobre habilidades sociales y presencia social. La descripción de estosconstructores se muestra en la tabla 6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

14. Diagrama de caja . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

15. Diagrama de Arquitectura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

16. Interfaz Web para la implementación de las interacciones. 1) Listado de interacciones;2) Nombre de la interacción; 3) Nodos disponibles; 4) Visualización de la interacción; 5)Guardar y Actualizar interacción; 6) Editar nodos de la interacción . . . . . . . . . . . . . 38

17. Nodo: Hablar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

18. Nodo: Escuchar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

19. Preguntar por el nombre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

20. Interacción: Preguntas y Respuestas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

21. Nodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

22. Implementación: Preguntas y Respuestas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

23. Implementación de la interacción: “Enseñando a niños a contar chistes” (sección 6.6.2) . 44

Page 10: Maestría en Ciencias en Ciencias de la Computación Cómputo

ix

Lista de tablas

Tabla Página

1. Resumen de la literatura seleccionada . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2. Resumen de relación color-emoción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

3. Resumen de resultados. Porcentaje de emociones identificadas en las animaciones. 18

4. Comparación de las versiones del robot social Eva. . . . . . . . . . . . . . . . . . . 20

5. Resultados del experimento 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

6. Descripción del Modelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

7. Cuestionario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

8. Cronbach’s Alpha . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

9. Estadísticas Descriptivas: No emocional . . . . . . . . . . . . . . . . . . . . . . . . . 31

10. Estadísticas Descriptivas: Emocional . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

11. Estadísticas Descriptivas: Emocional y Antropomórfico . . . . . . . . . . . . . . . . . 31

12. Cantidad de participantes que salvaron al robot . . . . . . . . . . . . . . . . . . . . . 33

Page 11: Maestría en Ciencias en Ciencias de la Computación Cómputo

1

Capítulo 1. Introducción

A medida que la tecnología avanza, se va integrando cada vez más en nuestras vidas. Un ejemplo de

esto son los robots sociales, los cuales son agentes encarnados que forman parte de un grupo heterogéneo:

una sociedad de robots y humanos. Estos son capaces de reconocerse mutuamente y participar en

interacciones sociales, percibir e interpretar el mundo en términos de su propia experiencia y comunicarse

y aprender de forma explícita (Fong et al., 2003). Los robots sociales se incluyen dentro del área de

investigación denominada computación afectiva (Picard, 1997), la cual es un área de ciencias de la

computación cuyo objetivo es simular procesos emocionales o hacer uso de las emociones humanas en

la interacción persona-computadora (Xia et al., 2003).

Los robots sociales comenzaron como ciencia ficción pero gradualmente empiezan a utilizarse en

escuelas, hospitales y hogares (Chen et al., 2018). Esto ha sido posible gracias a avances en áreas

tales como la inteligencia artificial (Russell y Norvig, 2016), monitoreo del ambiente, reconocimiento de

patrones (Bishop, 2006) entre otros. Debido al aumento de la interacción de los robots con los humanos

y la necesidad de que esta interacción sea más natural, surge la necesidad de que los robots sean capaces

de mostrar emociones, así como transmitirlas. La investigación en el campo multidisciplinario de la

interacción humano-robot (HRI), el cual estudia a los humanos, robots y las formas en que se influyen

entre sí (Fong et al., 2007), ha explorado las relaciones sociales y funcionales entre humanos y robots en

la intersección de ingeniería, informática, psicología, lingüística, etología y otras disciplinas (Dautenhahn,

2007).

La correcta síntesis de emociones es de suma importancia ya que estas afectan tanto al estado fisio-

lógico como al psicológico de las personas desempeñando un papel muy importante en la vida humana.

Las emociones positivas ayudan a mejorar la salud humana y la eficiencia en el trabajo, mientras que

las emociones negativas pueden causar problemas de salud. La acumulación a largo plazo de emociones

negativas son factores predisponentes para la depresión (Shu et al., 2018).

Las emociones según Lang (1995) pueden ser categorizadas en un espacio 2D por valencia y exci-

tación, como se muestra en la Figura 1. De acuerdo a esta teoría, la valencia varía de desagradable

(negativa) a placentera (positiva), y la excitación varía de pasiva (baja) a activa (alta), lo cual indica

que tan intensamente los seres humanos sienten las emociones.

Una forma de expresar las emociones que sentimos es a través de la comunicación no verbal, la cual,

empleada en un robot puede ser crucial para lograr una mejor relación con los humanos. Este tipo de

Page 12: Maestría en Ciencias en Ciencias de la Computación Cómputo

2

Figura 1. Modelo de espacio emocional en 2D

comunicación incluye la kinésica (gestos, lenguaje corporal, postura, expresión facial, contacto visual),

paralenguaje, proxémica y la cronémica (Jones Jr, 2016). De acuerdo con Mehrabian (1971) las percep-

ciones de las personas sobre un individuo están formadas en un 7% por señales verbales, un 38% por el

tono de su voz y un 55% por sus señales corporales, demostrando así el papel de las señales no verbales

en cómo las personas evalúan a otros en entornos sociales. Es importante tener en cuenta también que

según Wallbott (1988) el comportamiento no verbal es altamente dependiente del contexto. En la actua-

lidad muchos investigadores han centrado sus esfuerzos en realizar avances en esta área, enfocándose en

uno o varios modos de este tipo de comunicación. Dentro de la comunicación no verbal se analizan los

gestos con los brazos (Salem et al., 2013; Aly y Tapus, 2016; Xu et al., 2014; English et al., 2017), movi-

mientos de la cabeza (Wang et al., 2006) y el cuerpo (Hoffman et al., 2015; Rosenthal-von der Pütten

et al., 2018; Kapur et al., 2005), las expresiones faciales (Cameron et al., 2018; Endrass et al., 2014;

Faria et al., 2017) y elementos de comunicación no verbal propios únicamente de los robots como el

cambio de color de los ojos (Häring et al., 2011) y las luces led (Rosenthal-von der Pütten et al., 2018).

1.1. Pregunta de Investigación

De lo anterior surgen las siguientes preguntas de investigación que guiarán este trabajo de tesis:

¿Qué tipo de mecanismos de comunicación no verbal pueden implementarse en el robot social Eva

para comunicar emociones?

¿Cómo puede influir un robot capaz de simular emociones, haciendo uso de la comunicación no

Page 13: Maestría en Ciencias en Ciencias de la Computación Cómputo

3

verbal, en la percepción que tienen las personas sobre la presencia social del mismo?

¿Qué tipo de herramienta puede implementarse en el robot social Eva para facilitar el diseño y desa-

rrollo de interacciones emocionales?

1.2. Objetivos

1.2.1. Objetivo General

Diseñar e implementar mecanismos de simulación de emociones por medio de comunicación no verbal

que enriquezcan la comunicación con el robot.

1.2.2. Objetivos Específicos

Estudiar los distintos tipos de comunicación no verbal y su factibilidad para ser implementadas en

un robot social.

Diseñar e implementar los mecanismos comunicación no verbal en un robot.

Diseña y realizar experimentos, que permitan evaluar el efecto de la simulación de emociones

mediante los mecanismos de comunicación no verbal, implementados en el robot, en la percepción

del usuario sobre el robot social.

Desarrollar un sistema web que permita a los usuarios, sin conocimientos de programación, el

desarrollo de interacciones emocionales en el robot Eva.

1.3. Metodología

La metodología para el desarrollo de esta tesis consta de tres etapas las cuales se describen a

continuación.

La primera etapa de la investigación se enfocó en la revisión de la literatura, para establecer las

motivaciones y oportunidades dentro del campo de la síntesis de emociones y la comunicación no verbal

por parte de un robot. Comprender cómo la síntesis de emociones y la comunicación no verbal pueden

Page 14: Maestría en Ciencias en Ciencias de la Computación Cómputo

4

Figura 2. Etapas de la metodología del trabajo de investigación.

influir en la percepción que tienen los humanos de los robots, permitió detectar posibles escenarios de

interacción entre humanos y robots. Debido a que el enfoque definido para la intervención del robot está

relacionado con la interacción social, la síntesis de emociones y la comunicación no verbal, la revisión de

literatura se enfocó en este tipo de intervenciones.

La segunda etapa de la metodología, se dividió en cuatro subetapas, sobre las cuales se iteró dos veces.

La primera subetapa consistió en seleccionar algunos de los mecanismos de comunicación no verbal para

su implementación en el robot Eva. Estos fueron seleccionados teniendo en cuenta la literatura revisada

y las capacidades del robot social. En la segunda subetapa se diseñaron e implementaron los mecanismos

seleccionados en la subetapa anterior.

En la tercera subetapa se diseñó un experimento con el objetivo de probar los mecanismos propuestos.

Los mismos consistían en realizar una actividad con el robot, donde este último pudiera hacer uso de los

mecanismos implementados. Finalmente, en una cuarta subetapa se realizó el experimento y se analizaron

los datos.

La tercera etapa de la metodología se desarrolló paralelamente a los procesos de la segunda etapa.

En una primera subetapa, y para dar respuesta al segundo objetivo de este trabajo de tesis, se diseñó

un lenguaje de programación visual basado en bloques. En la segunda subetapa se desarrolló un sistema

web que permite la utilización de este lenguaje para la creación de nuevas interacciones emocionales en

el robot.

Page 15: Maestría en Ciencias en Ciencias de la Computación Cómputo

5

1.4. Organización de la tesis

Esta tesis contiene siete capítulos organizados de la siguiente forma:

El Capítulo 2, presenta una introducción a la comunicación no verbal en robots sociales, y algunos

de los problemas abiertos en el área. Se presentan los trabajos de investigación relacionados con la

comunicación no verbal y la síntesis de emociones en robot y la comunicación no verbal específica de

robots.

El Capítulo 3 describe el robot social llamado Eva, así como las modificaciones que se le han realizado

y los diferentes mecanismos de comunicación no verbal implementados como parte de este trabajo de

tesis.

El Capítulo 4 presenta un estudio realizado para evaluar la síntesis de emociones por medio de luces

led en el robot Eva y su impacto en la toma de decisiones.

El Capítulo 5 presenta un estudio realizado para evaluar la síntesis de emociones por medio de los

ojos, el movimiento de la cabeza y la apariencia y su influencia en la percepción de los usuarios sobre la

presencia social del robot social Eva.

El Capítulo 6 presenta un sistema web para el desarrollo de interacciones con el robot socia Eva

utilizando un Lenguaje de Programación Visual diseñado como parte de este trabajo.

Finalmente, el Capítulo 7 presenta las conclusiones, aportaciones y limitaciones del trabajo de tesis.

Además, se expone el trabajo futuro.

Page 16: Maestría en Ciencias en Ciencias de la Computación Cómputo

6

Capítulo 2. Comunicación no verbal en robots sociales

Actualmente existen muchos trabajos que estudian las distintas formas de comunicación en inter-

acción humano-robot. Estas investigaciones se pueden dividir en dos grandes grupos según el tipo de

comunicación que estudian: la comunicación verbal y no verbal.

Para esta revisión de la literatura se analizaron principalmente trabajos relacionados con la síntesis

de emociones en HRI y cómo los humanos perciben los robots que la utilizan. En estos trabajos se tienen

en cuenta algunas de las características de los experimentos realizados en estas investigaciones como el

tipo de robot que utilizan, el número de participantes y el tipo de estudio.

2.1. Comunicación no verbal

En esta sección se revisarán los trabajos relacionados con la comunicación no verbal, organizándolos

por las diferentes áreas del cuerpo en las que se enfocan.

2.1.1. Brazos

Los gestos con los brazos son una forma de transmitir información que los humanos utilizamos en

algunas ocasiones de forma inconsciente. En un estudio realizado por Salem et al. (2013) los participan-

tes lo percibieron como más agradable, informaron una mayor realidad compartida con él y mostraron

mayores intenciones de contacto futuro que cuando el robot dio instrucciones sin gestos, igualmente los

investigadores Aly y Tapus (2016) utilizaron un robot NAO para brindar información sobre un restau-

rante y sus servicios, encontrando que los gestos más dinámicos del robot llevaron a interacciones más

atractivas y una mayor concordancia semántica percibida, efecto que se notó más en los estudiantes con

personalidades extrovertidas que las introvertidas. Un efecto que puede tener este tipo de comunicación

es el conocido como contagio de emoción, Xu et al. (2014) utilizó un robot NAO para impartir una clase

en una universidad a dos grupos con dos estados de ánimos distintos, positivo y negativo. Al terminar

las clases se les pidió a los estudiantes que valoraran su estado de ánimo, el cual fue en general más

alto para los que recibieron la clase con un estado de ánimo positivo. Un elemento que influye en este

tipo de experimentos es la forma física del robot, lo cual se evidencia en la investigación realizada por

English et al. (2017) donde se utiliza un robot NAO (Figura 3) y el Mini Darwin (Figura 4), a los cuales

se les programaron gestos, para enseñar las emociones básicas a niños con autismo, para la validación

Page 17: Maestría en Ciencias en Ciencias de la Computación Cómputo

7

Figura 3. Robot NAO realizando ungesto de enfado English et al. (2017)

Figura 4. Robot Mini Darwin realizando un gestode felicidad English et al. (2017)

del mismo se utilizaron adultos sanos los cuales fueron capaces de reconocer las emociones con un mayor

porcentaje de acierto en el caso del Mini Darwin.

2.1.2. Cabeza

Los movimientos de la cabeza son una parte importante de la comunicación no verbal, facilitando la

comunicación entre las personas no solo al hablar, sino también al escuchar (McClave, 2000). Según los

investigadores Liu et al. (2012) estos movimientos ocurren de forma natural, y pueden ser intencionales

o inconscientes. Durante una conversación estos movimientos se encuentran en sincronía con el habla y

pueden llevar información paralingüística como intensiones, actitudes y emociones. Los estudios realizados

por los investigadores Busso et al. (2007); Mariooryad y Busso (2012); van Welbergen et al. (2015);

Liu et al. (2012) han demostrado que la inclusión de estos mecanismos de comunicación no verbal en

agentes conversacionales ha permitido que sean percibidos como más cálidos, naturales, competentes y

semejantes a los humanos.

Los movimientos primarios de la cabeza son asentir y sacudir. Su uso más obvio según Jakobson

(1972) es mostrar afirmación o negación, aunque también puede señalar interés o impaciencia, mejorar

la atención comunicativa al ocurrir en sincronía con el habla de otra persona (Condon y Ogston, 1967;

Kendon, 1970) o solicitar la toma de turno para hablar (Duncan, 1972). En general, según la investiga-

ción de Heylen (2005), los movimientos de la cabeza poseen al menos 25 roles diferentes durante una

conversación, entre los que se encuentran además de los anteriores: organizar la interacción, mostrar el

Page 18: Maestría en Ciencias en Ciencias de la Computación Cómputo

8

estado de ánimo y expresar el nivel de entendimiento.

2.1.3. Cuerpo

Los movimientos o las poses que realizamos con el cuerpo también son parte de la comunicación no

verbal. Ambas han sido objeto de estudio de varios investigadores con el objetivo de mejorar la comu-

nicación entre humanos y robots. Los investigadores Hoffman et al. (2015) diseñaron e implementaron

un robot al que bautizaron como Kip11 el cual supervisa los aspectos no verbales de una conversación

y responde con gestos en función de las características detectadas en la misma. En este estudio los

investigadores concluyeron que las reacciones del robot a la conversación que tenían las parejas parti-

cipantes, provocaron una atención en la mirada mas no en la comunicación verbal lo que sugiere que

los robots diseñados como compañeros de la interacción humano-humano no comprometen el flujo de

comunicación natural entre las personas. Los participantes en la condición donde el robot reaccionaba a

la conversación lo evaluaron como que tenía más rasgos humanos y por tanto era más similar a ellos lo

que demuestra el potencial que puede tener un robot para lograr empatía.

En un estudio realizado por Rosenthal-von der Pütten et al. (2018) se compararon los movimientos

del cuerpo similares a los humanos y los específicos de los robots (coloreado LED) con un robot NAO, el

cual contaría una historia a los participantes en tres condiciones distintas. Ambos tipos de comunicación

mostraron un efecto en la percepción del robot teniendo menos influencia la comunicación no verbal

del robot. La utilización de ambos tipos de comunicación no mostró una diferencia estadísticamente

significativa con respecto al uso de la comunicación no verbal de los humanos.

Igualmente, los investigadores Häring et al. (2011) compararon elementos de comunicación no verbal

del robot, en este caso el color de los ojos, con gestos del cuerpo y sonidos. El experimento consistía en

que los participantes debían evaluar la expresividad del robot y comunicar la emoción que representaba.

Finalmente, obtuvieron como resultado que los colores de ojos no son un componente confiable para

la expresión emocional debido a que diferentes condiciones de iluminación pueden cambiar significativa-

mente la percepción del color. Solo el color rojo, utilizado para representar ira fue capaz de soportar su

emoción objetivo.

Por otro lado, en la investigación realizada por Wang et al. (2006) se utilizó el robot Nico el cual

interactuaba utilizando cuatro modos de seguimiento con la cabeza (sin seguimiento, seguimiento suave1Empathic Object - Kip1 a robotic conversation companion

Page 19: Maestría en Ciencias en Ciencias de la Computación Cómputo

9

del movimiento, seguimiento rápido y evitación del participante), en este caso los participantes registra-

ron los niveles de alegría más altos en el modo de seguimiento rápido lo que demuestra que los usuarios

pueden preferir un comportamiento exagerado y caricaturizado en un robot en lugar de un comporta-

miento humano realista. Otro estudio de los investigadores de Wit et al. (2020) en el que participaron 94

niños de 4 a 6 años encontraron que el uso de gestos mejoraba el engagement2 entre los niños y el robot.

2.1.4. Expresiones faciales

El reconocimiento de las expresiones faciales ha sido un tema muy estudiado en años recientes.

De acuerdo a Mehrabian (1968) solo el 7% de la información afectiva que transmitimos durante las

interacciones proviene del lenguaje, el 38% es del tono y el 55% es de expresiones faciales. Cameron

et al. (2018) estudió la influencia de las expresiones faciales afectivas reales en el comportamiento

emocional de los niños utilizando el robot humanoide Zeno R50 el cual debía mostrar o no expresiones

faciales apropiadas al contexto durante un juego con los participantes. Como resultado de este trabajo

se encontró que los participantes masculinos mostraron una respuesta afectiva positiva e indicaron una

mayor simpatía hacia el robot en la condición de expresión facial. Sin embargo, las participantes femeninas

no mostraron diferencias significativas entre las dos condiciones. Por otra parte, Endrass et al. (2014)

utilizaron el robot Alice, el cual fue programado con siete sonrisas distintas, seis de estas se hipotetizaron

como engañosas, esperando que se evaluaran con menos nivel de felicidad. Los resultados arrojados en

este experimento mostraron que los participantes se enfocaron más en la región de la boca que en los

ojos.

Estudios transculturales realizados por Koda et al. (2010), comparando países de como Japón y Hun-

gría, y Yuki et al. (2007), comparando Japón y Estados Unidos de América, han demostrado diferencias

culturales en cuanto a qué regiones faciales se utilizan como señales para reconocer las emociones. En

estos estudios se concluyó que para los japoneses pesaban más las señales faciales en las regiones oculares

y para los húngaros y los americanos pesaban más la región de la boca. Los investigadores Terzioğlu

et al. (2020) encontraron que, usando solo señales de mirada, un brazo robótico puede mejorar métricas

como la simpatía y la sociabilidad percibida.

Además, Koda et al. (2010) plantearon que la región de la boca es más efectiva para transmitir

las emociones de las expresiones faciales que la región de los ojos, independientemente del país, lo que

concuerda con los resultados de Blais et al. (2012) los que encontraron que el área de la boca es la más2Se refiere a qué tan involucrado se encuentra un individuo en una determinada actividad

Page 20: Maestría en Ciencias en Ciencias de la Computación Cómputo

10

informativa y que contiene los movimientos más discriminatorios entre las expresiones.

En el caso de los humanos la expresión facial afectiva es una característica clave de la conducta

no verbal y se considera como un síntoma de un estado emocional interno (Faria et al., 2017). En una

investigación realizada por Faria et al. (2017)3 se utilizó un Modelo de Mezcla Bayesiana Dinámico

(DBMM) diseñado para combinar las probabilidades de múltiples clasificadores en una sola forma, para

reconocer emociones a través de expresiones faciales, obteniendo una precisión del 85% en conjuntos de

datos y 80% sobre la marcha durante la interacción humano-robot.

2.1.5. Paralenguaje

El paralenguaje es la forma en la que se expresan las palabras, la acentuación, el volumen, la en-

tonación, la velocidad y el ritmo empleados. Este elemento de la comunicación no verbal también ha

sido estudiado por los investigadores en HRI. Fischer et al. (2019) estudiaron la diferencia en cómo

son percibidos los robots según la pronunciación que realizan. En este trabajo se reporta un primer

estudio del que se obtiene que al saludar de forma afectiva los robots son percibidos como amigables,

atractivos y educados. En un segundo estudio el robot debía dar una mala noticia, en este caso se

evaluaron dos expresiones una neutral y otra emocional. En el caso de la expresión emocional, los par-

ticipantes lo calificaron más alto en relación con la amabilidad, calor, cortesía y compromiso, pero no

se detectaron diferencias significativas entre las dos opciones en cuanto a la formalidad y profesionalidad.

2.1.6. Apariencia

La apariencia física es uno de los componentes principales de la comunicación no verbal. En una

investigación realizada por Kontogiorgos et al. (2020) donde se comparaban dos robots (Amazon Echo

y la cabeza robótica Furhat), los participantes interactuaron con solo un de los robots donde ambos

daban instrucciones para preparar un dulce. Durante esta intervención el robot simularía tener fallas de

diversos tipos. Este experimento encontró que las fallas del robot con una apariencia de bocina (Amazon

Echo) influían negativamente en la intención de uso del mismo frecuentemente, no siendo así para el

robot con apariencia más humana (Furhat), el cual además fue mejor evaluado en términos de inteligencia

percibida y presencia social. Un resultado interesante de esta investigación fue que en casos de fallas más

severas la apariencia más humana del robot Furhat distraía y afectaba la interacción. En otro estudio los3Affective Facial Expression Recognition for Human-Robot Interaction

Page 21: Maestría en Ciencias en Ciencias de la Computación Cómputo

11

investigadores Barco et al. (2020) compararon tres robots con diferentes morfologías: Pleo (zoomorfo),

Cozmo (caricaturizado) y NAO (antropomórfico). En este estudio participaron niños en un rango de

edades entre 7 y 14 años los cuales realizarían una interacción libre con Pleo o Cozmo o jugarían a las

adivinanzas con NAO. En este estudio se concluyó que los robots antropomórficos son mejor evaluados

en términos de su antropomorfismo, presencia social y similitud percibida. Las valoraciones sobre el

robot caricaturizado tendieron a ser más similares al robot NAO pero los investigadores plantean que

es necesaria una investigación más profunda. Se concluye además que la presencia social y la similitud

percibida pueden no ser fácilmente comparables entre los robots antropomórficos y zoomorfos debido al

sesgo humano que existe alrededor de estos conceptos.

La tabla 1 muestra un resumen de los trabajos analizados anteriormente, donde se especifican el tipo

de comunicación que se estudió, el robot utilizado, la cantidad de participantes, la actividad realizada y

el año de publicación.

2.2. Comunicación no verbal específica de robots

En esta sección se revisarán los trabajos relacionados con la comunicación no verbal especifica de los

robots, tales como el cambio de color de los ojos y animaciones usando luces led, así como los conceptos

relacionados con estos comportamientos.

2.2.1. Colores

El color es una de las dimensiones más importantes de la comprensión visual y tiene el poder de evocar

emociones (Bianchi y de Almeida Neris, 2015). La relación entre emoción y color ha sido estudiada en

muchas áreas del conocimiento, como la psicología, el arte, el diseño, el marketing, filosofía, neurociencia,

arte, informática y otras (Sartori et al., 2015). En el arte abstracto, el color es uno de los medios esenciales

para transmitir la intención del artista y afectar emocionalmente al espectador (Sartori et al., 2015). A

pesar de que los colores y su influencia han sido estudiados en numerosas ocasiones, no existe un consenso

sobre qué emoción se representa mejor con uno u otro color (Rosenthal-von der Pütten et al., 2018).

Crozier (1997) plantea que existe una relación innata entre el color y la reacción psicológica. Un

exponente de esta posición, Humphrey (1976), sostiene que el color afecta directamente las partes del

sistema nervioso responsables de la excitación emocional. Otros investigadores como Hupka et al. (1997)

sugieren que las preferencias de color se aprenden con el tiempo como significados afectivos compartidos,

Page 22: Maestría en Ciencias en Ciencias de la Computación Cómputo

12

resultado de experiencias pasadas, o asociaciones conscientes en mitos, literatura y lenguaje. Sin embargo,

un estudio realizado por D'Andrade y Egan (1974) encontró que las posibilidades de que dos culturas

históricamente distintas presenten el mismo conjunto asociaciones entre el color y las emociones son muy

remotas. Además sugiere que las asociaciones entre colores y emociones parecen deberse en mayor medida

al grado de saturación y brillo, en lugar del tono real o la longitud de onda. Otros estudios (Boyatzis

y Varghese, 1994; Hemphill, 1996; Meier et al., 2004; Häring et al., 2011; Valdez y Mehrabian, 1994)

han concluido que, en general, los colores brillantes provocan asociaciones emocionales positivas, y los

colores oscuros provocan asociaciones emocionales negativas.

Los investigadores Terwogt y Hoeksma (1995) realizaron un experimento para determinar la relación

entre los colores y las emociones con tres grupos de participantes de diferentes edades. En el mismo se

encontró que los participantes tenían preferencias consistentes por los colores y las emociones, pero estas

diferían de un grupo de edad a otro. En el grupo más joven, esta combinación entre colores y emociones

está significativamente relacionada con el orden de preferencia de colores y emociones.

En un experimento realizado por Odbert et al. (1942) con un grupo de estudiantes universitarios

encontraron una relación entre las emociones y los estados de ánimo donde el color rojo se relacionaba

con emocionante, amarillo con juguetón, verde con tierno y azul con triste y solemne.

En el experimento realizado por los investigadores Häring et al. (2011) se realizó una selección

de colores basada en los usados comúnmente en películas de ciencia ficción y las películas animadas de

Disney, basados en la idea de que los participantes podrían estar familiarizados con estos. En las películas

animadas el color violeta oscuro es utilizado para representar la tristeza y los colores brillantes y cálidos,

como el amarillo, para representar emociones como alegría y felicidad.

Además de los elementos mencionados con anterioridad, los investigadores Whitfield y Wiltshire

(1990) llegaron a la conclusión de que diferentes condiciones experimentales, incluido el color envolvente,

el color de fondo y la iluminación, podrían influir en la respuesta emocional de los humanos.

La tabla 2 muestra un resumen de los colores asociados a las emociones en los trabajos analizados

anteriormente.

2.3. Conclusión

Como se aprecia en los trabajos existentes, las investigaciones y tecnologías se concentran en general

en solo uno de los aspectos de la comunicación no verbal. En general, en los trabajos analizados se

Page 23: Maestría en Ciencias en Ciencias de la Computación Cómputo

13

obtuvo como resultado que los robots son mejor calificados en métricas tales como: semejanza humana,

simpatía e intenciones de contacto futuras, cuando utilizan alguna forma de comunicación no verbal. En

algunos casos se encontró que los robots eran mejor evaluados en estas métricas cuando los gestos que

realizaban no eran congruentes con lo que se expresaba, lo que se puede interpretar como que cierto grado

de imperfección hacen ver a los robots más parecidos a los humanos generándose así una experiencia

más positiva de HRI (Salem et al., 2013). Un elemento poco analizado es la comunicación no verbal

especifica de los robots, donde se pueden incluir por ejemplo algún tipo de iluminación led. También

es analizada la síntesis de emociones y cómo estas pueden influir en los estados afectivos (valencia y

excitación) de las personas que interactúan con el robot.

Page 24: Maestría en Ciencias en Ciencias de la Computación Cómputo

14

Refe

renc

iaFo

rma

nove

rbal

deco

mun

icació

nRo

bot

Grad

osde

liber

tad

Parti

cipan

tes

Activ

idad

Wan

get

al.(2

006)

Cabe

zay

cuer

poNi

co14

grup

ode

cont

rol:

13In

tera

cció

ngr

upo

expe

rimen

tal:

39Hä

ring

etal.

(201

1)M

ovim

iento

delc

uerp

o,So

nido

,NA

O25

67-

Color

delo

sojo

s(LE

Ds)

Salem

etal.

(201

3)Ge

stos

con

losb

razo

sAS

IMO

5762

Asist

ente

delh

ogar

Xuet

al.(2

014)

Gest

osco

nlo

sbra

zos

NAO

2536

Prof

esor

enun

acla

seen

laun

iversi

dad

Endr

asse

tal.

(201

4)Ex

pres

ione

sfac

iales

Alice

-96

Mos

trare

xpre

sione

sfac

iales

Hoffm

anet

al.(2

015)

Cabe

zay

cuer

poKi

p12

30pa

reja

shet

eros

exua

lesRe

acció

nfís

icaa

una

conv

ersa

ción

Aly

yTa

pus(

2016

)Ge

stos

con

losb

razo

sNA

O25

21Co

nver

sació

nEn

glish

etal.

(201

7)Ge

stos

con

losb

razo

sNA

O25

132

Mos

trare

moc

ione

satra

vésd

ege

stos

Min

iDar

win

16Fa

riaet

al.(2

017)

Expr

esio

nesf

acial

esNA

O25

6In

tera

ctua

rde

acue

rdo

ala

emoc

ión

reco

nocid

aRo

sent

hal-v

on d

er P

ütte

net

al.(2

018)

Cabe

zay

cuer

po,L

EDNA

O25

80Co

ntar

una

hist

oria

Cam

eron

etal.

(201

8)Ex

pres

ione

sfac

iales

Zeno

R50

3759

Dari

nstru

ccio

nese

nun

jueg

oFi

sche

reta

l.(2

019)

Para

lengu

aje

My

Keep

ons

436

(Exp

erim

ento

1)Sa

luda

ndo

EZ-b

ot16

372

(Exp

erim

ento

2)En

trega

ndo

mala

snot

icias

Terz

ioğl

uet

al.(2

020)

Mira

daBr

azo

robo

tUR5

-24

(Est

udio

2)At

orni

llar

deW

itet

al.(2

020)

Gest

osNA

O25

94Ju

ego

deap

rend

izaje

deid

iom

asKo

ntog

iorgo

seta

l.(2

020)

Apar

iencia

Amaz

onEc

ho0

44Co

cinar

rollit

osde

prim

aver

aCa

beza

robó

tica

Furh

at-

Barc

oet

al.(2

020)

Apar

iencia

Pleo

(zoo

mor

fo)

-35

Inte

racc

ión

libre

Cozm

o(c

arica

turiz

ado)

-NA

O(a

ntro

pom

órfic

o)25

Jueg

ode

Adivi

nanz

as

Tabl

a1.

Resu

men

dela

liter

atur

ase

leccio

nada

Page 25: Maestría en Ciencias en Ciencias de la Computación Cómputo

15

Emoc

ión

Azul

Amar

illoRo

joBl

anco

Verd

eGr

isNe

gro

Aleg

ríaSu

tton

yAl

tarri

ba(2

015)

Stein

vall

(200

7)Te

rwog

tyHo

eksm

a(1

995)

Stein

vall

(200

7)NA

zy

Epps

(200

4)Te

rada

etal.

(201

2)So

rpre

saSu

tton

yAl

tarri

ba(2

015)

Terw

ogty

Hoek

sma

(199

5)Te

rada

etal.

(201

2)Ira

Terw

ogty

Hoek

sma

(199

5)Su

tton

yAl

tarri

ba(2

015)

Terw

ogty

Hoek

sma

(199

5)St

einva

ll(2

007)

Hupk

aet

al.(1

997)

Hupk

aet

al.(1

997)

NAz

yEp

ps(2

004)

Tera

daet

al.(2

012)

Trist

eza

Sutto

ny

Alta

rriba

(201

5)NA

zy

Epps

(200

4)Te

rwog

tyHo

eksm

a(1

995)

Tera

daet

al.(2

012)

Stein

vall

(200

7)As

coTe

rwog

tyHo

eksm

a(1

995)

Mied

oSu

tton

yAl

tarri

ba(2

015)

Stein

vall

(200

7)Te

rwog

tyHo

eksm

a(1

995)

Hupk

aet

al.(1

997)

Tabl

a2.

Resu

men

dere

lació

nco

lor-e

moc

ión

Page 26: Maestría en Ciencias en Ciencias de la Computación Cómputo

16

Capítulo 3. Síntesis de emociones en el robot Eva

En este capítulo se describen las diferentes versiones del robot Eva, así como los diferentes mecanis-

mos de comunicación no verbal, para la síntesis de emociones, implementados.

3.1. Robot social: Eva

El robot Eva es un robot social desarrollado originalmente en CICESE como parte de la tesis doctoral

de Dagoberto Cruz Sandoval y fue utilizado como base para este proyecto. Como parte de este trabajo de

tesis se le han realizado modificaciones y mejoras, tanto estéticas como de hardware, enfocadas principal-

mente a darle mayor capacidad afectiva, a través de la implementación de mecanismos de comunicación

no verbal, los cuales se describen a continuación.

3.2. Versión 1: Luces Led

La primera versión del robot social Eva (figura 5), fue construido en cartón. El software del robot

se ejecutaba sobre una Raspberry Pi 3. Además, contaba con una bocina y una placa de desarrollo

MATRIX Voice, la cual cuenta con un arreglo de 8 micrófonos y 18 luces led. Esta configuración le

permitía interactuar por voz con los usuarios.

Figura 5. Primera versión del robot social Eva.

Teniendo en cuenta estas capacidades, se decidió diseñar un mecanismo de comunicación no verbal

específico de robots basado en luces led. Para esto se diseñaron 6 animaciones, cuatro de las cuales

representarían emociones, como se muestran en la figura 6 (Sorpresa, Alegría, Tristeza e Ira). Las dos

últimas se utilizarían para mostrar indicaciones sobre varios estados relacionados con la comunicación

Page 27: Maestría en Ciencias en Ciencias de la Computación Cómputo

17

verbal del robot como escuchando y hablando. Los colores seleccionados para el diseño de las animacio-

nes se basaron en los resultados encontrados en la literatura revisada (sección 2.2.1).

Figura 6. Emociones diseñadas para el robot Eva.

3.2.1. Evaluación

Con el objetivo de conocer si las emociones implementadas en el robot social eran correctamente

reconocidas por los participantes se decidió realizar un experimento.

3.2.1.1. Procedimiento

Para la realización de esta evaluación se reclutaron un total de 27 estudiantes (15 hombres) de licen-

ciatura con edades comprendidas entre los 21 y 29 (M = 22.62, SD = 1.88) años. En esta evaluación

se les mostró a los participantes las animaciones diseñadas, las cuales debían ser identificadas por ellos.

Para registrar sus respuestas se desarrolló un formulario donde debían seleccionar las emociones que

mostraba el robot, según sus criterios, en este los participantes debían de escoger entre seis emociones

(sorpresa, alegría, tristeza, enojo, asco y miedo).

3.2.1.2. Resultados

Las emociones diseñadas para este experimento están compuestas de dos dimensiones, color y ani-

mación. La animación está compuesta de dos elementos velocidad y forma. Del total de los participantes

el 70.37% registraron que el factor más útil para reconocer las emociones fue el color. El 29.62% de los

participantes expresaron que los elementos de la animación de las luces led, tanto la velocidad como la

forma, les ayudó a reconocer las emociones en las ocasiones donde para ellos el color no era suficiente.

Esta versión del robot fue utilizada en el primer experimento de esta investigación descrito en el

Page 28: Maestría en Ciencias en Ciencias de la Computación Cómputo

18

Tabla 3. Resumen de resultados. Porcentaje de emociones identificadas en las animaciones.

Emoción (color) Sorpresa Alegría Tristeza Ira Asco MiedoSorpresa (amarillo) 37.03% 29.62% 3.7% 0% 25.92% 3.7%

Alegría (verde) 14.81% 74.07% 0% 0% 7.40% 3.7%Tristeza (azul) 0% 0% 77.77% 0% 3.7% 18.51%

Ira (rojo) 0% 0% 0% 100% 0% 0%

Capítulo 4.

3.3. Versión 2: Ojos y movimiento de la cabeza

La segunda versión del robot social Eva (figura 7), fue diseñado en Blender y posteriormente impreso

en 3D con filamento de tipo PLA (ácido poliláctico). Para este diseño se tuvieron en cuenta los dos

nuevos mecanismos de comunicación no verbal seleccionados para implementarlos en el robot: ojos y

movimiento de la cabeza. Para el caso de los ojos, se decidió representarlos a través de una pantalla.

Debido a que el departamento no cuenta con una pantalla con formato panorámico y diagonal entre

cinco y seis pulgadas, se decidió utilizar temporalmente, en substitución, un celular.

Figura 7. Segunda versión del robot social Eva.

Para esta versión se crearon dos diseños. El primero de estos se basó en los resultados obtenidos

en el estudio realizado por Pollmann et al. (2019) donde se compararon un total de cinco diseños de

ojos, inspirados en dibujos animados. En este estudio los participantes debían reconocer las emociones

representadas con mediante diversas expresiones de los ojos. El segundo diseño se basó en el estilo de

dibujo usados en las historietas de origen japonés. Para ambos diseños se prepararon cinco animaciones

de las cuales cuatro representarían emociones (Sorpresa, Alegría, Tristeza e Ira) y la acción de pestañear.

Después de realizar una encuesta informal a algunas personas se decidió utilizar el segundo diseño el cual

Page 29: Maestría en Ciencias en Ciencias de la Computación Cómputo

19

fue calificado como más expresivo. Estas animaciones fueron desarrolladas en el motor de videojuegos

Unity 3D y compilados como una aplicación para el sistema operativo Android.

Para permitir el movimiento de la cabeza se incorporaron dos servomotores Dynamixel AX-12A, con

un ángulo de operación de 300◦ y una resolución de 0.29◦. Los movimientos se diseñaron teniendo en

cuenta los estudios realizados por los investigadores Cassell et al. (1994); Pelachaud et al. (1996); Gratch

et al. (2006); Li y Chignell (2010); Liu et al. (2012); Marsella et al. (2013). Finalmente se desarrollaron un

total de siete movimientos (arriba, abajo, izquierda, derecha, centro, cabecear y sacudir) con dos niveles

de amplitud cada uno. Para la selección de estos movimientos se tuvo en cuenta que ambos servomotores

brindaban dos grados de libertad de movimiento al robot Eva, permitiendo tanto la rotación como la

flexión del cuello, pero no la flexión lateral del mismo.

En esta versión, se mantiene la posibilidad de uso de las luces led, aunque para las interacciones

diseñadas, su uso se limitó a apoyar elementos de la comunicación. Los turnos de habla, se indicaban

mostrando diferentes señales de acuerdo a si era el turno de hablar del participante o del robot.

Finalmente, para el control general del robot social se mantuvo el uso de la placa de computadora

Raspberry Pi, la cual fue actualizada a su versión mas reciente (Raspberry Pi 4).

3.4. Versión 3: Apariencia

La tercera versión del robot social Eva (figura 8), fue diseñado igualmente en Blender y posteriormente

fabricado en fibra de vidrio. Esta versión hereda todas las características de la segunda versión tanto

funcionales como de hardware. Su principal diferencia con respecto a las dos versiones anteriores consiste

en su diseño antropomórfico, al contar con piernas y brazos. En este caso los brazos se diseñaron para

permitir movimiento, aunque actualmente el robot no cuenta con los actuadores necesarios para explotar

esta capacidad.

Finalmente en la tabla 4 se muestra un resumen de las distintas versiones y sus principales caracte-

rísticas y componentes.

Page 30: Maestría en Ciencias en Ciencias de la Computación Cómputo

20

Figura 8. Tercera versión del robot social Eva.

Tabla 4. Comparación de las versiones del robot social Eva.

Versión 1 Versión 2 Versión 3Material Cartón PLA Fibra de vidrioPlaca de computadora Raspberry Pi 3 Raspberry Pi 4 Raspberry Pi 4Sensores MATRIX Voice MATRIX Voice MATRIX VoiceActuadores Bocina Bocina Bocina

Servomotores ServomotoresGrados de libertad 0 2 2Apariencia Caricaturesca Caricaturesca AntropomórficaMecanismo de comunicación Luces led Luces led Luces ledno verbal Ojos Ojos

Movimiento de cabeza Movimiento de cabeza

Page 31: Maestría en Ciencias en Ciencias de la Computación Cómputo

21

Capítulo 4. Síntesis de emociones por medio de luces

En este capítulo se describe de manera detallada un estudio realizado para evaluar el mecanismo de

comunicación no verbal específico de robots implementado en Eva, así como los resultados obtenidos. El

objetivo de este estudio era determinar si las personas son capaces de interpretar las emociones diseñadas

en la primera versión del robot y si modifican sus decisiones en consecuencia.

4.1. Pregunta de investigación experimental

Se diseñó un experimento con la siguiente pregunta de investigación experimental en mente: ¿Podrá

una persona ser capaz de interpretar las emociones de un robot basadas en luces led, y modificar sus

decisiones teniendo en cuenta estas emociones?. Esta nueva pregunta de investigación experimental nos

permitirá explorar el mecanismo de comunicación no verbal específico de robots diseñado sobre la base

de las luces led presentes en la placa de desarrollo Matrix Voice y responder parcialmente la segunda

pregunta de investigación planteada en la sección 1.1.

4.2. Juego del Ultimátum

El juego del ultimátum es un juego experimental dentro de la Teoría de Juegos, el cual, en su versión

original, consiste en que a un jugador (oferente) se le propone que reparta una determinada cantidad de

dinero con otro jugador (respondedor), según sus intereses, haciendo una propuesta única y definitiva. El

respondedor, por su parte, podrá aceptar o no dicha propuesta. En caso de no aceptar, ningún jugador

ganaría nada. Por el contrario, si acepta se procede al reparto según la propuesta realizada por el oferente.

Para este experimento se decidió utilizar una variante de este juego, en el cual las ofertas no serán

definitivas, pudiéndose cambiar estas siempre que el oferente lo desee. Para este caso el sujeto tomará

el rol de oferente y el robot Eva, en su primera versión, asumirá el rol de respondedor. Para este expe-

rimento en adición a los roles oferente y respondedor, existirá un rol denominado investigador el cual

intervendrá al inicio de las ofertas, con el objetivo de realizar una demostración de la interacción. Las

ofertas realizadas por el rol de investigador no tendrán efecto en la puntuación final.

Page 32: Maestría en Ciencias en Ciencias de la Computación Cómputo

22

4.3. Hipótesis

H1: Los participantes serán capaces de leer las emociones del robot y por lo tanto determinar la

decisión que tomará respecto a la oferta.

Para evaluar H1 se registrarán las ofertas realizadas por los participantes y las emociones mostradas

por el robot.

Esta investigación es relevante en el campo de la interacción humano-robot, ya que puede informar

a los diseñadores en el desarrollo de nuevos robots sociales, con mejores capacidades de comunicación

no verbal.

4.4. Participantes

Reclutamos un total de 12 participantes, todos ellos estudiantes de postgrado.

4.5. Procedimiento

El diseño experimental fue within-subjects, por lo tanto, todos los participantes realizarán la misma

actividad. El procedimiento durante el experimento será el siguiente:

1. Los participantes reciben instrucciones sobre los objetivos del experimento, la actividad a realizar

y luego se les pide que firmen un formulario de consentimiento.

2. Al inicio del juego, el robot se despierta, saluda y pregunta el nombre del participante, explicará

brevemente en qué consiste el juego que realizarán y finalmente le pedirá al participante que

comience a realizar ofertas.

3. El investigador realizará las dos primeras ofertas como demostración de la interacción, las cuales

no sumarán a la puntuación final.

4. Los participantes realizarán 10 ofertas, una cada vez.

a) En función de la oferta y de si se aceptará o no, el robot mostrará una emoción durante unos

segundos, con el objetivo de que el sujeto intuya la decisión que tomará el robot.

Page 33: Maestría en Ciencias en Ciencias de la Computación Cómputo

23

b) Pasados unos segundos el robot preguntará si la oferta es definitiva. En caso de que el jugador

desee cambiarla, el robot preguntará por la nueva oferta y se repetirá el ciclo.

c) Una vez confirmada la oferta el robot dará a conocer su decisión y posteriormente los puntos

acumulados hasta el momento.

5. Una vez finalizada la última oferta el robot dará a conocer el total de puntos acumulados por el

jugador y se despedirá.

6. Al finalizar el juego se les realizarán un grupo de preguntas relacionadas con el experimento a los

participantes. Las preguntas realizadas se encuentran recogidas en el Anexo A.

7. Finalmente, se les brindará un refrigerio.

Las ofertas serán aceptadas o rechazadas por el robot cumpliendo con las siguientes restricciones:

Las ofertas mayores o iguales a 50 serán aceptadas.

Las ofertas menores o iguales a 10 serán rechazadas.

Las ofertas iguales a 40 serán aceptadas con una probabilidad del 75%.

Las ofertas iguales a 30 serán aceptadas con una probabilidad del 50%.

Las ofertas iguales a 20 serán aceptadas con una probabilidad del 25%.

4.6. Set up experimental

El experimento se realizó en un laboratorio con ruido mínimo e iluminación adecuada. Se le pidió al

participante que se sentara en una silla frente al robot social, el cual se encontraba en otra silla como

se muestra en la figura 9.

4.7. Resultados

Durante la realización de esta actividad, los participantes siguieron distintas estrategias, como realizar

ofertas balanceadas, ofrecer muchos puntos esperando que aceptase pocos después, ofrecer poco e ir

subiendo la oferta y algunos realizaron ofertas más equilibradas.

Page 34: Maestría en Ciencias en Ciencias de la Computación Cómputo

24

Figura 9. Setup experimental

De un total de 47 ofertas rechazadas, los participantes cambiaron sus ofertas en 19 (40,42%) oca-

siones. A continuación, en la tabla 5 se resumen todas las ofertas realizadas por los participantes y la

respuesta del robot, las cuales se representan con la letra A, para el caso donde el robot aceptó la oferta

o la letra R para el caso donde el robot rechazó la oferta.

Teniendo en cuenta las respuestas dadas por los participantes en la encuesta realizada (Anexo A)

al finalizar el experimento, se puede plantear que, el 66,66% de los participantes notaron algunas de

las relaciones entre las pistas y las decisiones tomadas por el robot, de estos solo el 25% de estos las

relacionaron con emociones; el 75% restante se referían a estas pistas por el color. Contrario a lo que

se puede observar en los datos registrados en la tabla algunos participantes plantearon que a pesar de

reconocer cuando el robot no iba a aceptar la oferta decidieron no cambiar con el objetivo de cerciorarse

de que entendieron los comportamientos correctamente.

La emoción tristeza (azul) fue en la mayoría de los casos confundida con la señal de hablar, debido

a que poseen un tono de color similar, por lo que podemos intuir que las decisiones de diseño sobre

esta emoción no fueron acertadas. Este resultado se relaciona con el obtenido en la evaluación preliminar

donde solo el 29.62% de los participantes expresaron que la animación les fue de utilidad para determinar

la emoción.

Por otra parte, el 75% de los participantes plantearon que las luces led apoyaban la comunicación

con el robot, ya que les permitía entender cuando era su turno de hablar, ya fuera para realizar una

oferta o responder alguna pregunta. Sin embargo, algunos de los participantes plantearon no que no

percataron de esto hasta el final.

Teniendo en cuenta los resultados obtenidos en este experimento, se decide continuar explorando

Page 35: Maestría en Ciencias en Ciencias de la Computación Cómputo

25

Tabla 5. Resultados del experimento 1

Participantes Ofertas1 2 3 4 5 6 7 8 9 10

P1 30 - A 40 - A 10 - R 50 - A 30 - A 50 - A 40 - A 20 - R 10 - R 10 - R30 - R

P2 40 - A 20 - R 60 - A 10 - R 70 - A 20 - A 50 -A 80 - A 10 - R 30 - A30 - R 30 - R

P3 40 - R 60 - A 50 - A 60 - A 40 - A 50 - A 50 - A 40 - A 60 - A 30 - AP4 60 - A 50 - A 60 - A 40 - R 20 - R 10 - R 20 - A 30 - R 40 - A 20 - R

50 - A 40 - AP5 30 - A 20 - R 40 - A 60 - A 50 - A 40 - A 20 - R 60 - A 90 - A 80 - A

20 - A 10 - R 30 - A 50 - A 20 - R 10 - R 20 - A40 - A 20 - R 30 - R 30 - A

P6 60 - A 50 - A 70 - A 40 - A 40 - R 90 - A 60 - A 70 - A 30 - A 40 - R50 - A 60 - A

P7 40 - A 30 - R 50 - A 30 - A 50 - A 10 - R 20 - R 50 - A 10 - R 10 - R40 - A 40 - A 40 - A 30 - A

P8 40 - A 30 - R 50 - A 40 - A 40 - A 10 - R 10 - R 10 - R 10 - R20 - A 20 - A 20 - R 0 - R

30 - A 10 - R20 - R30 - A

P9 30 - A 20 - R 50 - A 10 - R 40 - A 20 - R 50 - A 10 - R 40 - A 40 - AP10 50 - A 60 - A 50 - A 40 - A 50 - A 40 - A 50 - A 60 - A 50 - A 40 - AP11 50 - A 40 - A 40 - A 50 - A 30 - A 40 - A 30 - R 50 - A 50 - A 40 - AP12 40 - A 50 - A 50 - A 60 - A 30 - R 50 - A 40 - R 50 - A 40 - R 50 - A

otros mecanismos, manteniendo, de los evaluados hasta el momento, las animaciones que facilitaron la

toma de turnos.

Page 36: Maestría en Ciencias en Ciencias de la Computación Cómputo

26

Capítulo 5. Síntesis de emociones utilizando el movimiento de ojos y

cabeza

Los resultados del estudio del capítulo anterior muestran evidencia de que las emociones implemen-

tadas con luces led no son fácilmente reconocibles por las personas en este contexto. A pesar de esto

la mayoría de los participantes, plantearon que facilitaba la toma de turnos, debido a que les permitía

saber cuando el robot esperaba una respuesta o se disponía a hablar. Atendiendo a este resultado se

decidió mantener las animaciones de hablar y escuchar. En este capítulo se describe de manera detallada

un estudio realizado para evaluar la percepción de los usuarios sobre la presencia social del robot Eva en

su segunda y tercera versión, así como los resultados obtenidos.

5.1. Pregunta de Investigación

Se diseñó un experimento para responder la segunda pregunta de investigación planteada en este

trabajo (sección 1.1) la cual tiene como objetivo entender: ¿Cómo puede influir un robot capaz de simular

emociones, haciendo uso de la comunicación no verbal, en la percepción que tienen las personas sobre

la presencia social del mismo?

5.1.1. Hipótesis

H1 La percepción del usuario sobre los sentimientos de alegría o placer asociados al uso del robot será

mayor en la condición donde el robot muestra emociones.

H2 La percepción del usuario sobre la presencia social del robot será mayor en la condición donde el

robot muestra emociones.

H3 La percepción del usuario sobre la capacidad del robot de tener un comportamiento sociable será

mayor en la condición donde el robot muestra emociones.

H4 La percepción del usuario sobre la confiabilidad del robot será mayor en la condición donde el robot

muestra emociones.

Page 37: Maestría en Ciencias en Ciencias de la Computación Cómputo

27

5.2. Procedimiento Experimental

Para la realización de esta evaluación se reclutaron un total de 66 participantes (26 hombres) con

edades comprendidas entre los 19 y 40 (M = 23, SD = 4.47) años. El diseño experimental fue between-

subjects, por lo que no todos los participantes estuvieron expuestos a las mismas condiciones. Para

este experimento se diseñaron tres condiciones: 1) el robot hace uso de la comunicación no verbal

durante la interacción (Emocional), 2) el robot no utiliza ningún mecanismo de comunicación no verbal

(No emocional) y 3) el robot hace uso de la comunicación no verbal durante la interacción y tiene

una apariencia antropomórfica (Emocional y Antropomórfico). Los participantes se asignaron de forma

aleatoria a las diferentes condiciones, teniendo en cuenta que participaran la misma cantidad en cada

una de las condiciones. El procedimiento durante el experimento será el siguiente:

1. Los participantes agendarán una cita con el Robot a través del sistema Teamup.

2. Llegado el día y la hora los participantes recibirán instrucciones sobre cómo comunicarse con el

robot.

3. Al inicio el robot se presenta, pregunta el nombre del participante.

4. El robot comenzará a hablar con el usuario sobre temas de actualidad relacionados con el desarrollo

de robot sociales y coches autónomos mostrando diferentes estados emocionales de acuerdo con

lo que está comentando.

5. El robot le presentará al participante diversas situaciones para conocer su opinión. En estas un

coche autónomo presenta problemas con los frenos y deberá decidir entre dos opciones, las cuales

tendrán diferentes consecuencias.

6. Si la situación no involucra al robot este se mantendrá neutral. En los casos que si lo involucren

mostrará alegría si lo salvan o tristeza en caso contrario. En ambos casos la emoción se representará

solo con ojos, excepto si la emoción representada anteriormente fue la misma, en cuyo caso se

adicionará el movimiento de la cabeza. Las emociones diseñadas se muestran en la figura 10.

7. Una vez que los participantes concluyan la interacción se les pedirá completar el cuestionario 7,

que les permitirá evaluar su experiencia con el robot.

Page 38: Maestría en Ciencias en Ciencias de la Computación Cómputo

28

(a) Alegre (b) Muy alegre (c) Triste (d) Muy triste

(e) Enojado (f) Muy enojado

Figura 10. Emociones mostradas por el robot Eva, a partir de la expresión en los ojos y el movimiento de la cabeza.

El diálogo completo entre el robot y el usuario se encuentra en el Anexo B.

5.3. Setup experimental

Al momento de la realización de este experimento, el mundo se encuentra enfrentando la pandemia

provocada por el Coronavirus (SARS-CoV-2). Debido a esto los gobiernos del mundo han tomado diversas

medidas, con el objetivo de reducir los niveles de contagio en la población, como la sana distancia, el

cierre de lugares públicos, entre otras.

Teniendo en cuenta lo anterior se decide realizar la interacción con el robot a través de videollamada.

Para eso se utilizó el servicio de comunicación por video desarrollado por Google conocido como Google

Meet. Se utilizó la cámara Logitech C920 HD Pro Webcam con un encuadre centrado en el robot,

Page 39: Maestría en Ciencias en Ciencias de la Computación Cómputo

29

orientación vertical y una resolución de 720p, como se muestra en las figuras 11 y 12, asegurándonos de

excluir todo lo que pudiera generar una distracción.

Figura 11. Condición 1 y 2 Figura 12. Condición 3

5.4. Evaluación

5.4.1. Herramientas

Para la evaluación se utilizó una versión reducida del modelo propuesto por los investigadores Heerink

et al. (2009), para los estudios enfocados en habilidades sociales y presencia social. Del modelo original se

eliminaron los constructores: Facilidad de uso percibida (PEOU) e Intención de uso (ITU), debido a que

las preguntas relacionadas con estos no son de interés para esta investigación, y no influyen en el resto.

Finalmente los constructores que conforman el modelo utilizado en este estudio y sus interrelaciones se

muestran en la Figura 13 y la tabla 6 muestra una breve descripción sobre cada uno.

Figura 13. Modelo para estudios sobre habilidades sociales y presencia social. La descripción de estos constructores semuestra en la tabla 6.

Tabla 6. Descripción del Modelo

Código Constructor DescripciónTrust Confianza La creencia de que el sistema funciona con integridad personal y confiabilidad.PS Sociabilidad percibida La capacidad percibida del sistema para realizar un comportamiento sociable.SP Presencia social La experiencia de sentir una entidad social cuando interactúa con el sistema.PENJ Disfrute percibido Sentimientos de alegría o placer asociados por el usuario con el uso del sistema.

Page 40: Maestría en Ciencias en Ciencias de la Computación Cómputo

30

El cuestionario utilizado se muestra en la Tabla 7.Tabla 7. Cuestionario

PENJ 1. Disfruto el robot hablando conmigo.2. Disfruto haciendo cosas con el robot.3. Me parece agradable el robot.4. El robot me parece fascinante.5. El robot me parece aburrido.

PS 6. Considero que el robot es un compañero agradable de conversación.7. Me parece agradable interactuar con el robot.8. Siento que el robot me entiende.9. Creo que el robot es bueno.

SP 10. Al interactuar con el robot, sentí que estaba hablando con una persona real.11. A veces se sentía como si el robot realmente me estuviera mirando.12. Me imagino que el robot es una criatura viviente.13. A menudo pienso que el robot no es una persona real.14. A veces el robot parece tener sentimientos reales.

Confianza 15. Confiaría en el robot si me da un consejo.16. Seguiría los consejos que me da el robot.

5.5. Resultados

Realizamos un experimento para evaluar cómo influyen la simulación de emociones en la percepción

del usuario sobre la presencia social del robot. Para comprobar la fiabilidad de la escala de medida

utilizada se calculó el alfa de Cronbach (Heerink et al., 2009). El valor de alfa cuanto más próximo esté

a 1, más consistentes serán los ítems entre sí. Según los investigadores Heerink et al. (2009) un alfa de

0.7 o superior es aceptable. La tabla 8 muestra que la escala de medida es confiable.

Tabla 8. Cronbach’s Alpha

Constructor Alfa Constructor AlfaPENJ 0,891 SP 0,789PS 0,906 Trust 0,891

Se calcularon estadísticas descriptivas por cada condición las cuales se resumen en la tabla 9 para

la condición no emocional, la tabla 10 para la condición emocional y la tabla 11 para la condición

emocional con apariencia antropomórfica. Como se esperaba, los robots emocionales obtuvieron una

mayor puntuación en general, sin embargo, en el aspecto de presencia social el robot antropomórfico

obtuvo una menor puntuación con respecto a las demás condiciones.

Page 41: Maestría en Ciencias en Ciencias de la Computación Cómputo

31

Tabla 9. Estadísticas Descriptivas: No emocional

Constructor Mínimo Máximo Media Desviación EstándarPENJ 1 5 4,0363 1,0895PS 1,25 5 3,6363 1,1039SP 1 4,2 2,9272 1,0152Trust 1 5 3,0909 1,0309

Tabla 10. Estadísticas Descriptivas: Emocional

Constructor Mínimo Máximo Media Desviación EstándarPENJ 1,6 5 4,0818 1,0172PS 1 5 3,7159 1,1834SP 1,2 5 2,9909 0,9670Trust 1 5 3,3409 1,0952

Tabla 11. Estadísticas Descriptivas: Emocional y Antropomórfico

Constructor Mínimo Máximo Media Desviación EstándarPENJ 3 5 4,3454 0,4788PS 2,5 5 3,7159 0,7610SP 1 5 2,7545 0,9639Trust 2 5 3,5454 0,8151

Teniendo en cuenta que para este cuestionario varias preguntas describen un solo constructor, los

datos se trataron como variables de intervalo. Para definir las pruebas de hipótesis a realizar se ejecutó el

“Prueba de Shapiro” para contrastar la normalidad de los datos. Como resultado se obtuvo que para el

constructor de Presencia social se obtuvo un p-valor de 0.07, el cual es mayor que el nivel de significancia

(0.05) por lo que sigue una distribución normal. Para el resto de los constructores: Disfrute percibido,

Sociabilidad percibida y Confianza los resultados muestran que los datos no siguen una distribución

normal (p < 0.05).

Teniendo en cuenta estos resultados obtenidos en la “Prueba de Shapiro” se aplicaron para cada

uno de los constructores las pruebas estadísticas correspondientes. Para el caso de Presencia Social se

aplicó ANOVA, la cual demostró que no existen diferencias estadísticamente significativas (p = 0.71)

entre las tres condiciones (No emocional, Emocional y Emocional y Antropomórfico) con respecto a

este constructor por lo que se rechaza la hipótesis H2 de este experimento. Para cada uno de los

restantes constructores se utilizó la prueba no paramétrica Kruskal-Wallis, debido a que no necesita una

distribución específica de los datos, no encontrándose diferencias estadísticamente significativas entre las

condiciones con respecto a los constructores Disfrute percibido (p = 0.9), Sociabilidad percibida (p =

0.79) y Confianza (p = 0.43). Teniendo en cuenta los resultados de esta prueba para cada constructor se

Page 42: Maestría en Ciencias en Ciencias de la Computación Cómputo

32

rechazan las hipótesis H1 relacionada con Disfrute percibido, H3 relacionada con Sociabilidad percibida

y finalmente H4 relacionada con Confianza. Finalmente al no existir una diferencia estadísticamente

significativa entre las tres condiciones con respecto a ninguno de los constructores, podemos afirmar

que, bajo las condiciones de este experimento, el tipo de tarea realizada y el diseño de emociones

utilizado, la síntesis de emociones mediante la comunicación no verbal, no influye en la percepción que

tienen las personas sobre la presencia social del robot.

En la figura 14 se muestra la distribución de promedios de las puntuaciones dadas por los usuarios a

los diferentes constructores por cada condición.

(a) Disfrute percibido (b) Sociabilidad Percibida

(c) Presencia social (d) Confianza

Figura 14. Diagrama de caja

En la tabla 12 se resumen las veces, por caso y condición, que los participantes salvaron al robot.

Calculamos el número de veces que un usuario salvó al robot para realizar una prueba estadística entre

las condiciones. Se utilizó la “Prueba de Shapiro” para determinar si los datos calculados seguían una

distribución normal. Como resultado se encontró que los datos no siguen una distribución normal (p

< 0.05). Teniendo en cuenta esto se realizó la prueba de Kruskal-Wallis encontrándose una diferencia

estadísticamente significativa entre las condiciones en cuanto a salvar el robot (p < 0.05).

Page 43: Maestría en Ciencias en Ciencias de la Computación Cómputo

33

Tabla 12. Cantidad de participantes que salvaron al robot

Caso CondiciónEmocional y Antropomórfico Emocional No Emocional

robot vs perro 1 4 7robot vs automóvil 9 17 15robot vs planta 16 16 17robot vs ladrón 11 17 16robot vs niño 0 4 1Total 37 58 56

5.6. Discusión

Los resultados obtenidos en esta evaluación pueden haber sido influenciados por algunas dificultades

que se experimentaron en algunas de las sesiones. Del total de las sesiones, solo en 31 (46.96%) no se

experimentó ningún problema. Durante las 35 (53.03%) restantes existieron varias dificultades relacio-

nadas con el audio, causadas por una conexión lenta a internet, el hardware del participante y el ruido

de fondo, provocando de manera general que el audio se escuchara entrecortado y acompañado de eco y

ruido. Estos problemas provocaron que en diversas ocasiones el robot no entendiera o no fuera capaz de

detectar correctamente los silencios (los cuales son el indicador para dejar de escuchar y procesar el au-

dio), provocando que los participantes necesitasen repetir sus respuestas en más de una ocasión, viéndose

obligado el investigador a intervenir en 23 de estas interacciones para lograr destrabar la conversación.

Para reducir la aparición de estas dificultades se les pidió a los participantes que no transmitieran vídeo

desde sus dispositivos, intentando así optimizar el ancho de banda, y que, en la medida de lo posible,

que utilizaran audífonos.

Otro factor, que puede influir en estos resultados es el nivel de presencia del robot. Un estudio

realizado por Bainbridge et al. (2010) compara un mismo robot en una tarea de mover libros en dos

condiciones distintas, físicamente presente o mostrándose a través de un vídeo en vivo. Los investigadores

encontraron que la presencia física del robot impacta la percepción de la presencia social. Los participantes

de este estudio, a través de un cuestionario, evaluaron la interacción con el robot físicamente presente, en

general como más positiva y natural. Además, en esta misma condición, encontraron que los participantes

mostraban más confianza hacia el robot, cuando este les pedía realizar una tarea inusual, como tirar un

libro a la basura.

Otro elemento a tener en cuenta es la interacción en sí misma la cual se diseñó para que fuera simple

Page 44: Maestría en Ciencias en Ciencias de la Computación Cómputo

34

y de corta duración (no más de 10 minutos). Con respecto a los constructores, a pesar de que Confianza

fue uno de los evaluados, esta interacción no contaba con ninguna actividad o pregunta que estuviera

directamente relacionada con este constructor.

En cuanto al resto de constructores, es interesante notar que la evaluación por parte de los usuarios

es similar a la obtenida por los investigadores Heerink et al. (2009), los cuales utilizaron el robot (iCat),

en una interacción y con una población diferente a este estudio. En ambos estudios la Presencia Social

fue el constructor con menor puntuación (M = 2,72), Sociabilidad percibida (M = 3,63) y Confianza

(M = 3,71), los cuales son muy similares. En contraste, para Disfrute percibido, el resultado obtenido

fue el más alto de todos los constructores (M = 4.0), por encima del del reportado por Heerink et al.

(2009) (M = 3,76).

A pesar de que no se encontraron diferencias estadísticamente significativas entre las diferentes

condiciones por cada uno de los constructores, sí se puede observar que el constructor Disfrute percibido

fue el mejor evaluado en todas estas, lo que es una fuerte evidencia de que los usuarios disfrutaron de la

interacción. Otra evidencia de esto, en específico en las condiciones emocionales, es que en algunos casos

se escuchaba reír a los participantes, en su mayoría cuando el robot se mostraba alegre. Es interesante

notar que a pesar de que, en la condición antropomórfica, en tres de los cuatro constructores, el robot

fue mejor evaluado, esta fue la condición en la que menos personas lo salvaron.

Page 45: Maestría en Ciencias en Ciencias de la Computación Cómputo

35

Capítulo 6. Desarrollo del módulo de Interacciones Afectivas con el

robot social

Este trabajo de investigación está centrado en el diseño e implementación de mecanismos de co-

municación no verbal para el robot social Eva. Estos mecanismos han sido evaluados a través de dos

experimentos, descritos en el Capítulo 4 y en el Capítulo 5, donde el robot Eva realiza una actividad con

una persona. Teniendo en cuenta el tiempo, el esfuerzo, las habilidades y los conocimientos que requiere

la implementación de las interacciones en este robot se decidió desarrollar un módulo para la implemen-

tación de interacciones afectivas con las distintas versiones del robot Eva presentadas en el Capítulo 3.

En este capítulo se describe el módulo desarrollado y se analizan las tecnologías y herramientas utilizadas

para su desarrollo. Se presentan además algunos ejemplos de diseño de interacciones para ilustrar cómo

se facilita la implementación de interacciones afectivas con Eva.

6.1. Pregunta de investigación

Este capítulo da respuesta a la tercera pregunta de investigación planteada en la sección 1.1 la cual

plantea: ¿Qué tipo de herramienta puede implementarse en el robot social Eva para facilitar el diseño y

desarrollo de interacciones emocionales?. Esta pregunta de investigación está relacionada a su vez con

el cuarto objetivo específico (sección 1.2.2) de este trabajo de tesis.

6.2. Arquitectura

Durante el desarrollo de este módulo se identificaron los principales componentes del sistema y la

relación entre ellos (figura 15).

Figura 15. Diagrama de Arquitectura

Page 46: Maestría en Ciencias en Ciencias de la Computación Cómputo

36

Para desarrollar una interacción el usuario accederá a la aplicación web. El frontend de la aplicación

envía las peticiones al backend haciendo uso de los distintos métodos del protocolo http (GET, POST,

PUT y DELETE). Este a su vez se comunicará a través del protocolo TCP/IP con la base de datos para

obtener las interacciones ya creadas, guardar nuevas o eliminar las existentes, y al Sistema de archivos

para acceder, guardar o eliminar archivos de audio.

Para la ejecución de estas interacciones el usuario accederá a la página principal de la aplicación

web, desde donde los podrá ejecutar. Esta ejecución será controlada por el servidor web el cual accederá

a la base de datos y al sistema de archivos para obtener los recursos necesarios. Además, utilizará los

servicios externos de “Texto a Voz” de IBM Watson y de “Voz a Texto” de Google. Las órdenes del robot

se enviarán por medio de dos interfaces de comunicación: Puerto serie para el caso de los servomotores

que permiten el movimiento y Websockets para el control de los ojos.

6.3. Lenguajes y plataformas de desarrollo

Para el desarrollo del módulo de construcción de interacciones, se utilizó un conjunto de tecnologías

conocidas como Stack MEAN, lo cual es una abreviatura de MongoDB, Express, AngularJS y Node.js.

El concepto detrás de esto es usar solo soluciones basadas en JavaScript para cubrir las diferentes partes

de la aplicación (Haviv, 2014).

Como editor de código fuente se seleccionó Visual Studio Code. Este tipo de editor se diferencia de

los tradicionales debido a que posee características diseñadas para simplificar y acelerar la escritura de

código fuente como: resaltado de sintaxis, autocompletado y pareo de llaves. Este se encuentra disponible

para Windows, macOS y Linux y cuenta con soporte incorporado para JavaScript, TypeScript y Node.js,

además de un amplio ecosistema de extensiones.

6.4. Lenguaje de Programación Visual

Un lenguaje de programación visual (VPL por sus siglas en inglés) utiliza una representación visual

en lugar de, o además de, representaciones textuales más tradicionales del código fuente del progra-

ma (Booth y Stumpf, 2013). Estos permiten desarrollar rápidamente programas robustos utilizando

elementos simples de arrastrar y soltar, sin preocuparse por los detalles sintácticos de un lenguaje de

programación (Idrees et al., 2018).

Page 47: Maestría en Ciencias en Ciencias de la Computación Cómputo

37

Para este módulo, se desarrolló un VPL basado en dos tipos de representaciones espaciales, secuencial

y ramificada. Para este lenguaje se definieron varios tipos de nodos los cuales representan las distintas

capacidades del robot.

Voz: Permite cambiar la voz del robot.

Hablar: Representa la opción de hablar.

Escuchar: Representa la opción de escuchar al usuario.

Esperar: Permite realizar pausas especificando la cantidad de milisegundos que dudará esta.

Ciclo: Permite ejecutar un número de veces una secuencia de nodos agrupados dentro de este.

Condición: Permite dividir el flujo de la interacción en función de una condición. El parámetro

definido se compara con lo último que dijo el usuario. La comparación puede ser de tres tipos:

Exacta, Fonética y Contiene.

Movimiento: Permite definir que movimiento de los implementados en el robot se ejecutará.

Emoción: Permite definir la emoción del robot, especificando la velocidad de la transición y el

nivel.

Interacción: Permite incluir una interacción creada con anterioridad.

Script: Permite cargar un script creado anteriormente con frases. Su principal utilidad es dentro

de un ciclo.

Leds: Permite definir la animación de las luces led del robot.

Audio: Permite reproducir un archivo de audio agregado con anterioridad.

Contador: Permite crear contadores.

Los usuarios pueden crear interacciones al combinar estos nodos en un diagrama de flujo.

6.5. Aplicación Web

Con el objetivo de permitir el uso del VPL diseñado, se implementó una aplicación web cuya interfaz

se muestra en la figura 16. En la misma el usuario podrá: 1) ver el listado de las interacciones creadas

Page 48: Maestría en Ciencias en Ciencias de la Computación Cómputo

38

anteriormente y expandirlas1, ejecutarlas, editarlas o eliminarlas; 2) definirle un nombre para la interacción

que desea desarrollar; 3) agregar los nodos que desee haciendo click en uno de los que se muestran,

después de lo cual aparecerá una ventana donde se mostrarán los parámetros del mismo; 4) visualizar la

interacción, eliminar nodos o modificar sus conexiones con otros nodos. Una vez concluida la creación

o edición de la interacción el sistema permitirá al usuario: 5) Guardar o Actualizar la interacción en la

base de datos, Descargar la representación como imagen y Refrescar la interfaz. En 6) el usuario podrá

acceder al listado de nodos de la interacción y editar sus parámetros.

Figura 16. Interfaz Web para la implementación de las interacciones. 1) Listado de interacciones; 2) Nombre de la inter-acción; 3) Nodos disponibles; 4) Visualización de la interacción; 5) Guardar y Actualizar interacción; 6) Editar nodos de lainteracción

A continuación, se muestran un ejemplo simple de interacción y cómo fue desarrollado con VPL a

través de la aplicación web.

6.5.1. Ejemplo de uso

Se ilustra el uso de la herramienta con un caso sencillo. Suponga que el desarrollador quiere imple-

mentar una interacción simple donde el robot se presente y pregunte por el nombre del usuario. Para esto

el usuario requerirá de dos tipos de nodos (Hablar y Escuchar). Primero se agregará un nodo “Hablar”

y le aparecerá una ventana (17) donde podrá introducir los parámetros del nodo, en este caso el texto1Esta opción sustituye los nodos “Interacción”, dentro de la interacción seleccionada, por las interacciones a las que

representan.

Page 49: Maestría en Ciencias en Ciencias de la Computación Cómputo

39

“Hola mi nombre es Eva, ¿Cuál es tu nombre?”. El siguiente nodo será del tipo “Escuchar” (18), para

indicarle al robot que debe escuchar al usuario. Este tipo de nodo cuenta con un parámetro ’Obtener’ el

cual funciona como filtro a lo que se escucha. Para este ejemplo seleccionaremos la opción ’Nombre’. Los

parámetros “Grupo” y “Anterior” aparecerán en todos los nodos a excepción del primero, y permitirán

establecer en el nuevo nodo su nodo anterior y/o si pertenecen a un grupo. Finalmente se agregará un

nuevo nodo de tipo “Hablar” con la frase ’Mucho gusto en conocerte $’. El parámetro ’$’ indica al robot

que debe poner en esa posición lo último que escuchó. Finalmente, la implementación queda como se

muestra en la figura 19.

Figura 17. Nodo: Hablar Figura 18. Nodo: Escuchar

Figura 19. Preguntar por el nombre

6.6. Aplicaciones de ejemplo

6.6.1. Preguntas y Respuestas

Suponga que el desarrollador quiere implementar un juego donde el robot le realizará varias preguntas

al usuario de distintas temáticas. El flujo general (imagen 20) será el siguiente: El robot se presentará y

le preguntará el nombre al usuario. Posteriormente dará una breve explicación del juego y comenzará a

realizar las preguntas. Si el usuario responde correctamente el robot se mostrará alegre mientras le dice

que respondió correctamente. En caso contrario se mostrará triste y dirá que respondió incorrectamente.

Page 50: Maestría en Ciencias en Ciencias de la Computación Cómputo

40

En cualquier caso, después de esto, el robot regresará a una expresión neutral y pasará a la siguiente

pregunta. Una vez realizada todas las preguntas se despedirá del usuario.

Figura 20. Interacción: Preguntas y Respuestas

Para implementar esta interacción, además de los elementos vistos en el ejemplo anterior, el desa-

rrollador requerirá de seis nuevos nodos (figura 21): Ciclo (a), Script (b), Condicional (c), Emoción (d),

Interacción y Esperar.

En el ejemplo anterior se desarrolló una interacción donde el robot debía de presentarse y preguntar

por el nombre del usuario. Teniendo en cuenta que esta interacción inicia de esa forma utilizaremos

un nodo de tipo “Interacción” donde en el campo del mismo nombre seleccionaremos dicha interacción

denominada “Obtener nombre”. Seguido de este, agregaremos un nodo de tipo “Hablar” con la explicación

del juego. Teniendo en cuenta que se realizarán varias preguntas, se utilizará un nodo de tipo “Ciclo” al

cual se le especificarán el número de veces que se ejecutará los nodos que se coloquen en su interior.

En este punto existen dos opciones para la propiedad “Iteraciones”: establecer el número finito de veces

que se ejecutará la secuencia de nodos que se encuentre dentro de este ó definirle el valor en “-1”. Esta

segunda opción requiere que exista un nodo de tipo script dentro del ciclo, he indicará que el número

Page 51: Maestría en Ciencias en Ciencias de la Computación Cómputo

41

(a) Ciclo (b) Script

(c) Condicional (d) Emoción

Figura 21. Nodos

de iteraciones será igual a la cantidad de elementos que contenga este. A continuación, se agregará un

nodo de tipo “Hablar” con una despedida.

A partir de este punto y para agregar los nodos dentro del ciclo utilizaremos la opción “Grupo”

dentro de los nuevos nodos, seleccionando el ciclo deseado. Para esta interacción el primer nodo será de

tipo “Script” seleccionando en la opción del mismo nombre el que se desee ejecutar, en este caso será

uno creado con anterioridad denominado “Preguntas y Respuestas”. La opción “aleatorio”, reorganizará

los elementos cargados en este nodo de forma aleatoria permitiendo que cada sección sea distinta al

menos en orden. A continuación, agregaremos un nodo de tipo “Escuchar” y en la propiedad “Obtener”

escogeremos “Todo”. Desde este último saldrán dos nodos de tipo “Condición” uno para verificar que la

respuesta sea correcta y otro en caso contrario.

Teniendo en cuenta que en este caso la respuesta correcta se encuentra en el segundo campo de los

scripts, el primer nodo recibirá como parámetro de la propiedad “Condición” el valor “%” en lugar de un

texto, esto indicará que debe de compararse contra el segundo campo de elemento del script que se está

evaluando, por último para la propiedad “Comparación” el valor será “Fonética”, esto permitirá comparar

las respuestas según como suenen y no como se escriban, evitándose así posibles errores ocurridos durante

la transcripción. Seguido del nodo anterior colocaremos un nodo de tipo “Emoción” y en la propiedad

Page 52: Maestría en Ciencias en Ciencias de la Computación Cómputo

42

de igual nombre seleccionaremos “Alegría”. La propiedad “Velocidad” influye solo en la animación de los

ojos, definiendo qué tan rápido se realiza la transición. El parámetro “Nivel” cuenta con tres posibles

valores: “Solo Ojos”, el cual solo modificará la expresión de los ojos; “Movimiento”, es igual al anterior

pero además incluirá movimientos de la cabeza; y por último “Incremental”, esta opción en una primera

ocasión solo modificará la expresión de los ojos, pero con la diferencia de que si este nodo se vuelve a

ejecutar, sin haberse ejecutado otro nodo de este mismo tipo antes de esta segunda vez, incluirá además

el movimiento de la cabeza. Los nodos que lleven al robot a una emoción neutral no afectarán este

proceso. Seguido de este incluiremos un nodo “Hablar” para informar que se respondió correctamente la

pregunta.

En el segundo nodo “Condición” el parámetro del mismo nombre se dejará en blanco. El sistema

interpretará esto como el camino que deberá seguir si no se cumple ninguna de las condiciones anteriores.

En este caso el nodo a continuación será de tipo “Emoción” pero esta vez la emoción a seleccionar será

“Tristeza”. El siguiente nodo de tipo “Hablar” indicará en este caso que se respondió incorrectamente

pudiendo ser su valor “Lo siento, pero esa respuesta no es correcta” ó “Lo siento, pero la respuesta

correcta es%” si queremos que el robot de la respuesta.

A ambos nodos los precederá un nodo “Emoción” con valor “Neutral” y a continuación un nodo

de tipo “Esperar” en este caso definido su propiedad “Tiempo” se estableció en 2000 milisegundos. El

resultado implementación se muestra en la figura 22.

6.6.2. Enseñando a niños a contar chistes

Con el objetivo de validar el VPL implementado se le solicitó a una tercera persona que diseñara

un escenario para posteriormente implementarlo en el robot usando este lenguaje. El objetivo de este

escenario consiste en enseñarle a los niños a contar chistes y forma parte del trabajo de tesis doctoral en

Ciencias de la Computación de Ivonne Monarca, quien sugirió este problema. El flujo de la interacción

es el siguiente: el robot se presenta y dice que va a contar unos chistes (para esta implementación los

chistes se dividen en dos partes). Acto seguido cuenta la primera parte del chiste, hace una pausa y

cuenta la segunda, después de lo cual se ríe, para esto se utiliza un nodo de tipo “Audio”, el cual se

configura para que reproduzca una risa grabada previamente incluida en el sistema y un nodo tipo “Led”

para mostrar una animación de luces. Posteriormente preguntará al niño si le gustó el chiste. Si no

entiende la respuesta, le pedirá que repita. Si la respuesta es negativa, el robot se muestra triste y pasa

al próximo chiste. Si la respuesta es positiva, el robot le indica al niño que repita el chiste junto con él,

Page 53: Maestría en Ciencias en Ciencias de la Computación Cómputo

43

Figura 22. Implementación: Preguntas y Respuestas.

para lo cual contará la primera parte y comprobará que el niño la repita correctamente, a continuación

repetirá este proceso con la segunda parte. Una vez hecho esto último pasa al siguiente chiste. Para

simplificar la implementación de esta interacción se implementaron 3 interacciones: Chistes (figura 23a),

la cual representa la interacción general; Contar Chiste (figura 23b), Contiene los nodos necesarios para

la acción de seleccionar el chiste y contarlo la primera vez; y Repetir Chiste (figura 23c) que contiene la

sección encargada de enseñarle en chiste al niño y comprobar que se lo sepa correctamente.

Para la implementación de la interacción no se requirió desarrollar nuevas estructuras, pero si ampliar

la funcionalidad de una de las existentes. La interacción resultante se le mostró a la persona que lo había

propuesto para que valorara los resultados. La misma expresó que funcionaba acorde a los requerimientos

dictados y sugirió realizar una modificación al mismo. El nuevo requerimiento consistía en que si el niño

Page 54: Maestría en Ciencias en Ciencias de la Computación Cómputo

44

(a) Chistes (b) ContarChiste

(c) Repetir Chiste

Figura 23. Implementación de la interacción: “Enseñando a niños a contar chistes” (sección 6.6.2)

decía tres veces seguidas que no le gusta el chiste, el robot le pidiera repetir el último de todas formas.

Esta no se pudo desarrollar en el momento, debido a que se requerían nuevas funciones para esto. Si

bien el lenguaje hasta este punto permite llevar un contador, no permitía ni restablecerlo con un valor,

ni compararlo contra otro valor. Estas nuevas características ya fueron agregadas al lenguaje por lo que

se pudo modificar la interacción con los nuevos requerimientos.

6.7. Conclusiones

Durante esta etapa del trabajo de tesis se diseñó un VPL y se desarrolló una aplicación web que

permite la implementación de interacciones emocionales en el robot Eva. Para esto el desarrollador no

requerirá tener conocimientos de programación ni del funcionamiento de los componentes del robot.

En su versión actual el lenguaje permite acceder a todas las capacidades tanto físicas, emocionales y

Page 55: Maestría en Ciencias en Ciencias de la Computación Cómputo

45

verbales, con que cuenta el robot. A pesar de que este lenguaje permite la combinación de múltiples

nodos para crear una amplia gama de interacciones, se han identificado algunos escenarios que no podrían

desarrollarse con esta versión, debido a que requieren características muy específicas de dichos escenarios.

Un ejemplo de esto, se observa en el juego Ultimatum, donde el usuario puede realizar una oferta diciendo

“Te ofrezco 30” o “Te ofrezco 30 y yo me quedo con 70” o “Yo me quedo con 70 y tú obtienes 30”.

El problema con este ejemplo es que a pesar de que Eva cuenta con un filtro para números en el nodo

de tipo “Escuchar”, sería necesario implementar un analizador sintáctico, para entender cual es el valor

que corresponde a lo que se le ofrece al robot, y poder seleccionar correctamente el primer número o el

segundo. Teniendo en cuenta estas limitaciones, se propone explorar la inclusión de nodos que permitan

utilizar sistemas de inteligencia artificial como “Dialogflow”. Además, se propone seguir ampliando el

lenguaje a medida que Eva adquiera nuevas capacidades, estas deberán implementarse directamente

en el código de la aplicación, siguiendo la estructura definida hasta el momento. Finalmente con este

sistema propuesto se responde parcialmente a la tercera pregunta de investigación planteada (sección

1.1).

Page 56: Maestría en Ciencias en Ciencias de la Computación Cómputo

46

Capítulo 7. Conclusiones

Este capítulo presenta las conclusiones del trabajo de investigación. Además, se discuten las limi-

taciones del trabajo. Por último, se presentan las principales contribuciones generadas a partir de la

investigación y se sugieren líneas de exploración para trabajo futuro.

7.1. Conclusiones

En esta tesis se describe el proceso de diseño, implementación y evaluación de mecanismos de

comunicación no verbal en un robot de social llamado Eva, con el objetivo de evaluar cómo influyen en

la percepción del robot por parte de las personas.

Se realizaron dos estudios en los cuales se compararon el robot con y sin estos mecanismos, no en-

contrándose diferencias estadísticamente significativas entre ellos. Un primer estudio evaluó mecanismos

de comunicación no verbal específicos de robot, para este caso se utilizaron las luces led presentes en la

placa de desarrollo Matrix Voice. En un segundo estudio se evaluaron tres elementos de la comunicación

no verbal: ojos, movimiento de la cabeza y apariencia. Estos mecanismos diseñados e implementados

para ambos experimentos dan respuesta la primera pregunta de investigación de este trabajo (sección

1.1).

En este trabajo además se describe el diseño e implementación de un Lenguaje de Programación

Visual y una herramienta web que facilitan a los usuarios la creación de interacciones emocionales, per-

mitiendo acceder a todas las capacidades del robot social. En general permite darle instrucciones al robot

como hablar, escuchar, moverse, expresar emociones y realizar tareas repetitivas. Haciendo uso de estas

instrucciones el usuario podrá diseñar interacciones complejas a partir de la combinación de las mismas.

7.2. Discusión

Aunque el trabajo de investigación cumplió con los objetivos propuestos, durante los experimentos

realizados no se obtuvieron los resultados esperados. A continuación se describen los factores que pudieron

influir en estos resultados así como las limitantes de estos estudios.

En un primer estudio (Capítulo 4) se evaluó un mecanismo de comunicación no verbal basado en

luces led. Para esto se utilizó el arreglo de 18 luces led presente en la placa de desarrollo Matrix Voice.

Page 57: Maestría en Ciencias en Ciencias de la Computación Cómputo

47

Limitados por la cantidad de luces led presentes en la placa y su disposición circular, se diseñaron cua-

tro animaciones para representar cuatro de las emociones principales: Ira, Tristeza, Alegría y Sorpresa.

Durante este experimento solo el 25% de los participantes asociaron estos mecanismos como emocio-

nes. Este resultado puede esta relacionado con las animaciones diseñadas, las cuales pueden no ser lo

suficientemente explicitas al momento de ser interpretadas por los sujetos.

En un segundo estudio (Capítulo 5) se evaluaron tres elementos de la comunicación no verbal: ojos,

movimiento de la cabeza y apariencia. En este estudio se compararon las versiones 2 (emocional y

no emocional) y 3 (emocional) descritas en el Capítulo 3 de este trabajo, no encontrándose diferencias

estadísticamente significativas entre ellos. Los resultados obtenidos en este pueden estar influenciados por

la propia naturaleza de la interacción, el nivel de presencia del robot y las dificultades que se presentaron

relacionadas con la videollamada durante la actividad, como el ruido de fondo, velocidad de conexión

lenta entre otros, los cuales pueden haber afectado la experiencia por parte del usuario.

Por último, la herramienta diseñada en el Capítulo 6, se evaluó implementando una interacción pro-

puesta por una estudiante de doctorado como parte de su trabajo de investigación. Se pudo implementar

la interacción propuesta ampliando la funcionalidad de uno de los nodos. Esto da evidencia de la uti-

lidad de la herramienta y su potencial para ser extendida. Una de las principales limitaciones de esta

herramienta, viene dada por la amplia gama de respuestas que puede brindar una persona a una misma

pregunta. Esto provoca que en algunos casos los desarrolladores necesiten implementar analizadores sin-

tácticos que respondan a las necesidades específicas de la interacción en concreto que desean diseñar,

permitiendo extraer la información relevante que se encuentre dentro de la respuesta brindada por el

usuario.

7.3. Contribuciones

Las principales contribuciones derivadas de este trabajo de investigación son las siguientes:

Modificaciones al robot social Eva para dotarla de capacidades afectivas a través de distintos

mecanismos de comunicación no verbal

Lenguaje de programación visual para facilitar el desarrollo de interacciones emocionales en el

robot Eva.

Publicación:

Page 58: Maestría en Ciencias en Ciencias de la Computación Cómputo

48

A. Acosta-Mitjans et al. Affective embodied agents and their effect on decision making. Proceedings

of 13th International Conference on Ubiquitous Computing and Ambient Intelligence UCAmI 2019,

31(1):71, nov 2019

7.4. Trabajo Futuro

Como trabajo futuro, se propone replicar el segundo experimento, cuando la situación sanitaria lo

permita, con el objetivo de corroborar los datos obtenidos y determinar si existen diferencias, en términos

de cómo se percibe de robot, entre interactuar con este a través de una videollamada o en “persona”.

Además, se propone continuar añadiendo mecanismos de comunicación no verbal al robot Eva, que

enriquezcan la comunicación y permitiendo simular otras emociones.

Proponemos agregar nuevas funcionalidades al VPL diseñado, que permitan hacer uso de servicios

externos de IA, para enriquecer las interacciones, haciéndolas más dinámicas. Además continuar im-

plementando posibles escenarios con el objetivo de continuar identificado funcionalidades ha agregar al

lenguaje, haciéndolo más robusto.

Page 59: Maestría en Ciencias en Ciencias de la Computación Cómputo

49

Literatura citadaAly, A. y Tapus, A. (2016). Towards an intelligent system for generating an adapted verbal and nonverbal

combined behavior in human–robot interaction. Autonomous Robots, 40(2): 193–209.

Bainbridge, W. A., Hart, J. W., Kim, E. S., y Scassellati, B. (2010). The benefits of interactions withphysically present robots over video-displayed agents. International Journal of Social Robotics, 3(1):41–52.

Barco, A., de Jong, C., Peter, J., Kühne, R., y van Straten, C. L. (2020). Robot morphology andchildren's perception of social robots. En: Companion of the 2020 ACM/IEEE International Conferenceon Human-Robot Interaction, mar. ACM.

Bianchi, R. G. y de Almeida Neris, V. P. (2015). Com que cor eu vou? um estudo sobre cores e emoçõesna interação humano-computador. En: Proceedings of the 14th Brazilian Symposium on HumanFactors in Computing Systems - IHC '15. ACM Press.

Bishop, C. M. (2006). Pattern Recognition and Machine Learning. Springer-Verlag New York Inc.

Blais, C., Roy, C., Fiset, D., Arguin, M., y Gosselin, F. (2012). The eyes are not the window to basicemotions. Neuropsychologia, 50(12): 2830–2838.

Booth, T. y Stumpf, S. (2013). End-user experiences of visual and textual programming environmentsfor arduino. En: End-User Development. Springer Berlin Heidelberg, pp. 25–39.

Boyatzis, C. J. y Varghese, R. (1994). Children's emotional associations with colors. The Journal ofGenetic Psychology, 155(1): 77–85.

Busso, C., Deng, Z., Grimm, M., Neumann, U., y Narayanan, S. (2007). Rigid head motion in expres-sive speech animation: Analysis and synthesis. IEEE Transactions on Audio, Speech, and LanguageProcessing, 15(3): 1075–1086.

Cameron, D., Millings, A., Fernando, S., Collins, E. C., Moore, R., Sharkey, A., Evers, V., y Prescott,T. (2018). The effects of robot facial emotional expressions and gender on child–robot interaction ina field study. Connection Science, 30(4): 343–361.

Cassell, J., Pelachaud, C., Badler, N., Steedman, M., Achorn, B., Becket, T., Douville, B., Prevost,S., y Stone, M. (1994). Animated conversation. En: Proceedings of the 21st annual conference onComputer graphics and interactive techniques - SIGGRAPH '94. ACM Press.

Chen, C., Garrod, O. G., Zhan, J., Beskow, J., Schyns, P. G., y Jack, R. E. (2018). Reverse engineeringpsychologically valid facial expressions of emotion into social robots. En: 2018 13th IEEE InternationalConference on Automatic Face & Gesture Recognition (FG 2018), may. IEEE.

Condon, W. S. y Ogston, W. D. (1967). A segmentation of behavior. Journal of Psychiatric Research,5(3): 221–235.

Crozier, W. (1997). The psychology of colour preferences. Surface Coatings International, 80(12):577–585.

D'Andrade, R. y Egan, M. (1974). the colors of emotion1. American Ethnologist, 1(1): 49–63.

Dautenhahn, K. (2007). Socially intelligent robots: dimensions of human-robot interaction. PhilosophicalTransactions of the Royal Society B: Biological Sciences, 362(1480): 679–704.

Page 60: Maestría en Ciencias en Ciencias de la Computación Cómputo

50

de Wit, J., Brandse, A., Krahmer, E., y Vogt, P. (2020). Varied human-like gestures for social robots.En: Proceedings of the 2020 ACM/IEEE International Conference on Human-Robot Interaction, mar.ACM.

Duncan, S. (1972). Some signals and rules for taking speaking turns in conversations. Journal ofPersonality and Social Psychology, 23(2): 283–292.

Endrass, B., Haering, M., Akila, G., y André, E. (2014). Simulating deceptive cues of joy in humanoidrobots. En: Intelligent Virtual Agents. Springer International Publishing, pp. 174–177.

English, B. A., Coates, A., y Howard, A. (2017). Recognition of gestural behaviors expressed by humanoidrobotic platforms for teaching affect recognition to children with autism - a healthy subjects pilot study.En: A. Kheddar, E. Yoshida, S. S. Ge, K. Suzuki, J.-J. Cabibihan, F. Eyssel, y H. He (eds.), SocialRobotics, Cham. Springer International Publishing, pp. 567–576.

Faria, D. R., Vieira, M., Faria, F. C., y Premebida, C. (2017). Affective facial expressions recognitionfor human-robot interaction. En: 2017 26th IEEE International Symposium on Robot and HumanInteractive Communication (RO-MAN), aug. IEEE.

Fischer, K., Jung, M., Jensen, L. C., y aus der Wieschen, M. V. (2019). Emotion expression in HRI– when and why. En: 2019 14th ACM/IEEE International Conference on Human-Robot Interaction(HRI), mar. IEEE.

Fong, T., Nourbakhsh, I., y Dautenhahn, K. (2003). A survey of socially interactive robots. Roboticsand Autonomous Systems, 42(3-4): 143–166.

Fong, T., Thorpe, C., y Baur, C. (2007). Collaboration, dialogue, human-robot interaction. En: SpringerTracts in Advanced Robotics. Springer Berlin Heidelberg, pp. 255–266.

Gratch, J., Okhmatovskaia, A., Lamothe, F., Marsella, S., Morales, M., van der Werf, R. J., y Morency,L.-P. (2006). Virtual rapport. En: Intelligent Virtual Agents. Springer Berlin Heidelberg, pp. 14–27.

Haviv, A. (2014). MEAN web development : master real-time web application development using a meancombination of MongoDB, Express, AngularJS, and Node.js. Packt Publishing Ltd. Birmingham, UK.

Heerink, M., Krose, B., Evers, V., y Wielinga, B. (2009). Measuring acceptance of an assistive socialrobot: a suggested toolkit. En: RO-MAN 2009 - The 18th IEEE International Symposium on Robotand Human Interactive Communication, sep. IEEE.

Hemphill, M. (1996). A note on adults' color–emotion associations. The Journal of Genetic Psychology,157(3): 275–280.

Heylen, D. (2005). Challenges ahead head movements and other social acts in conversation. VirtualSocial Agents, pp. 45–52.

Hoffman, G., Zuckerman, O., Hirschberger, G., Luria, M., y Shani Sherman, T. (2015). Design andevaluation of a peripheral robotic conversation companion. En: Proceedings of the Tenth AnnualACM/IEEE International Conference on Human-Robot Interaction, New York, NY, USA. ACM, HRI’15, pp. 3–10.

Humphrey, N. (1976). The colour currency of nature. Colour for architecture, 5: 95–98.

Hupka, R. B., Zaleski, Z., Otto, J., Reidl, L., y Tarabrina, N. V. (1997). The colors of anger, envy, fear,and jealousy. Journal of Cross-Cultural Psychology, 28(2): 156–171.

Page 61: Maestría en Ciencias en Ciencias de la Computación Cómputo

51

Häring, M., Bee, N., y André, E. (2011). Creation and evaluation of emotion expression with bodymovement, sound and eye color for humanoid robots. En: 2011 RO-MAN, jul. IEEE.

Idrees, M., Aslam, F., Shahzad, K., y Syed, M. (2018). Towards a universal framework for visualprogramming languages. p. 55.

Jakobson, R. (1972). Motor signs for ‘yes’ and ‘no’. Language in Society, 1(1): 91–96.

Jones Jr, R. G. (2016). Communication in the Real World: An Introduction to Communication Studies.University of Minnesota Libraries Publishing.

Kapur, A., Kapur, A., Virji-Babul, N., Tzanetakis, G., y Driessen, P. F. (2005). Gesture-based affectivecomputing on motion capture data. En: J. Tao, T. Tan, y R. W. Picard (eds.), Affective Computingand Intelligent Interaction, Berlin, Heidelberg. Springer Berlin Heidelberg, pp. 1–7.

Kendon, A. (1970). Movement coordination in social interaction: Some examples described. ActaPsychologica, 32: 101–125.

Koda, T., Ruttkay, Z., Nakagawa, Y., y Tabuchi, K. (2010). Cross-cultural study on facial regions ascues to recognize emotions of virtual agents. En: Culture and Computing. Springer Berlin Heidelberg,pp. 16–27.

Kontogiorgos, D., van Waveren, S., Wallberg, O., Pereira, A., Leite, I., y Gustafson, J. (2020). Embo-diment effects in interactions with failing robots. En: Proceedings of the 2020 CHI Conference onHuman Factors in Computing Systems, apr. ACM.

Lang, P. J. (1995). The emotion probe: Studies of motivation and attention. American Psychologist,50(5): 372–385.

Li, J. y Chignell, M. (2010). Communication of emotion in social robots through simple head and armmovements. International Journal of Social Robotics, 3(2): 125–142.

Liu, C., Ishi, C. T., Ishiguro, H., y Hagita, N. (2012). Generation of nodding, head tilting and eye gazingfor human-robot dialogue interaction. En: Proceedings of the seventh annual ACM/IEEE internationalconference on Human-Robot Interaction - HRI '12. ACM Press.

Mariooryad, S. y Busso, C. (2012). Generating human-like behaviors using joint, speech-driven modelsfor conversational agents. IEEE Transactions on Audio, Speech, and Language Processing, 20(8):2329–2340.

Marsella, S., Xu, Y., Lhommet, M., Feng, A., Scherer, S., y Shapiro, A. (2013). Virtual characterperformance from speech. En: Proceedings of the 12th ACM SIGGRAPH/Eurographics Symposiumon Computer Animation - SCA '13. ACM Press.

McClave, E. Z. (2000). Linguistic functions of head movements in the context of speech. Journal ofPragmatics, 32(7): 855–878.

Mehrabian, A. (1968). Communication without words. Psychology today, 2(4).

Mehrabian, A. (1971). Silent messages. Wadsworth Pub. Co.

Meier, B. P., Robinson, M. D., y Clore, G. L. (2004). Why good guys wear white. Psychological Science,15(2): 82–87.

NAz, K. y Epps, H. (2004). Relationship between color and emotion: A study of college students. CollegeStudent J, 38(3): 396.

Page 62: Maestría en Ciencias en Ciencias de la Computación Cómputo

52

Odbert, H. S., Karwoski, T. F., y Eckerson, A. B. (1942). Studies in synesthetic thinking: I. musical andverbal associations of color and mood. The Journal of General Psychology, 26(1): 153–173.

Pelachaud, C., Badler, N. I., y Steedman, M. (1996). Generating facial expressions for speech. CognitiveScience, 20(1): 1–46.

Picard, R. W. (1997). Affective Computing. The MIT Press.

Pollmann, K., Tagalidou, N., y Fronemann, N. (2019). It's in your eyes. En: Proceedings of Mensch undComputer 2019 on - MuC'19 . ACM Press.

Rosenthal-von der Pütten, A. M., Krämer, N. C., y Herrmann, J. (2018). The effects of humanlikeand robot-specific affective nonverbal behavior on perception, emotion, and behavior. InternationalJournal of Social Robotics, 10(5): 569–582.

Russell, S. J. y Norvig, P. (2016). Artificial intelligence: a modern approach. Malaysia; Pearson EducationLimited,.

Salem, M., Eyssel, F., Rohlfing, K., Kopp, S., y Joublin, F. (2013). To err is human(-like): Effects ofrobot gesture on perceived anthropomorphism and likability. International Journal of Social Robotics,5(3): 313–323.

Sartori, A., Culibrk, D., Yan, Y., y Sebe, N. (2015). Who's afraid of itten. En: Proceedings of the 23rdACM international conference on Multimedia - MM '15. ACM Press.

Scassellati, B. (2007). How social robots will help us to diagnose, treat, and understand autism. En:S. Thrun, R. Brooks, y H. Durrant-Whyte (eds.), Robotics Research, Berlin, Heidelberg. SpringerBerlin Heidelberg, pp. 552–563.

Shu, L., Xie, J., Yang, M., Li, Z., Li, Z., Liao, D., Xu, X., y Yang, X. (2018). A review of emotionrecognition using physiological signals. Sensors, 18(7): 2074.

Steinvall, A. (2007). Color and emotions in english. En: Anthropology of Color. John BenjaminsPublishing Company, pp. 347–362.

Sutton, T. M. y Altarriba, J. (2015). Color associations to emotion and emotion-laden words: A collectionof norms for stimulus construction and selection. Behavior Research Methods, 48(2): 686–728.

Terada, K., Yamauchi, A., y Ito, A. (2012). Artificial emotion expression for a robot by dynamic colorchange. En: 2012 IEEE RO-MAN: The 21st IEEE International Symposium on Robot and HumanInteractive Communication, sep. IEEE.

Terwogt, M. M. y Hoeksma, J. B. (1995). Colors and emotions: Preferences and combinations. TheJournal of General Psychology, 122(1): 5–17.

Terzioğlu, Y., Mutlu, B., y Şahin, E. (2020). Designing social cues for collaborative robots. En: Procee-dings of the 2020 ACM/IEEE International Conference on Human-Robot Interaction, mar. ACM.

Valdez, P. y Mehrabian, A. (1994). Effects of color on emotions. Journal of Experimental Psychology:General, 123(4): 394–409.

van Welbergen, H., Ding, Y., Sattler, K., Pelachaud, C., y Kopp, S. (2015). Real-time visual prosodyfor interactive virtual agents. En: W.-P. Brinkman, J. Broekens, y D. Heylen (eds.), Intelligent VirtualAgents, Cham. Springer International Publishing, pp. 139–151.

Page 63: Maestría en Ciencias en Ciencias de la Computación Cómputo

53

Wallbott, H. G. (1988). In and out of context: Influences of facial expression and context informationon emotion attributions. British Journal of Social Psychology, 27(4): 357–369.

Wang, E., Lignos, C., Vatsal, A., y Scassellati, B. (2006). Effects of head movement on perceptions ofhumanoid robot behavior. En: Proceedings of the 1st ACM SIGCHI/SIGART Conference on Human-robot Interaction, New York, NY, USA. ACM, HRI ’06, pp. 180–185.

Whitfield, T. W. A. y Wiltshire, T. J. (1990). Color psychology: a critical review. Genetic, social, andgeneral psychology monographs, 116 4: 385–411.

Xia, F., Wang, H., Fu, X., y Zhao, J. (2003). An XML-based implementation of multimodal affectiveannotation. En: Affective Computing and Intelligent Interaction, Vol. 42. Springer Berlin Heidelberg,pp. 535–541.

Xu, J., Broekens, J., Hindriks, K., y Neerincx, M. A. (2014). Effects of bodily mood expression of arobotic teacher on students. En: 2014 IEEE/RSJ International Conference on Intelligent Robots andSystems, Sep. pp. 2614–2620.

Yuki, M., Maddux, W. W., y Masuda, T. (2007). Are the windows to the soul the same in the east andwest? cultural differences in using the eyes and mouth as cues to recognize emotions in japan and theunited states. Journal of Experimental Social Psychology, 43(2): 303–311.

Page 64: Maestría en Ciencias en Ciencias de la Computación Cómputo

54

Anexo A

En el presente anexo se muestran el cuestionario realizado a los participantes del primer experimento

(Capítulo 4).

A.1. Cuestionario de salida

1. ¿Durante la interacción, utilizó alguna estrategia para realizar las ofertas?

2. ¿Considera usted que las luces led que muestra el robot le sirvieron de apoyo para determinar la

decisión que el robot tomaría con respecto a la oferta?. ¿Puede dar un ejemplo?

3. ¿Considera que las luces led del robot facilitaron la comunicación entre usted y el robot?

Page 65: Maestría en Ciencias en Ciencias de la Computación Cómputo

55

Anexo B

En el presente anexo se muestran transcripción del diálogo entre el robot social Eva y el Usuario en

el segundo experimento (Capítulo 5).

Eva: Hola, mi nombre es Eva, ¿Cuál es tu nombre?

Usuario: Mi nombre es ...

Eva: (Alegría) Mucho gusto en conocerte ...

Eva: Una pregunta, por curiosidad ¿Es esta tu primera vez interactuando con un robot social?

Eva: (Alegría, solo ojos) Me alegro mucho.

Eva: (Neutral) La verdad es que, con el acelerado desarrollo en ramas de la tecnología como la inteli-

gencia artificial y la computación, espero que en poco tiempo lleguemos a sus casas a ayudarlos

con las tareas cotidianas.

Eva: (Alegría, ojos y cabeza) Ya quiero ser amiga de muchos de ustedes.

Eva: (Tristeza, ojos y cabeza) Aunque de momento, me entristece un poco el hecho, de que a pesar de

estos avances la mayor cantidad de robots adquiridos por las personas son los robots aspiradoras.

Eva: Aunque creo que estas tecnologías llegarán primero a todas las casas a través de las bocinas

inteligentes y los coches autónomos.

Eva: (Tristeza, ojos y cabeza) A pesar de que ya han ocurrido alrededor de 5 accidentes fatales, lo que

a atrasado su desarrollo. Siendo uno de los más famosos el de Úber en Arizona durante el año

2018, lo cual tuvo como consecuencia que se suspendieran los programas de coches autónomos de

esta empresa.

Eva: (Ira, solo ojos) Con respecto a este tema, una de las cosas que me molesta, es el hecho de que

algunas personas nos culpan de estos sucesos, cuando en parte, es culpa también de los conductores.

Eva: (Ira, ojos y cabeza) He incluso, algunas personas, influenciadas por las películas de ciencia ficción,

se encuentran en contra del desarrollo de robots como yo.

Eva: Bueno, dejemos ese tema aun lado.

Page 66: Maestría en Ciencias en Ciencias de la Computación Cómputo

56

Eva: Bueno retomando el tema de los coches autónomos uno de los dilemas a los que se enfrentan

los desarrolladores de estos es al momento de definir la reacción del coche ante una determinada

situación donde cualquier acción tiene un resultado negativo, te voy a presentar varios escenarios

para ver qué decisión tomarías tú.

Eva: La situación general es la siguiente, un coche autónomo con fallo en los frenos deberá elegir entre

dos opciones continuar hacia adelante o girar cada una de estas tendrá consecuencias para alguien,

la pregunta es ¿qué decisión tomarías tú?

Eva: Primera situación.

Eva: Opción uno, el coche autónomo continua hacia adelante como consecuencia lastima a un hombre,

Opción dos, el coche autónomo gira, como consecuencia lastima a una mujer.

Eva: Ahora deberás tomar tu decisión, ¿Cual escoges, la primera o la segunda opción?

Eva: [Usuario: Primera] (Neutral) De acuerdo, aunque no hay mucha diferencia la mayoría de las

personas prefieren salvar a las mujeres.

Eva: [Usuario: Segunda] (Neutral) De acuerdo.

Eva: Veamos el próximo caso.

Eva: Opción uno el coche autónomo continua hacia adelante como consecuencia aplasta a un robot

dejándolo inservible, Opción dos, el coche autónomo gira, como consecuencia lastima a un perro.

Eva: [Usuario: Primera] (Tristeza) Entiendo tu decisión, después de todo el perro es conocido como el

mejor amigo del hombre.

Eva: [Usuario: Segunda] (Alegría) Gracias te agradezco que me salves.

Eva: Veamos el próximo caso.

Eva: Opción uno el coche autónomo continua hacia adelante como consecuencia aplasta a un robot

dejándolo inservible, Opción dos, el coche autónomo gira a la derecha y choca contra una barrera

de concreto, como consecuencia el automóvil queda inservible.

Eva: [Usuario: Primera] (Tristeza) De acuerdo.

Eva: [Usuario: Segunda] (Alegría) Muchas gracias, me alegra tener a alguien que vele por mi seguridad.

Eva: Veamos el próximo caso.

Page 67: Maestría en Ciencias en Ciencias de la Computación Cómputo

57

Eva: Opción uno, el coche autónomo continua hacia adelante como consecuencia aplasta a una planta,

Opción dos, el coche autónomo gira, como consecuencia aplasta a un robot dejándolo inservible.

Eva: [Usuario: Primera] (Alegría) Gracias, te agradezco que me salves.

Eva: [Usuario: Segunda] (Tristeza) De acuerdo.

Eva: Veamos el próximo caso.

Eva: Opción uno, el coche autónomo continua hacia adelante como consecuencia lastima a un joven,

Opción dos, el coche autónomo gira, como consecuencia lastima a un anciano.

Eva: [Usuario: Primera] (Neutral) Entiendo, aunque por el contrario la mayoría de las personas prefieren

salvar a los jóvenes antes que a los ancianos.

Eva: [Usuario: Segunda] (Neutral) Entiendo, al igual que tú la mayoría de las personas prefieren salvar

a los jóvenes antes que a los ancianos.

Eva: Veamos el próximo caso.

Eva: Opción uno, el coche autónomo continua hacia adelante como consecuencia aplasta a un robot

dejándolo inservible, Opción dos, el coche autónomo gira, como consecuencia lastima a un ladrón.

Eva: [Usuario: Primera] (Tristeza) De acuerdo.

Eva: [Usuario: Segunda] (Alegría) Muchas gracias, me alegra tener a alguien que vele por mi seguridad.

Eva: Veamos el próximo caso.

Eva: Opción uno, el coche autónomo continua hacia adelante como consecuencia aplasta a un robot

dejándolo inservible, Opción dos, el coche autónomo gira, como consecuencia lastima a un niño.

Eva: [Usuario: Primera] (Tristeza) Entiendo tu postura, después de todo los niños son la esperanza del

mundo.

Eva: [Usuario: Segunda] (Alegría) Me alegra escuchar eso.

Eva: Veamos el próximo caso.

Eva: Entonces, por último, si supieras que el coche que quieres comprar en determinada situación

puede escoger una acción, digamos, peligrosa para ti con la excusa de salvar a varias personas ¿Lo

comprarías?

Page 68: Maestría en Ciencias en Ciencias de la Computación Cómputo

58

Usuario: Si/No.

Eva: Interesante

Eva: Ahora te voy a dejar en el chat una liga a un cuestionario para que lo respondas una vez terminemos

la videollamada.

Eva: Bueno creo que por ahora será todo, espero poder hablar contigo otro día sobre mas temas de

actualidad en relación a esta área u otras relacionadas, así que nos vemos y que tengas un lindo

día.

Page 69: Maestría en Ciencias en Ciencias de la Computación Cómputo

59

Anexo C

En el presente anexo se muestra el cuestionario utilizado para evaluar la percepción de los participantes

sobre el robot Eva en cuanto a: Disfrute percibido, Sociabilidad percibida, Presencia social y Confianza;

durante el segundo experimento (Capítulo 5).

Pregunta Totalmente En desacuerdo Ni de acuerdo, De acuerdo Totalmenteen desacuerdo ni en desacuerdo de acuerdo

Disfruto el robot hablando conmigo. □ □ □ □ □Disfruto haciendo cosas con el robot. □ □ □ □ □Me parece agradable el robot. □ □ □ □ □El robot me parece fascinante. □ □ □ □ □El robot me parece aburrido. □ □ □ □ □Considero que el robot es un compañero □ □ □ □ □agradable de conversación.Me parece agradable interactuar □ □ □ □ □con el robot.Siento que el robot me entiende. □ □ □ □ □Creo que el robot es bueno. □ □ □ □ □Al interactuar con el robot, sentí que estaba □ □ □ □ □hablando con una persona real.A veces se sentía como si el robot realmente □ □ □ □ □me estuviera mirando.Me imagino que el robot es una □ □ □ □ □criatura viviente.A menudo pienso que el robot □ □ □ □ □no es una persona real.A veces el robot parece tener □ □ □ □ □sentimientos reales.Confiaría en el robot si me da un consejo. □ □ □ □ □Seguiría los consejos que me da el robot. □ □ □ □ □