Una publicación de la Sociedad de Educación del IEEE (Capítulo Español)
Uma publicação da Sociedade de Educação do IEEE (Capítulo Espanhol)
DIC. 2013 VOL. 1 NÚMERO/NUMERO 4 (ISSN 2255-5706)
Versión Abierta Español – Portugués de la
Revista Iberoamericana de
Tecnologías del/da
Aprendizaje/Aprendizagem
Evaluación Continua on-line en Sesiones Prácticas como Complemento a un Examen Final ………..
……………….……………………………… I. Pardines, M. Sanchez-Elez, D. Chaver y J. I. Gómez
Evaluación por Expertos de la Usabilidad de un Sistema Gestor del Aprendizaje ……………………
………………………………………………..……… Ruth Medina Flores, Rafael Morales Gamboa
EDICIÓN ESPECIAL: CISPEE 2013
Editores Invitados: Teresa Restivo, Gustavo R. Alves
Editorial Especial: Educação em Engenharia: Desafios para a Inovação ………………………………
……………………………...……………………………………… Teresa Restivo, Gustavo R. Alves
Experiencia de Aplicación de un Entorno Personalizado de Aprendizaje Móvil a una Asignatura de
Ingeniería Informática ...……………………………………………………………………………….
…………………………………...... Miguel Ángel Conde González, Francisco José García Peñalvo
EDICIÓN ESPECIAL: TEEM 2013
Editores Invitados: Francisco J. García-Peñalvo
Editorial Especial: Aportaciones de la Ingeniería en una Perspectiva Multicultural de la Sociedad del
Conocimiento………………………..………………………………… Francisco J. García-Peñalvo
Uso de Robots y Animales como Herramientas Motivadoras en la Enseñanza de Materias TIC …….
…….........….. Juan Felipe García Sierra, Francisco Javier Rodríguez Lera, Student Member IEEE,
Camino Fernández, and Vicente Matellán Olivera, Member, IEEE
Entornos Personales de Aprendizaje y Aulas Virtuales: una Experiencia con Estudiantes
Universitarios...…………………………...............................................................................................
................Patricio Humanante Ramos, Francisco J. García-Peñalvo, Miguel Ángel Conde González
175
184
192
193
201
203
211
VAEP-RITA (http://webs.uvigo.es/cesei/VAEP-RITA)
CONSEJO/CONSELHO EDITORIAL
Presidente (Editor Jefe):
Martín Llamas Nistal,
Universidad de Vigo, España
Vicepresidente (Coeditor):
Manuel Castro Gil, UNED, España
Editor Asociado para lengua
Portuguesa:
Carlos Vaz do Carvalho,
INESP, Portugal
Miembros: Melany M. Ciampi, COPEC, Brasil
Javier Quezada Andrade,
ITESM, México
Edmundo Tovar, UPM, España
Manuel Caeiro Rodríguez,
Universidad de Vigo, España
Juan M. Santos Gago,
Universidad de Vigo, España
José Carlos Lourenço Quadrado.
Instituto Superior de Engenharia de
Lisboa (ISEL), Portugal
David Camacho Fernández
Universidad Autónoma de Madrid,
España
Secretaría: Gabriel Díaz Orueta, UNED, España
COMITÉ CIENTÍFICO
Alfredo Fernández
Valmayor, Universidad
Complutense de Madrid,
España
Antonio J. López Martín,
Universidad Estatal de
Nuevo Méjico, USA
Antonio J. Méndez,
Universidad de Coimbra,
Portugal
António Vieira de
Castro, ISEP, Oporto,
Portugal
Arturo Molina, ITESM,
México
Baltasar Fernández,
Universidad
Complutense de Madrid,
España
Carlos Delgado,
Universidad Carlos III
de Madrid, España
Carlos M. Tobar Toledo,
PUC-Campinas, Brasil
Claudio da Rocha Brito,
COPEC, Brasil
Daniel Burgos,
ATOS Origin, España
Fernando Pescador,
UPM, España
Francisco Arcega,
Universidad de
Zaragoza, España
Francisco Azcondo,
Universidad de
Cantabria, España
Francisco Jurado,
Universidad de Jaen,
España
Gustavo Rossi,
Universidad Nacional
de la Plata, Argentina
Héctor Morelos, ITESM,
México
Hugo E. Hernández
Figueroa, Universidad
de Campinas, Brasil
Ignacio Aedo,
Universidad Carlos III
de Madrid, España
Inmaculada Plaza,
Universidad de
Zaragoza, España
Jaime Muñoz Arteaga,
Universidad Autónoma
de Aguascalientes,
México
Jaime Sánchez,
Universidad de Chile,
Chile
Javier Pulido, ITESM,
México
J. Ángel Velázquez
Iturbide, Universidad
Rey Juan Carlos,
Madrid, España
José Bravo, Universidad
de Castilla La Mancha,
España
José Carpio, UNED,
España
José Palazzo M. De
Oliveira, UFGRS, Brasil
José Salvado, Instituto
Politécnico de Castelo
Branco, Portugal
José Valdeni de Lima,
UFGRS, Brasil
Juan Quemada, UPM,
España
Juan Carlos Burguillo
Rial, Universidad de
Vigo, España
J. Fernando Naveda
Villanueva,
Universidad de
Minnesota, USA
Luca Botturi,
Universidad de Lugano,
Suiza
Luis Anido, Universidad
de Vigo, España
Luis Jaime Neri Vitela,
ITESM, México
Manuel Fernández
Iglesias, Universidad de
Vigo, España
Manuel Lama Penín,
Universidad de Santiago
de Compostela, España
Manuel Ortega,
Universidad de Castilla
La Mancha, España
M. Felisa Verdejo,
UNED, España
Maria José Patrício
Marcelino, Universidad
de Coimbra, Portugal
Mateo Aboy, Instituto
de Tecnología de
Oregón, USA
Miguel Angel Sicilia
Urbán, Universidad de
Alcalá, España
Miguel Rodríguez
Artacho, UNED, España
Óscar Martínez
Bonastre, Universidad
Miguel Hernández de
Elche, España
Paloma Díaz,
Universidad Carlos III
de Madrid, España
Paulo Días,
Universidade do Minho,
Portugal
Rocael Hernández,
Universidad Galileo,
Guatema
Rosa M. Vicari, UFGRS,
Brasil
Regina Motz,
Universidad de La
República, Uruguay
Samuel Cruz-Lara,
Université Nancy 2,
Francia
Víctor H. Casanova,
Universidad de Brasilia,
Brasil
Vitor Duarte Teodoro,
Universidade Nova de
Lisboa, Portugal
Vladimir Zakharov,
Universidade Estatal
Técnica MADI, Moscú,
Rusia
Xabiel García pañeda,
Universidad de Oviedo,
España
Yannis Dimitriadis,
Universidad de
Valladolid, España
Title—On-line Evaluation Methodology of laboratory
sessions in Computer Science Degree.
Abstract—This paper presents a proposal for assessment the
laboratory sessions of a subject of the first course in Computer
Science degrees. This methodology is based on on-line short-
answer exam questions related to the concepts studied in each
session. Analyzing the academic results of a wide group of
students, it has been demonstrated that this way of evaluating
the knowledge is precise. The obtained grades norsub-estimate
neither overestimate the student’s work, being similar to the
ones achieved in a final exam. Moreover, there is a feedback
which allows the teacher to go into detail about those aspects of
the subject that students have not understood.
Index Terms— Continuous assessment, online learning
environments, teaching/learning strategies, laboratory
practicals
I. INTRODUCCIÓN
A implantación de los nuevos grados dentro del Espacio
Europeo de Educación Superior ha introducido una serie
de cambios en el modelo educativo tradicional. Desde el
punto de vista del profesor, éste se convierte en un
orientador, que ayudará al alumno a seguir un método de
aprendizaje adecuado que le permita alcanzar los objetivos
buscados. Y desde el punto de vista del alumno, éste se
convierte en el centro de la enseñanza, no solo se evaluarán
sus conocimientos sino las destrezas adquiridas para poder
alcanzar dichos conocimientos[1]-[4]. En este contexto,
adquiere especial importancia el concepto de evaluación
continua, en la que al alumno se le evalúa por todo el trabajo
realizado en la asignatura a lo largo del curso y no solo por
la calificación que obtiene en un examen final. La
evaluación continua goza de diversas ventajas (fuerza a que
el alumno estudie a diario, permite al profesor analizar la
evolución de cada estudiante a lo largo del curso, etc.), pero
de cara al profesor presenta como principal inconveniente
un aumento significativo de su carga de trabajo [5],
especialmente en titulaciones técnicas, en las que a la parte
teórica hay que añadir una importante carga práctica que
también es necesario evaluar. Resulta, por tanto, crucial
desarrollar estrategias que permitan que el alumno sea
evaluado de forma completa y objetiva en todos los aspectos
de la asignatura, pero que a la vez sean suficientemente
Departamento de Arquitectura de Computadores y Automática, Univer-
sidad Complutense, 28040, Madrid, España (autor de contacto, Tel.: +34-
913947573; e-mail: inmapl|marcos|dani02|[email protected]).
sencillas y automáticas para no aumentar en exceso el
trabajo del profesor.
En este artículo nos centraremos en desarrollar una
metodología de evaluación continua para la parte práctica de
una asignatura de primer curso de los Grados en Informática
que se imparten en la Universidad Complutense de Madrid
(UCM). Buscaremos que dicha metodología sea fiable (es
decir, que puntúe fielmente a los alumnos, algo que
demostraremos comparando la calificación continua con el
examen final), completa (que cubra la evaluación de todos
los conocimientos) y eficiente (que minimice el trabajo del
profesor y no suponga dedicar gran parte de la sesión
práctica a la evaluación). El sistema que presentamos se
basa en la realización de un cortoexamen on-line al final de
cada sesión de laboratorio, que permitirá comprobar, tanto al
profesor como al alumno, si se han adquirido las
competencias y conocimientos asociados a un determinado
tema. Demostraremos que esta estrategia consigue
comprobar de forma cuantitativa y precisa si el alumno ha
adquirido las competencias y conocimientos necesarios, y a
la vez reducir significativamente la tarea del profesor en
cuanto a evaluación y corrección.
Existen en la literatura diversos estudios que proponen la
realización de tests como base de la evaluación continua de
una asignatura, y cuyos resultados demuestran que dichas
pruebas, compuestas por preguntas de respuesta múltiple o
de respuesta corta, influyen positivamente en el proceso de
aprendizaje de los alumnos [6]-[12]. Particularizando sobre
metodologías de evaluación de asignaturas con carga
práctica de laboratorio hemos encontrado propuestas muy
interesantes. En [13] se propone que los alumnos realicen un
proyecto que será evaluado tanto por el profesor como por el
resto de sus compañeros. Los comentarios y calificaciones
otorgados por los compañeros serán controlados en todo
momento por el profesor. En [14] no solo se califica el
resultado final de la práctica realizada sino que además el
alumno deberá detallar qué problemas ha ido encontrando a
lo largo de la misma y cómo los ha ido resolviendo. Aunque
ambas ideas nos parecen muy interesantes, en ambos casos
los grupos de trabajo han de ser reducidos para no aumentar
en exceso la carga de trabajo del profesor. Dado que en
nuestro caso el número de alumnos es muy elevado,
creemos que la aplicación de estas técnicas no es viable.
Una propuesta semejante a la nuestra la encontramos en
[15], donde se realiza una práctica por módulos, con
distintas fechas de entrega. Cada vez que se entrega un
módulo, se hace un pequeño examen sobre el mismo, lo que
permite al alumno conocer los errores y corregirlos. La
metodología propuesta en este artículo es muy similar, la
diferencia estriba en que nuestras prácticas, aunque
relacionadas, no forman parte de una práctica final, ya que
Evaluación Continua on-line en Sesiones
Prácticas como Complemento a un Examen
Final
I. Pardines, M.Sanchez-Elez, D. Chaver y J. I. Gómez
L
VAEP-RITA Vol. 1, Núm. 4, Dic. 2013 175
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
al tratarse de una asignatura de primer curso y con un
número de créditos limitado, los alumnos no tendrían ni el
tiempo ni los conocimientos suficientes para abordarla.
Además, en nuestro caso, las prácticas se realizan con el
objetivo principal de que el alumno afiance los aspectos
teóricos explicados en clase, lo que debería contribuir a la
obtención de mejores resultados en el examen final [16].
Por último debemos mencionar que en la metodología que
proponemos hacemos un uso intensivo de las nuevas
tecnologías (infraestructura Moodle [24] que nos
proporciona el Campus Virtual de la UCM), facilitando
significativamente la labor del profesor en la realización de
este tipo de pruebas. Las TICs (Tecnologías de la
Información y la Comunicación) han demostrado ser muy
útiles para los profesores y para los estudiantes como
complemento a los métodos de enseñanza tradicional [17]-
[20].
El artículo está organizado del siguiente modo. En la
siguiente sección se describe cómo está estructurada y cómo
se evalúa la asignatura sobre la cual se va a aplicar la
metodología propuesta. A continuación, se describe
brevemente dicha metodología y se explica cómo se ha
implementado, en qué consiste y cómo es el interfaz que ven
los alumnos. Por último, se analizan los resultados obtenidos
y se exponen las principales conclusiones de este trabajo.
II. MOTIVACIÓN DEL TRABAJO
En primer lugar, resulta procedente hacer una breve
descripción de la asignatura sobre la que se va a aplicar la
metodología propuesta.
El modelo de evaluación que proponemos se ha probado
en el segundo cuatrimestre de la asignatura Fundamentos de
Computadores del primer curso de las titulaciones de Grado
en Ingeniería del Software, Grado en Informática y Grado
en Ingeniería de Computadores. La asignatura consta de dos
cuatrimestres claramente diferenciados: un primer
cuatrimestre (6 créditos) está centrado en tecnología de
computadores, en el que se enseña especificación e
implementación de sistemas digitales; y un segundo
cuatrimestre (6 créditos) que introduce la estructura de
computadores, en el que se enseñan los conceptos básicos de
la programación en ensamblador del ARM [21] y se estudia
la implementación del procesador y del sistema de memoria
de un computador MIPS [22].
Esta asignatura tiene una importante carga práctica, con
sesiones distribuidas a lo largo de todo el curso, que tratan
de afianzar los conceptos presentados a nivel teórico. En
cada cuatrimestre se realizan 5 sesiones de laboratorio, de
dos horas de duración cada una. En el primero, se pide a los
alumnos implementar una serie de circuitos digitales. El
alumno tiene que desarrollar el diseño antes de asistir al
laboratorio, y una vez en éste, realizar el montaje sobre el
entrenador y comprobar el correcto funcionamiento del
circuito. En el segundo cuatrimestre, los estudiantes deben
desarrollar una serie de programas en el lenguaje
ensamblador de ARM en el entorno EmbestIDE [23]. En
cada práctica, se les pide desarrollar uno o dos programas
antes de la misma y comprobar su funcionamiento en el
entorno utilizado (se proporciona a los alumnos equipos de
uso libre en la facultad; además la funcionalidad requerida
para el desarrollo de las prácticas está incorporada en la
versión gratuita de la herramienta, por lo que el alumno
tiene la posibilidad de instalarlo y utilizarlo en su propia
casa). Durante la sesión de laboratorio, se plantean algunas
modificaciones a estos programas que el alumno debe
desarrollar.
Dado que las prácticas tienen un peso importante en la
nota final de la asignatura (25%, ampliable hasta un 40%
según el plan de estudios), resulta imprescindible que sean
calificadas de forma completa y objetiva a través de la
evaluación continua. Se presentan en este punto varios retos:
en primer lugar, es necesario comprobar que el trabajo del
alumno, tanto previo como durante la práctica, haya sido
realizado de forma totalmente individual. En segundo lugar,
para conseguir calificar de forma precisa a los estudiantes es
necesario plantearle a cada uno un número amplio de
preguntas que cubran todos los aspectos de la práctica. Sin
embargo, se debe tener en cuenta que solo se dispone de dos
horas, en las que además de examinar a los alumnos se les
debe dar tiempo para desarrollar una parte de la práctica y
para resolver sus dudas. Por último, dado el elevado número
de alumnos con el que cuenta cada grupo de primero y para
que los alumnos puedan realizar las prácticas de forma
individual, se crean varios turnos de laboratorio, cada uno
con un profesor diferente. Es importante que no se
produzcan diferencias de exigencia significativas en los
distintos turnos.
La metodología empleada, en ambos cuatrimestres,
cuando no se aplica el sistema propuesto en este artículo es
la siguiente: al principio de la sesión se entrevista a cada
alumno para comprobar si trae preparado el
diseño/programa, si lo conoce en profundidad y si lo ha
realizado de forma autónoma. De esta breve entrevista (no
se dedican más de 2 ó 3 minutos por alumno) se obtiene una
primera calificación. A continuación, se le pide al alumno
implementar el circuito en el entrenador (primer
cuatrimestre) o modificar el programa de ensamblador
(segundo cuatrimestre), y se le resuelven las dudas que le
vayan surgiendo. Por último, se comprueba el
funcionamiento correcto de los circuitos/programas y se le
hacen algunas preguntas, completando su calificación de la
práctica. Seguir esta metodología cuando el laboratorio está
completo (20 alumnos) supone que el profesor dedica más
del 50% del tiempo a calificar la práctica.
Nuestra metodología pretende evaluar las prácticas de
manera fiable y completa liberando al profesor de esta tarea
para que se pueda dedicar a ayudar a los alumnos a resolver
sus dudas. Dado que existe una gran similitud entre los
contenidos del examen final y los de las prácticas realizadas,
cabe esperar que las calificaciones obtenidas en las prácticas
sean una estimación muy fiable de la calificación del
examen final. Asimismo, como demostraremos en la sección
de resultados, la evaluación de las prácticas mediante
pruebas tipo test mejora ligeramente las calificaciones
obtenidas en el examen final.
III. METODOLOGÍA DE EVALUACIÓN DEL LABORATORIO
Nuestra propuesta se basa en plantear a los alumnos, en
cada sesión de laboratorio, una serie de preguntas tipo test (o
de respuesta corta cuando un tipo test no sea
adecuado)relacionadas con la práctica. El cuestionario se
lleva a cabo a través de la conocida herramienta docente
Moodle [24], y durante el mismo se permite al alumno hacer
uso del entorno de desarrollo EmbestIDE en el que ha
desarrollado la práctica. Con este examen, podremos evaluar
aspectos tales como el manejo que tiene el estudiante del
entorno de desarrollo, la corrección de los códigos que haya
176 VAEP-RITA Vol. 1, Núm. 4, Dic. 2013
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
programado o si ha adquirido los conceptos teóricos
asociados a la práctica.
La solución que proponemos es planificar el laboratorio
del siguiente modo:
1) Proponer (de 7 a 10 días antes de la sesión de
laboratorio) la realización y depuración de un programa
en ensamblador. Los alumnos deberán simularlo y
comprobar su correcto funcionamiento.
2) Completar, durante la sesión de laboratorio, el
trabajo previo con alguna ampliación de la práctica
original que el alumno tendrá que programar durante la
sesión.
3) Realizar, durante esa misma sesión, una prueba con
preguntas tipo test o de respuesta corta sobre el trabajo
realizado antes y durante la práctica.
Esta metodología presenta diversas ventajas:
1) Utilizar test automáticos permite: emplear
autocorrección (incluso en determinadas preguntas de
respuesta corta), reduciendo significativamente el trabajo
de evaluación del profesor en el laboratorio; realizar un
examen similar pero distinto para cada alumno y,
temporalizar claramente la duración de la prueba.
2) Se facilita la retroalimentación, pues el profesor
podrá comprobar de forma rápida qué conceptos no han
sido asimilados y podrá volver a hacer hincapié sobre
ellos en las sesiones teóricas, e incluso proponer nuevos
trabajos prácticos. Los alumnos, por su parte, podrán
comprobar si sus respuestas son correctas e incluso, si el
profesor lo habilita, podrán realizar la prueba de
evaluación de nuevo con nuevas preguntas y comprobar
así si han entendido los conceptos explicados. Esta última
característica de la herramienta está muy vinculada a la
especial importancia que adquieren en los nuevos grados
los métodos de aprendizaje autónomos [25], [26].
3) La metodología es especialmente adecuada para una
asignatura práctica:
El examen se puede hacer en un tiempo razonable
gracias a estar formado por preguntas cortas, algo
fundamental en el laboratorio.
La evaluación de la práctica ya no depende del
criterio de cada profesor de laboratorio (nótese
que al ser una asignatura con tantos alumnos es
necesario repartirlos en grupos de laboratorio,
cada uno con un profesor diferente). Su función
será solamente ayudar a los alumnos a entender
los conceptos asociados a cada práctica y
resolverles las dudas concretas que les vayan
surgiendo.
4) Como se ha demostrado en multitud de estudios, una
asignatura evaluada de forma continua consigue que los
alumnos afiancen mejor los conceptos.
La principal desventaja de este método es el pico de
trabajo que supone para el profesor el primer año de
implantación de la asignatura, en el que será necesario
desarrollar los exámenes asociados a cada práctica con
una batería de preguntas lo suficientemente amplia como
para asegurar que los alumnos realizan la práctica de
forma individual y autónoma. Por supuesto, este trabajo se
puede reutilizar en los años siguientes.
IV. GENERACIÓN DE LA PRUEBA DE EVALUACIÓN DEL
LABORATORIO
En esta sección describiremos paso a paso el proceso de
generación de las pruebas de evaluación de las prácticas.
A. Baterías de Preguntas
Cada prueba o examen de laboratorio constará de una
serie de cuestiones tipo test o de respuesta corta relacionadas
con la práctica (entre 4 y 6 por prueba). Para poder asegurar
que el trabajo ha sido realizado de manera individual por el
alumno cada cuestión de la prueba se obtendrá de una
batería que constará de un gran número de preguntas (50 o
más), asociadas a un mismo concepto teórico, que serán
seleccionadas por el entorno Moodle de forma aleatoria.
Cada batería de preguntas constituye un fichero en
formato gift (uno de los diferentes formatos de
importación/exportación de datos para Moodle). Cada línea
de ese fichero se corresponde con una pregunta y, entre
llaves, precedida por un signo igual, irá la respuesta o
respuestas que se consideren correctas, como se puede ver
en la Fig. 1.
B. Generación de la Prueba
Una vez creados los ficheros de cuestiones cortas será
necesario subirlos al Campus Virtual para poder generar la
prueba. La herramienta Moodle para crear exámenes nos
permite importar las preguntas desde un fichero. Si existen
varios grupos de preguntas se tendrán que crear distintas
categorías (una categoría por cada cuestión de la prueba),
importar cada fichero y vincularlo a la categoría
correspondiente.
Utilizando el ejemplo de la Fig. 2 vamos a describir cómo
se generaría una prueba con 5 cuestiones. En la figura
podemos observar que existen 5 categorías asociadas a esta
prueba, cada una con un número distinto de preguntas (este
número aparece entre paréntesis al lado del nombre de la
categoría).
El siguiente paso consistirá en seleccionar las preguntas
que conformarán la prueba o examen. Las preguntas serán
seleccionadas aleatoriamente por el entorno Moodle. El
profesor seleccionará cuántas preguntas de cada categoría
desea añadir de forma aleatoria al examen. Tendrá que
seleccionar el tipo de categoría de la pregunta (en la Fig. 2
cuadro de texto “Categoría”) y seleccionar en “Agregar”
(parte inferior derecha de la figura) el número de preguntas
aleatorias que desea añadir. Cuando el número de preguntas
de cada categoría ha sido seleccionado, el examen queda
configurado como podemos ver en la parte superior
izquierda de la Fig. 2.
Como paso final, será necesario editar la prueba y definir
cómo la visualizará el alumno. En nuestro caso hemos
optado por que se muestre una sola cuestión por página (el
alumno puede pasar de una pregunta a otra tantas veces
como quiera mientras no confirme el envío del examen).
También es necesario definir el número de fallos permitidos;
en nuestro caso, no permitimos ningún fallo, y el alumno no
sabrá hasta finalizar el examen cuántas de sus respuestas son
correctas.
Por último, controlaremos la hora de comienzo y de final
de la prueba, limitándola al tiempo que estimemos necesario
dentro de la sesión de laboratorio. Según nuestra experiencia
30 minutos es suficiente para que no se robe demasiado
tiempo a la práctica y que a la vez la prueba sea
suficientemente completa. La configuración de todos estos
parámetros se puede ver en la Fig. 3.
PARDINES et al.: EVALUACIÓN CONTINUA ON-LINE EN SESIONES PRÁCTICAS COMO COMPLEMENTO... 177
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
Fig. 1. Ejemplo de una batería de preguntas (formato gift).
Fig. 2. Visualización del banco de preguntas en el entorno Moodle.
C. Autocorrección de los Test
Una de las principales ventajas de realizar las pruebas a
través de la herramienta Moodle es que la labor de
corrección se ve notablemente simplificada. Este entorno
dispone de un sistema de autocorrección que compara la
respuesta del alumno con las que el profesor ha introducido
como respuestas válidas. Si coinciden, la respuesta se marca
como correcta, otorgándole la puntuación pre-asignada, y si
no coinciden, se marcará como errónea (existiendo en este
caso la posibilidad de otorgar una puntuación negativa). Si
el examen se configura con la opción de ver las soluciones
una vez finalizada la prueba, cuando el alumno accede a su
examen podrá ver qué respuestas ha acertado y cuáles ha
fallado, y en este último caso podrá ver también la respuesta
correcta. Podría ocurrir que el alumno dé una respuesta
correcta pero con un formato distinto del exigido por el
profesor. En ese caso, la autocorrección considerará dicha
respuesta como errónea. Para resolver este tipo de
incidencias de forma rápida el profesor puede consultar la
opción Análisis de ítems dentro de la ventana de Resultados.
En la nueva ventana (en la Fig. 4 se muestra un ejemplo de
esta opción) aparece cada pregunta que se ha planteado en
una de las pruebas con la respuesta que el profesor ha
indicado como válida, y a continuación, aparecen las
respuestas de los alumnos a esta pregunta. Por ejemplo, en
la Fig. 4 se puede observar que ante una pregunta cuya
respuesta correcta es “N”, un alumno ha contestado “el bit N
(negativo)”, que es una respuesta perfectamente válida. Al
detectar este problema, el profesor tendrá que editar la
pregunta (algo que puede hacer fácilmente a partir del icono
situado en la columna izquierda de la Fig. 4), añadir la
nueva respuesta como solución válida, y recalificar el
examen, con lo que a este alumno (o a cualquier otro que
haya respondido lo mismo) se le cambiará la evaluación de
la pregunta a correcta.
La ventana de Análisis de ítems también permite al
profesor comprobar si los alumnos han entendido los
conceptos que deben adquirir en cada tema. Si una pregunta
tiene un elevado número de respuestas erróneas el profesor
puede volver a retomar ese tema durante las clases teóricas,
haciendo especial hincapié en aquello que considere un
objetivo fundamental de la asignatura.
Otra ventaja que ofrece la herramienta Moodle es que si el
profesor asigna un valor numérico a cada pregunta, el
sistema, tras la finalización del examen, calificará
automáticamente a todos los estudiantes. El profesor puede
incluso visualizar los resultados de forma gráfica para
comprobar las calificaciones obtenidas (Fig. 5).
178 VAEP-RITA Vol. 1, Núm. 4, Dic. 2013
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
Fig. 3. Ventana de edición de un examen en Moodle.
Fig. 4. Visualización de la ventana Análisis de ítems.
V. CASO PRÁCTICO
En esta sección vamos a detallar cómo se llevaría a cabo
nuestra metodología de evaluación en una sesión de
laboratorio concreta. Nos vamos a centrar en la segunda
práctica que se propuso en el curso 2011-2012, en la que se
pretende comprobar:
La familiarización del alumno con el entorno de
desarrollo.
La habilidad en el manejo de estructuras de datos tipo
vector y su almacenamiento en memoria.
La capacidad para codificar en lenguaje ensamblador
del ARM sentencias especificadas en lenguaje de alto
nivel.
Entre 7 y 10 días antes de la sesión de laboratorio se
proporciona al alumno el guion de la práctica. Este
documento repasa los conceptos teóricos principales de la
práctica, especifica lo que se le va a pedir en el laboratorio
y enuncia la parte de la práctica que el alumno deberá llevar
desarrollada al laboratorio.
El trabajo previo asociado a esta práctica consistió en
codificar en ensamblador del ARM el código C de la Fig. 6.
Este programa busca el valor máximo de un vector A de
enteros positivos de longitud N y lo almacena en la variable
max. Se obliga a los alumnos a escribir en memoria el valor
de max cada vez que éste cambie, con el objetivo de generar
una mayor batería de preguntas sobre los accesos a
memoria.
El siguiente paso consiste en crear un conjunto amplio de
preguntas que permitan al profesor saber en qué grado se
han alcanzado los objetivos buscados. Teniendo en cuenta
los objetivos enunciados anteriormente, se pueden realizar el
siguiente tipo de preguntas:
En la iteración i=x, ¿cuánto vale la variable max?
Una vez ejecutado el código, ¿cuál es el valor
almacenado en la dirección 0x0c00003c? (Siendo ésta
una dirección donde está almacenada una variable del
código).
¿En qué dirección de memoria está almacenado cada
elemento del vector A?
En el ejemplo hemos considerado adecuado que la prueba
conste de 5 cuestiones en total, juntando las cuestiones de la
prueba del trabajo de casa con las cuestiones de la prueba
del trabajo en el laboratorio. Cada cuestión tiene asociada
una categoría diferente. Dentro de una categoría todas las
preguntas son iguales a excepción de que cada una hace
referencia a datos diferentes, de este modo garantizamos que
aunque las preguntas se eligen aleatoriamente, todas las
PARDINES et al.: EVALUACIÓN CONTINUA ON-LINE EN SESIONES PRÁCTICAS COMO COMPLEMENTO... 179
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
pruebas (existe una prueba por alumno) resultan de idéntica
dificultad.
Para aumentar el número de preguntas por categoría y
disminuir la probabilidad de que la misma pregunta se repita
varias veces, añadimos una estrategia más: dividimos a los
alumnos de forma aleatoria y completamente automática en
varios grupos y planteamos la prueba de cada grupo con las
mismas preguntas pero con un vector A distinto. En este
caso, para poder seguir realizando la corrección de las
pruebas de forma automática, deberemos añadir como
soluciones correctas las correspondientes a cada vector A
utilizado. La Fig. 7 muestra cómo ven el test los estudiantes
en el entorno Moodle (son cinco preguntas, una por página).
VI. EVALUACIÓN Y RESULTADOS
A. Escenario del Estudio
Para el estudio de la bondad de la metodología propuesta,
hemos analizado los resultados obtenidos por un grupo de
159alumnos de Fundamentos de Computadores, tanto en la
evaluación continua como en el examen final del segundo
cuatrimestre. Creemos que tomar como base de calificación
el examen final es una buena solución, pues es una prueba
que ha sido depurada por muchos profesores distintos a lo
largo de muchos cursos, y creemos que constituye una
referencia de calificación fiable y completa de la asignatura.
Asimismo, se comparan los resultados con los que
obtuvieron estos mismos alumnos en el primer cuatrimestre
de la misma asignatura. De esta forma comprobamos como
afecta la metodología a los mismos alumnos a la hora de
calificar la evaluación continua.
Dado que la dificultad de los conceptos a adquirir no es
equivalente entre el primer y el segundo cuatrimestre (como
corroboran todos los profesores que han impartido esta
materia), analizamos también los resultados obtenidos en el
segundo cuatrimestre por 105 alumnos pertenecientes a
grupos en los que no se ha seguido la metodología propuesta
sino una metodología basada en entrevistas como la descrita
en la Sección II.
Los grupos de alumnos se han formado como resultado de
haber extraído, del total de matriculados, aquellos alumnos
que no han realizado alguna de las 8 pruebas de evaluación
continua (4 por cuatrimestre) llevadas a cabo a lo largo de la
asignatura. Estos grupos los denotaremos en adelante del
siguiente modo:
E1: calificación sobre 10 del examen final del primer
cuatrimestre (en febrero).
C1: calificación sobre 10 de las actividades de
evaluación continua realizadas en el laboratorio en el
primer cuatrimestre (no se ha seguido la metodología
presentada en este artículo).
E2T: calificación sobre 10 del examen final del
segundo cuatrimestre (en junio) en el grupo de
alumnos que sigue la metodología propuesta.
C2T: calificación sobre 10 de las actividades de
evaluación continua realizadas en el laboratorio en el
segundo cuatrimestre en el grupo de alumnos que
sigue la metodología propuesta.
E2NoT: calificación sobre 10 del examen final del
segundo cuatrimestre (en junio) en el grupo de
alumnos que no sigue la metodología propuesta.
C2NoT: calificación sobre 10 de las actividades de
evaluación continua realizadas en el laboratorio en el
segundo cuatrimestre en el grupo de alumnos que no
sigue la metodología propuesta.
B. Resultados Experimentales
La Tabla I y la Fig. 8 muestran estadísticamente los
resultados obtenidos por los alumnos en cada grupo. En
particular, la Figura 8, ilustra en un gráfico de cajas, la
distribución del 50% de las calificaciones entorno a la
mediana.
Fig. 5. Gráfico de barras del número de estudiantes que alcanzan los
rangos de calificación.
Fig. 7. Vista del test de la práctica 2.
#define N 8 int A[N]={7,3,25,4,75,2,1,1}; int max; max=0; for(i=0; i<N; i++){
if(A[i]>max) max=A[i];
}
Fig. 6. Código en lenguaje de alto nivel que el alumno
debe traducir a ensamblador del ARM.
180 VAEP-RITA Vol. 1, Núm. 4, Dic. 2013
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
TABLA I
DESCRIPCIÓN ESTADÍSTICA DE LAS SEIS EVALUACIONES
E1 C1 E2T C2T E2NoT C2NoT
Media 5,64 8,27 4,36 4,46 3,78 6,20 Mediana 5,7 8,8 4,25 4,2 4,00 6,73
D.
Estándar 2,40 2,11 2,45 2,76 2,20 2,64
Varianza 5,74 4,46 6,03 7,54 4,83 6,99 Mínimo 0 1,2 0 0 0 0 Máximo 10 10 10 10 9 10
TABLA II
PORCENTAJE SOBRE EL TOTAL DE APROBADOS EN CADA UNA
DE LAS EVALUACIONES
E1 C1 E2T C2T E2NoT C2NoT
Aprobados 63,5 91,8 39,6 40,8 32,4 69,5
Nota ≥ 7,0 35,2 79,9 16,3 17,6 8,6 46,7
Fig. 8. Gráfico de cajas de la distribución de calificaciones sobre 10 de
cada una de las evaluaciones.
En la Tabla II estudiamos el porcentaje de alumnos que
han aprobado el examen y la evaluación continua por
separado, así como el porcentaje de alumnos que han
destacado en la calificación (aquellos que han obtenido un
siete o más).
La comparación del número de aprobados por si solo es
insuficiente para obtener una conclusión, por lo que para
conseguir una mejor caracterización de los resultados de los
dos métodos de evaluación continua hemos representado,
para cada grupo del segundo cuatrimestre (Figs. 9 y 10), la
calificación (sobre 10) de cada estudiante en el examen final
(eje Y) frente a la calificación (sobre 10) de cada estudiante
en la evaluación continua (eje X). Estas figuras nos facilitan
visualizar de forma rápida la correlación entre ambas
calificaciones.
Además, en las Figs. 9 y 10, se ha sombreado el recuadro
que representa a aquellos alumnos que suspendiendo la
evaluación continua aprobaron el examen y viceversa. Las
zonas sombreadas inferiores engloban a aquéllos que
aprobaron la evaluación continua pero suspendieron el
examen final. En el grupo de evaluación continua sin test
(Fig. 9) un 36,2% de los alumnos aprobaron la evaluación
continua y suspendieron el examen, mientras que en el
grupo de evaluación continua con test (Fig. 10) esta
proporción fue de tan solo un 14,5%. Las zonas sombreadas
superiores engloban a aquellos alumnos que aprobaron el
examen final pero suspendieron la evaluación continua, un
11,4% para el caso de evaluación continua sin test frente a
un 6,9% para el caso de evaluación continua con test.
La Tabla III muestra los resultados de la recta de
regresión que relaciona la calificación de la evaluación
continua con el examen, así como el coeficiente de
correlación de Pearson [27]. Las variables estarán tanto
mejor correlacionadas cuanto más cercano a 1 sea este
coeficiente. Además, la Tabla III presenta resultados de la t
de student [28], aplicada sobre muestras emparejadas para
los pares examen-evaluación continua (son los mismos
alumnos), y sobre dos muestras generales para los grupos
con y sin metodología en el examen del segundo
cuatrimestre (E2T vs E2NoT).
C. Discusión de los Resultados
En lo que se refiere a la similitud en las calificaciones
entre examen y evaluación continua, podemos ver en la
Tabla I que la media (y la mediana) de E2T y C2T son
mucho más parecidas que las de E1 y C1 y las de E2NoT y
C2NoT, lo cual, si tomamos el examen final como un
TABLA III
DESCRIPCIÓN DE LA CORRELACIÓN Y ANÁLISIS DE LAS
VARIANZAS DE LAS SEIS CALIFICACIONES ANALIZADAS
a·x b Pearson t P(T<=t)
una cola
E2T vs C2T 0,64 1,50 0,720 -0,529 0,298
E2NoTvs C2NoT 0,25 2,21 0,300 -8,635 1e-14
E1 vs C1 0,44 1,95 0,392 -14,45 1e-31
E2T vs E2NoT -- -- -- -1,978 0,024
Fig. 9. Segundo cuatrimestre: Evaluación continua vs Examen Final, en los
grupos donde no se aplica la metodología.
Fig. 10. Segundo cuatrimestre: Evaluación continua vs Examen Final en los
grupos donde se aplica la metodología.
PARDINES et al.: EVALUACIÓN CONTINUA ON-LINE EN SESIONES PRÁCTICAS COMO COMPLEMENTO... 181
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
referente de calificación objetiva, completa y precisa del
estudiante, es un dato que apoya la bondad de la
metodología seguida en la evaluación continua. Además, los
resultados presentados en la Tabla III confirman que la
metodología proporciona unas calificaciones notablemente
cercanas a las obtenidas en el examen final del cuatrimestre
(Pearson = 0,720), algo que en cambio no ocurre ni para el
primer cuatrimestre ni para la evaluación continua sin test
(Pearson igual a 0,392 y 0,300 respectivamente).
Finalmente, del estudio de la t de student se puede observar
que no existen diferencias estadísticas entre la evaluación
continua del segundo cuatrimestre y su examen final si
seguimos la metodología propuesta, es decir, podríamos
predecir a partir de los resultados de la evaluación continua
la calificación en el examen (P(T<=t) una cota superior a
0,05). Sin embargo, no hay relación estadística entre la
evaluación continua y el examen final para los otros dos
grupos, donde la probabilidad es prácticamente cero
(P(T<=t) igual a 1e-31 y 1e-14).
Del análisis de las Figs. 9 y 10 se puede extraer que
aquellos alumnos que aprobaron la evaluación continua y
suspendieron el examen (recuadro sombreado inferior)
estaban sobre-evaluados (puede que se les trasladara la
sensación de que tenían un mejor conocimiento de la
asignatura del que tenían en realidad). Por el contrario,
aquellos que suspendieron la evaluación continua y
aprobaron el examen estaban infra-evaluados (recuadro
sombreado superior). Convendría en los dos casos que éstos
fueran el menor número posible, sin embargo, en el caso de
la evaluación continua sin test, estos dos casos suponen casi
un 50% frente a un 21% en la evaluación continua con test.
Además, obsérvese que los puntos de los recuadros
sombreados de la Fig.10 están mucho más cerca del centro,
con lo que las dos calificaciones (examen y evaluación
continua) pueden ser consideradas mucho más coherentes
entre sí que en la Fig. 9, en la que los puntos están mucho
más dispersos en dichos recuadros.
Finalmente, aunque no es el objetivo principal de este
artículo, de manera tangencial podemos comprobar que, al
utilizar nuestra metodología, no solo estamos calificando la
evaluación continua de forma fiable, (es decir, estamos
dando una visión correcta a los estudiantes de los
conocimientos alcanzados), sino que además estamos
ayudando a mejorar la adquisición de estos conocimientos y
por tanto su calificación en el examen. En la Tabla II, de la
comparación de los resultados E2T y E2noT se observa que
el número de aprobados es ligeramente superior al aplicar
esta propuesta, y además que el porcentaje de alumnos con
calificaciones buenas o muy buenas en el examen es el
doble en caso de seguir la metodología. Además, como
indica la Tabla III, hay una diferencia estadística entre los
resultados de E2T vs E2noT, que unido al hecho de que los
alumnos que siguieron esta propuesta tienen mejor media,
indicaría que al realizar la evaluación continua con la
metodología descrita en este artículo estaríamos mejorando
los resultados finales.
VII. CONCLUSIONES
La implantación del Espacio Europeo de Educación
Superior ha supuesto en muchos casos cambiar el modelo de
enseñanza y evaluación inclinando la balanza hacia una
enseñanza más práctica, y por lo tanto, hacia una evaluación
continua.
En este artículo hemos presentado una metodología para
realizar la evaluación continua de la parte práctica de la
asignatura Fundamentos de Computadores, de tal forma que
ésta sea tan objetiva como pueda serlo un examen final,
normalmente más ampliamente aceptado por los docentes.
Del análisis de los resultados obtenidos podemos concluir en
primer lugar que la metodología propuesta mide fielmente
los conocimientos adquiridos por los alumnos. Además, la
evaluación por medio de exámenes de respuesta corta es
independiente del criterio particular de cada profesor de
laboratorio, y la técnica asegura que cada estudiante es
evaluado de forma individual. Por otra parte, estos
exámenes cubren perfectamente la evaluación de todos los
conocimientos de la práctica, por lo que podemos decir que
la evaluación es suficientemente completa (las prácticas
complementan y amplían los temas vistos en teoría). Por
último, la carga de trabajo para el profesor se ve muy
reducida (excepto en el primer curso de impartición de la
asignatura), gracias a la generación automática de exámenes
o a la autocorrección de preguntas que permite Moodle.
El hecho de que los resultados obtenidos en la evaluación
continua y en el examen final sean similares implica que al
seguir esta metodología se puede incrementar el peso de la
parte de la evaluación continua en la calificación final de la
asignatura, ya que no estaríamos calificando por exceso o
por defecto dicha evaluación con respecto al examen final.
Además, la metodología aquí presentada intenta reducir el
efecto nocivo que supone una calificación continua
excesiva, que estaría, desde nuestro punto de vista,
representada por el porcentaje de estudiantes que hayan
aprobado la evaluación continua pero suspendido el examen
final (en nuestro caso, ligeramente superior al 10%).
Por último, como resultado adicional, debemos destacar
que los estudiantes que siguieron esta metodología
obtuvieron mejor calificación final que los que no la
siguieron. Creemos que los motivos son que el alumno
recibe una mejor realimentación de la evaluación continua, y
que la metodología le exige mayor trabajo diario, con lo que
afianza mejor los conocimientos.
AGRADECIMIENTOS
Nos gustaría agradecer a los profesores del Departamento
de Arquitectura de Computadores y Automática, Guadalupe
Miñana, Katzalin Olcoz, Juan Lanchares, Victoria López y
Mª Carmen Molina, por colaborar con los datos de sus
evaluaciones.
REFERENCIAS
[1] Documento Marco del MEC sobre “La integración del sistema universitario español en el Espacio Europeo de Enseñanza Superior”,
2003. [2] P. Salaburu (director), G. Haug y J. G. Mora, España y el proceso de
Bolonia Un encuentro imprescindible. Madrid: Academia Europea de
Ciencias y Artes, 2011.
[3] M. Valero García, “Algunas reflexiones sobre innovación docente en el marco del proyecto Bolonia,”ARBOR Ciencia, Pensamiento y
Cultura, vol. 187, pp. 117-122, Dic. 2011.
[4] M. Del Pozo Andrés, “El proceso de Bolonia en las aulas
universitarias: una perspectiva europea,” Cuestiones Pedagógicas,
vol. 19, pp. 55-73, 2008/2009.
182 VAEP-RITA Vol. 1, Núm. 4, Dic. 2013
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
[5] M. Llamas Nistal, “Una experiencia de evaluación continua en la
ETSIT: Nuevos costes para el profesor,” IEEE-RITA, vol. 7, pp. 46–52, Feb. 2012.
[6] T. M. Haladyna, S. M. Downing and M. C. Rodriguez, “A review of
multiple-choice item-writing guidelines for classroom assessment,”Applied measurement in education, vol. 15, no. 3, pp.
309-333, 2002.
[7] R. Arocena, C. Gascue y J. Leymonié, “Evaluación y validación de pruebas parciales de opción múltiple de un curso universitario de
primer año,” Revista Electrónica de Enseñanza de las Ciencias, vol.
9, no. 3, pp. 737-756, 2010. [8] D. L. Stufflebeam, y A. J. Shinkfield, Evaluación sistemática. Guía
teórica y práctica. Madrid: Paidós, 1987.
[9] Dindia, Laura "Pre-lecture Activities in Undergraduate Science Courses," Teaching Innovation Projects: vol. 3, no. 1, Article 6,
2013.
[10] A. García-Beltrán, R. Martínez, J. A. Jaén y S. Tapia, “La autoevaluación como actividad docente en entornos virtuales de
aprendizaje/enseñanza,” Revista de Educación a Distancia, 2006.
[11] S. K. Carpenter, ”Testing Enhances the Transfer of Learning,” Current Directions in Psychological Science, vol. 21, pp. 279-283,
Oct. 2012.
[12] G. O. Einstein, H. G. Mullet and T. L. Harrison, “The Testing Effect: Illustrating a Fundamental Concept and Changing Study Strategies,”
Teaching of Psychology, vol. 39, no. 3, pp. 190-193, July 2012.
[13] A. Garrido, M. C. Penadés y V. Pelechano, “Un modelo de evaluación de prácticas en Laboratorio de Ingeniería del Software,” in Actas IV
Jornadas de Enseñanza Universitaria de Informática, pp. 222-227, 2001.
[14] J. L. Poza, P. Cruz y V. Santoja, “Un método de evaluación de
prácticas de monitorización de redes basado en los incidentes críticos,” in Actas del XI CIEET, pp. 10-19, paper 84-688-2216-7,
2003.
[15] M. Durán, A. Caro y P. G. Rodríguez, “Una apuesta por la motivación al alumnado en las asignaturas de programación: el sistema de
evaluación continuada,” in Actas de IX Jornadas de Educación
Universitaria de Informática, pp. 191-195, 2003. [16] A. Calduch, J. M. Prats, V. Giner y S. Vidal-Puig, “Un estudio sobre
la utilidad de realización de prácticas de laboratorio en el proceso de
aprendizaje y su influencia en los resultados de evaluación del
alumno,” in Actas de XII Jornadas de Educación Universitaria de
Informática, pp. 177-184, 2006.
[17] M. M. Elizondo, V. M. M. Morejón, M. C. A. Acosta, J. D. B. Cabrero and O. P. Ávila, “Skills centered professional training in an
e-learning environment using the Moodle,” in Global Conference on
Business & Finance Proceedings, vol. 7, no. 2, pp. 391, 2012. [18] J. I. Aguaded Gómez y J. Cabero Almenara, Educar en red: Internet
como recurso para la educación. Colección biblioteca de educación,
Aljibe, 2002. [19] A. Bates, Managing technological change. Strategies for College and
University Leaders. San Francisco: Jossey-Bass, 2002.
[20] R. Perez Casales, J. Rojas Castro y P.Hechevarría, “Algunas experiencias didácticas en el entorno de la plataforma Moodle,”
Revista de Informática Educativa y Medios Audiovisuales, vol.5, no.
10, 2008. [21] D. Seal, ARM Architecture reference manual. Glasgow: Addison-
Wesley, 2001.
[22] D. A. Patterson and J. L. Hennessy, Estructura y Diseño de
Computadores. Interfaz hardware/software. Reverté, 2011.
[23] ShenzenEmbestInfo&Tech Co., LTD. (2004). Embest IDE Pro for
ARM 2004. User guide. Disponible:
http://www.armkits.com/download/UserGuide2004.pdf
[24] Manual de Moodle, Gate-UPM. Disponible:
http://cvsp.cucs.udg.mx/drupal6/documentos/manualmoodle.pdf [25] J. L. Risco-Martín, M. Sánchez-Élez y I.Pardines, “Experiencia
educativa para fomentar el aprendizaje autónomo a través de
preguntas tipo test generadas por los alumnos,” in Actas de las XVII Jornadas de Enseñanza Universitaria en Informática, Sevilla, pp.
283-291, 2011.
[26] M. Sanchez-Elez, I. Pardines, P. García, G. Miñana, S. Roman, M. Sánchez and J. L. Risco. “Enhancing students' learning process
through self-generated test,” Journal of Science Education and
Technology.Doi: 10.1007/s10956-013-9447-7 [27] Edwards, A. L. "The Correlation Coefficient", in An Introduction to
Linear Regression and Correlation. Ed. San Francisco, CA: W. H.
Freeman, pp. 33-46, 1976. [28] S. S. Gupta, “Probability integrals of multivariate normal and
multivariate t”, Annals of Mathematical Statistics, vol. 34, pp. 792-
828, 1963.
Inmaculada Pardines es Doctora en Ciencias Físicas
(2007) por la Universidad de Santiago de Compostela. Actualmente es Profesora Contratada Doctora en el
Departamento de Arquitectura de Computadores y
Automática de la Universidad Complutense de Madrid. Sus áreas de interés son los sistemas de hardware
reconfigurable. Ha participado como autora o coautora en más de 20 publicaciones en revistas y congresos.
Participa activamente en programas de innovación docente de su
universidad.
Marcos Sanchez-Elez es Doctor en Ciencias Físicas
(2004) por la Universidad Complutense de Madrid. Actualmente es Profesor Contratado Doctor en el
Departamento de Arquitectura de Computadores y
Automática de dicha universidad. Sus áreas de interés son los sistemas de hardware reconfigurable y diseño
VLSI. Ha participado como autor o coautor en más de
20 publicaciones en revistas y congresos. Participa
activamente en programas de innovación docente de su universidad.
Daniel A. Chaver Martínez es Licenciado en CC. Físicas por la Universidad de Santiago de Compostela
(año 1998), e Ingeniero en Electrónica y Doctor por la
Universidad Complutense de Madrid (años 2000 y 2006 respectivamente). Actualmente es Profesor Titular en el
Departamento de Arquitectura de Computadores y
Automática de la UCM. Lleva impartiendo docencia en las Fac. de Informática y de CC Físicas de la UCM
desde el año 2000. Sus áreas de interés en investigación son: Gestión de la
cache, Memorias PCM, Planificación en Multicores Asimétricos.
José Ignacio Gómez obtuvo su doctorado en la
Universidad Complutense de Madrid en el año 2007. Actualmente es Profesor Contratado Doctor en el
Departamento de Arquitectura de Computadores y
Automática. En los últimos años ha trabajado tanto en
el área de alto rendimiento y paralelismo como en el
diseño y gestión de los sistemas de memoria de
sistemas empotrados de bajo consumo.
PARDINES et al.: EVALUACIÓN CONTINUA ON-LINE EN SESIONES PRÁCTICAS COMO COMPLEMENTO... 183
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
Title—Expert usability evaluation for learning management
systems.
Abstract—We present a proposal for expert evaluation of
usability of learning management systems that employs an
instrument that is designed on the basis of the general criteria
for heuristic evaluation proposed by Nielsen[3], as well as on
international standards, guides and recommendations for
software quality (ISO-9241e ISO 9126). We present the results
from applying such an instrument to the evaluation of the
usability of Metacampus, a learning management system
developed by, and in use at the Virtual University System at
the University of Guadalajara.
Index Terms—Learning management system, usability,
expert evaluation.
I. INTRODUCCIÓN
lo largo de nuestra experiencia de siete años como
docentes en la modalidad en línea en el Sistema de
Universidad Virtual de la Universidad de Guadalajara
(UDGVirtual) hemos tenido la oportunidad de conocer y
utilizar un sistema gestor del aprendizaje que en sus inicios
fue presentado como AVA (Ambiente Virtual de
Aprendizaje) y posteriormente se rediseñó y fue presentado
como Metacampus, en el cual se imparten aún hoy en día la
gran mayoría de los cursos de los programas de bachillerato
y licenciatura de UDGVirtual.
En su momento, la forma diferente de navegar en
Metacampus, de operar en ella y de comunicarse a través de
ella produjo una readaptación tanto de los estudiantes como
de los docentes para poder subsanar las diferencias que se
percibían con respecto a AVA. Como usuario de ambas
versiones, el primer autor había construido la opinión de que
la primera versión presentaba mayor capacidad de
interacción, de accesibilidad y de acercamiento psicosocial-
virtual que la segunda; además, percibía el diseño gráfico de
esta última como mucho más sobrio y menos motivante.
Recientemente, UDGVirtual ha introducido otros
sistemas gestores del aprendizaje como parte de la
plataforma tecnológica para sus programas de estudio
(concretamente, Moodle[1]y Sakai CLE[2]) y hemos podido
observar diversas reacciones ante los cambios, entre las que
se encuentran reacciones adversas que se han justificado en
Ruth Medina_Flores labora en el Sistema de Universidad Virtual de la
Universidad de Guadalajara (tel:+52 (33) 3540-3020; coe:
Rafael Morales_Gamboa labora en el Instituto de Gestión del Conocimiento y del Aprendizaje en Ambientes Virtuales del Sistema de
Universidad Virtual de la Universidad de Guadalajara (coe:
términos de dificultades en el uso de las nuevas plataformas
ocasionadas por sus diferencias con Metacampus.
Las apreciaciones que hemos ido colectando de distintos
usuarios que han vivido estos cambios, el interés
manifestado por estudiar cómo valorar y estimar la facilidad
de uso de un sistema gestor del aprendizaje, la conciencia de
la oferta creciente de este tipo de sistemas y la falta de un
instrumento diseñado específicamente para la evaluación de
su usabilidad dieron lugar a la investigación del problema de
entender cómo se puede evaluar la usabilidad de un sistema
gestor del aprendizaje, cuáles son las recomendaciones e
indicadores sobre usabilidad de sistemas de software que
son críticos para evaluar este tipo de sistemas y cuál es la
diferencia, si alguna, entre evaluar un sistema de software en
general y un sistema gestor del aprendizaje en particular.
Como parte de esta investigación se diseñó un
instrumento para la evaluación por expertos de la usabilidad
de sistemas gestores del aprendizaje, el cual considera
aspectos generales de las interfaces de usuario del software
en general, de las aplicaciones web en particular y
específicamente de los sistemas gestores del aprendizaje.
Posteriormente, se utilizó dicho instrumento para evaluar la
usabilidad de Metacampus, como ejemplo de un sistema
―hecho en casa‖ cuyo desarrollo inició a la par de proyectos
como Moodle y Sakai CLE, que es todavía el principal
sistema gestor del aprendizaje utilizado por UDGVirtual
pero que está en proceso de ser reemplazado por estos
últimos.
En este artículo se parte de la definición de los conceptos
básicos de usabilidad de sistemas, de aplicaciones web y de
sistemas gestores del aprendizaje para explicar las
dimensiones del diseño del instrumento de evaluación de
usabilidad para sistemas gestores del aprendizaje; se
describe el diseño específico del instrumento, su aplicación
a Metacampus y los resultados obtenidos, mismos se
analizan, interpretan y discuten. Finalmente, se presentan las
conclusiones de la investigación y se bosquejan líneas de
trabajo a futuro.
II. USABILIDAD DE SISTEMAS GESTORES DEL APRENDIZAJE
La usabilidad es un concepto que integra varios aspectos
de los sistemas digitales y que nos permite caracterizar la
calidad de su diseño desde la perspectiva de la experiencia
del usuario. Se utilizó por primera vez en el campo de la
Ingeniería de Software para apoyar el diseño de los sistemas
con el fin de facilitar la interacción entre éstos y sus
usuarios. La metodología de diseño de usabilidad fue
construida posteriormente por varios teóricos de la
ingeniería de software, entre los que destaca Jakob
Nielsen[3], para mejorar de manera sistemática la
Evaluación por Expertos de la Usabilidad de un
Sistema Gestor del Aprendizaje
Ruth Medina Flores, Rafael Morales Gamboa
A
VAEP-RITA Vol. 1, Núm. 4, Dic. 2013 184
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
interacción humano-computadora de las aplicaciones de
software, haciéndolas más fáciles de usar, confortables y
efectivas para sus usuarios. Tiempo después se desarrolló
también una metodología de evaluación de la calidad y el
desempeño de los sistemas [4]con el fin de garantizar su
funcionamiento general, midiéndolo a través de la
experiencia del usuario y de qué tan cómodo y satisfecho se
siente éste al operar el sistema.
Un sistema gestor del aprendizaje —también llamado
LMS, por las siglas del término en inglés (Learning
Management System), o plataforma (virtual) de
aprendizaje— es un sistema digital cuya función es facilitar
los procesos educativos de administración y control de
cursos, así como la comunicación educativa y la interacción
entre los participantes, mediante la aplicación y uso de
tecnologías de información y comunicación (TIC),
principalmente de aquéllas que son propias de Internet[5]-
[8]. Entre las características de los sistemas gestores del
aprendizaje, en su calidad de software, destacan las
siguientes[9] (citado en [6]):
• Multiplataforma: Utilizan estándares para que puedan
ser ejecutados en una variedad de computadoras y
sistemas operativos.
• Uso vía navegador web: Los usuarios acceden a ellos
a través de navegadores/exploradores web.
• Arquitectura cliente/servidor: No se requiere la
instalación del software en el ordenador del usuario,
sino que éste se conecta al servidor que lo contiene.
• Multimedia: Permiten trabajar con documentos en
diferentes formatos de texto, imágenes, audio y
video.
• Acceso restringido: Los usuarios deben identificarse
y requieren de autorización para ingresar al sistema
de aprendizaje en línea.
• Interfaz gráfica: Utilizan una interfaz gráfica basada
en tecnologías asociadas a la web.
• Gestión de información: Permiten almacenar,
recuperar y modificar documentos con relativa
facilidad.
• Interacción y comunicación: Facilitan la interacción
y la comunicación entre sus usuarios a través de
diferentes espacios y herramientas.
En su calidad de entorno para la ejecución de procesos
educativos y desde una perspectiva comunicacional, un
sistema gestor del aprendizaje se caracteriza por la provisión
de cuatro tipos distintos de espacios [10]:
• De información: Para la provisión y consulta de
contenidos educativos (ej. guías de aprendizaje,
diapositivas) y materiales de referencia (ej.
diccionarios en línea, artículos).
• De exhibición: Para la presentación de los productos
de los procesos de aprendizaje (ej. documentos,
videos).
• De interacción: Para la comunicación interactiva
entre los actores educativos y el intercambio de
información (ej. chat, foro).
• De producción: Para la construcción de productos (ej.
documentos, diagramas) o ejecución de procesos que
generan evidencias de aprendizaje (ej. ejercicios,
exámenes).
No obstante su especialización, un sistema gestor del
aprendizaje tiene, como cualquier tipo de sistema digital, la
finalidad de brindar a sus usuarios eficacia, eficiencia y
satisfacción en el desempeño de sus tareas mediante el uso
del mismo. Por lo tanto, para el estudio o la evaluación de
usabilidad de un sistema gestor del aprendizaje se deben
considerar tanto sus características generales, como sistema
digital, como los objetivos propios de su diseño como gestor
del aprendizaje y las necesidades específicas de sus
usuarios, actores del proceso educativo.
Con base en lo anterior y ante nuestro desconocimiento de
trabajos que definieran criterios específicamente para la
evaluación de la usabilidad de sistemas gestores del
aprendizaje, se procedió a la definición de los mismos y el
ulterior desarrollo de un instrumento de evaluación a lo
largo de dos vertientes. La primera vertiente, la más
genérica y básica, fue la de identificar los atributos
esenciales de usabilidad de sistemas digitales y se basó,
principalmente en la evaluación heurística definida por
Nielsen[4], debido a que define de manera pragmática y
concreta cuáles son las condiciones óptimas de operación y
funcionamiento de un sistema digital. Se tomaron en cuenta,
además, los estándares internacionales ISO 9241 e ISO
9126[11], [12], el primero de ellos a través de incorporar
tres criterios básicos: efectividad, eficiencia y satisfacción;
el segundo mediante la incorporación de tres condiciones:
aprendible, operable y comprensible.
La segunda vertiente atendió específicamente a las
recomendaciones más importantes para el diseño de
sistemas gestores del aprendizaje[6], [8], [13], [14], mismas
que establecen que sus objetivos van más allá de la
administración y control de los cursos y hacen énfasis en el
soporte tecnológico necesario para facilitar la integración de
los participantes en una comunidad de aprendizaje donde
puedan establecer redes, intercambien conocimiento y
potencien su aprendizaje a través de la comunicación, la
colaboración y la interacción. Se tomaron en consideración
las propuestas de cuestionarios presentados por Zaharías[15]
y Zapata [16] así como las características de diseño de
sistemas gestores del aprendizaje definidas por De
Benito[9], Cabero[14], Salinas [8] y Salinas Olivo [6].
La construcción de una colección de atributos cuyos
valores permiten estimar la usabilidad de un sistema gestor
del aprendizaje y que, consecuentemente, permiten
caracterizar la calidad de su diseño desde la perspectiva de
la experiencia del usuario, comenzó con el establecimiento
de seis criterios generales, en forma de preguntas:
1) ¿El diseño general del sistema de aprendizaje en línea
favorece su usabilidad?
2) ¿La navegación del sistema de aprendizaje en línea
favorece su usabilidad?
3) ¿El sistema de aprendizaje en línea es confiable?
4) ¿El lenguaje del sistema de aprendizaje en línea es
claro, preciso y sencillo?
5) ¿Las herramientas de colaboración del sistema de
aprendizaje en línea cumplen con las guías y
recomendaciones de usabilidad, en cuanto a la facilidad
de comunicación y uso de las mismas?
6) ¿La herramienta buscador del sistema de aprendizaje en
línea ayuda al usuario a encontrar participaciones,
MEDINA Y MORALES: EVALUACIÓN POR EXPERTOS DE LA USABILIDAD DE UN SISTEMA GESTOR ... 185
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
autores, o cualquier información integrada en la
plataforma?
El desglose de estos criterios en indicadores nos
permitió identificar una colección de ocho atributos:
buscabilidad, comunicabilidad, confiabilidad,
configurabilidad, diseño, entendibilidad, facilidad y
navegabilidad. La relación entre criterios, atributos,
indicadores y preguntas en el instrumento de evaluación
(anexo) se presenta en la Tabla I.
III. METACAMPUS
La plataforma educativa AVA, (más tarde llamada
Metacampus) es un sistema de gestión del aprendizaje en
línea propio de la Universidad de Guadalajara creado en
septiembre del 2001 por Jesús Antonio Zatarain de Losada
[17], quien se dio a la tarea de emprender este proyecto con
la finalidad principal de satisfacer las necesidades
tecnológicas de la entonces Coordinación General del
Sistema para la Innovación del Aprendizaje (INNOVA),
actualmente Sistema de Universidad Virtual (SUV) de la
Universidad de Guadalajara. Más tarde, en mayo del 2006,
se presentó Metacampus como una ―combinación de
diversas plataformas tecnológicas‖ que incluyó a AVA,
diseñado por un grupo de ingenieros a cargo de Rubén
Yáñez Reyna.
Metacampus fue diseñado con base en el modelo
educativo del Sistema Universidad Virtual (SUV) de la
Universidad de Guadalajara (UDG)[18]; esto es, incorpora
un diseño instruccional que determina en buena medida la
manera en que se organizan las actividades de los
estudiantes (en programas educativos que se descomponen
en cursos, que a su vez se descomponen en unidades,
conformadas por actividades preliminares, intermedias e
integradoras, y cierran con la producción de un producto
integrador).
Metacampus cuenta con las herramientas pedagógicas
básicas para la simulación de un aula virtual: agenda, buzón
de tareas, páginas personales de los participantes,
documentos y enlaces, foros, chat, lista de participantes,
grupos de trabajo y administración del portal; esto es, cuenta
con las herramientas esenciales de un sistema gestor del
aprendizaje. Sin embargo, Metacampus carece de
herramientas comunes en muchas plataformas educativas
actuales, como son el correo electrónico interno, anuncios y
exámenes/cuestionarios, blogs, wikis, redes sociales y
encuestas en línea, entre otras.
La interfaz gráfica de Metacampus, mostrada en la Figura
1, redondea la imagen de un sistema gestor del aprendizaje
relativamente simple, particularmente adecuado para atender
a una población adulta con poca experiencia en el uso de
tecnologías de información y comunicación.
Históricamente, Metacampus tuvo un rol central en el
desarrollo de la educación en línea en nuestra universidad,
como instrumento para controlar el diseño e impartición de
los cursos por expertos disciplinares, pedagogos y docentes
con poca experiencia en esta modalidad. Asimismo, forma
parte de la primera ola de sistemas gestores del aprendizaje
―hechos en casa‖ que han sido substituidos masivamente por
plataformas comerciales y de software libre [19].
Consecuentemente, consideramos oportuno hacer un análisis
TABLA I
CRITERIOS, ATRIBUTOS E INDICADORES PARA ESTIMAR LA USABILIDAD DE
UN SISTEMA GESTOR DEL APRENDIZAJE
Criterios y atributos Indicadores y preguntas
¿El diseño general del
sistema de aprendizaje
en línea favorece su usabilidad?
• Diseño
• Operatividad
• Facilidad de conexión
• Facilidad de hipertextos
• Tipo de letra
• Tamaño de letra
• Color de fondo
• Organización y acomodo de interfaz
• Diseño visual de la interfaz
• Consistencia visual
• Integración de archivos multimedia.
• Interacción y comunicación
Preguntas: 1-11
¿La navegación del sistema de aprendizaje
en línea favorece su
usabilidad?
• Navegabilidad
• Conocimiento de la navegación del
sistema
• Facilidad de navegación
• Entrar.
• Salir.
• Atributos ALT en menús y botones
Preguntas: 12-16
¿El sistema de
aprendizaje en línea es
confiable?
• Confiabilidad
• Velocidad de descarga de materiales
• Velocidad de trabajo de la plataforma
• Calidad del funcionamiento
• Retroalimentación al usuario
Preguntas: 17-20
¿El lenguaje del sistema
de aprendizaje en línea es claro, preciso y
sencillo?
• Entendibilidad
• Facilidad
• Configurabilidad
• Entendibilidad del lenguaje,
vocabulario y terminología en los
espacios de Portafolio, Recursos,
Guía de estudio, Tablón de anuncios,
Dudas, Correo electrónico, Lista de
participantes, Foros, Evaluación,
Comunicación (Chat).
Preguntas: 21-30
• Facilidad de uso de las herramientas
de Portafolio, Recursos, Guía de
estudio, Tablón de anuncios, Dudas,
Correo electrónico, Lista de
participantes, Foros, Evaluación,
Comunicación (Chat).
Preguntas: 31-40
• Facilidad de configuración de los
espacios de Portafolio, Recursos,
Guía de estudio, Tablón de anuncios,
Dudas, Correo electrónico, Lista de
participantes, Foros, Evaluación,
Comunicación (Chat)
Preguntas: 41-50
¿Las herramientas de
colaboración del sistema de aprendizaje en línea
cumplen con las guías y
recomendaciones de usabilidad, en cuanto a la
facilidad de
comunicación y uso de las mismas?
• Comunicabilidad
• Facilidad de comunicación de las
aplicaciones para el trabajo
colaborativo en foros, portafolio,
correo electrónico, dudas, chat,
calendario.
Preguntas: 51-56
¿La herramienta buscador del sistema de
aprendizaje en línea
ayuda al usuario a encontrar
participaciones, autores,
o cualquier información integrada en la
plataforma?
• Buscabilidad
• Buscabilidad en Foros
Pregunta: 57
186 VAEP-RITA Vol. 1, Núm. 4, Dic. 2013
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
de su usabilidad ahora que el SUV está migrando su
plataforma hacia otros sistemas.
IV. ESTUDIO DE USABILIDAD
Como una primera aproximación a la evaluación de la
usabilidad de un sistema gestor del aprendizaje de acuerdo
con la colección de atributos que se presenta en la Tabla I,
se procedió a atender el caso particular de Metacampus vía
la evaluación de usabilidad por expertos [3], misma que
consiste en examinar un sistema, en su diseño y uso, desde
la perspectiva de un grupo de expertos, quienes analizan los
aciertos y errores de usabilidad que pudiera tener el sistema
en relación con cada uno de los atributos de interés. En esta investigación decidimos no comenzar con el
método de evaluación por usuarios pues carecíamosde un
laboratorio de usabilidad ysu implantación implicaría un alto
costo debido a que se requeriría montar un espacio físico
adecuado para ello y diseñar un curso en línea específico
para simular el escenario de tareas que los usuarios deberían
realizar en el estudio. Por otra parte, el método de
evaluación por expertos se considera una evaluación
profesionaly objetivacuando los participantes dominan el
tema de usabilidad y conocen los fines de la investigación,
sin descartar que dichos expertos sean también usuarios
delsistema que evalúan y conozcan las implicaciones del
desarrollo del sistema en su contexto de uso. En el caso
particular de Metacampus, consideramos pertinente la
evaluación por expertos para medir su usabilidad porque
dicho sistema no fue objeto de una evaluación similar en su
etapa de diseño y sería conveniente determinar primero si el
sistema cumple o no cumple con las guías y
recomendaciones de usabilidad estándares y así tener un
primer juicio sobre su usabilidad que guiara una evaluación
posterior por usuarios.
Creímos necesario también que dichos expertos fueran
usuarios de la plataforma Metacampus, pues de esta manera,
se rescatarían las implicaciones del desarrollo del sistema
vistas dentro de su contexto de uso, a partir no sólo del
enfoque como expertos en tecnologías de información y
comunicación, sino también como profesores en la
modalidad a distancia. Por estas razones, la evaluación por
experto nos pareció la más idónea para realizar nuestra
investigación.
En cuanto al número de expertos elegido, nos basamos en
las guías y recomendaciones de Nielsen[3], quien
recomienda un mínimo de tres, y un máximo de cinco, para
que éstos determinen qué tan usable es el diseño del sistema
mediante una lista de tareas o un cuestionario con criterios
de medición previamente seleccionados que ayuden a
constatar si realmente el sistema cumple con esos requisitos,
o presenta inconsistencias, errores o fallas en el diseño.
Los perfiles de los expertos seleccionados para la tarea se
resumen en la Tabla II. Todos ellos son profesores de cursos
en línea en el Sistemas de Universidad Virtual (SUV) de la
Univesidad de Guadalajara, han usado Metacampus por
varios años como docentes e incluso lo han usado como
estudiantes en los cursos de formación docente que ofrece
nuestra institución. Todos ellos se formaron inicialmente en
áreas relacionadas con tecnologías de información y
comunicación, o en el uso de las mismas con propósitos
educativos.
La evaluación por expertos se dividió en tres etapas: La
primera, establecer los parámetros de usabilidad para
sistemas de aprendizaje en línea, con base en los estándares,
guías y recomendaciones de los autores implicados en la
teoría de la usabilidad; la segunda, construir el instrumento
de evaluación con base en dichos criterios de usabilidad,
mismos que se seleccionaron de acuerdo con la teoría y con
el contexto de uso de la plataforma Metacampus; la tercera,
aplicar los instrumentos de evaluación a los expertos y
recolectar y analizar los resultados.Para ello, se tomaron
como referencia los criterios, atributos e indicadores
mostrados en la Tabla I para diseñar un cuestionario con seis
secciones y con preguntas cuyas respuestas se organizaron
en una escala de Likert con cinco elementos: (1)
Insatisfactorio, (2) Poco satisfactorio, (3) Neutral, (4)
Aceptablemente satisfactorio y (5) Totalmente satisfactorio
(ver anexo).
El cuestionario fue enviado por correo electrónico a los
seis expertos, quienes respondieron también por ese
medio.A continuación se presentan los resultados de la
evaluación (Tabla III) integrados por sección.
Una representación de estos mismos resultados que
agrupa visualmente las evaluaciones de cada experto y
permite caracterizarlo en comparación con los demás se
Figura 1. Detalles de la interfaz gráfica de Metacampus.
TABLA II
PERFILES DE LOS EXPERTOS
Experto 1 Doctor en Inteligencia Artificial
Mtro. En Ciencias Computacionales
Profesor-Investigador de tiempo completo del SUV
Experto 2 Maestro en Tecnologías para el Aprendizaje Licenciado en Informática
Diseñador Web
Profesor de asignatura del SUV
Experto 3 Licenciado en Desarrollo Educativo Institucional
Profesor de tiempo completo del SUV
Experto 4 Licenciado en Cartografía Digital
Profesor de asignatura en la Licenciatura en Tecnologías e Información del SUV
Experto 5 Licenciado en Informática
Profesor de asignatura de la Licenciatura en Tecnologías e Información del SUV
Experto 6 Maestro en Tecnologías para el Aprendizaje
Licenciado en Informática Diseñador de LMS
Profesor de tiempo completo del SUV
MEDINA Y MORALES: EVALUACIÓN POR EXPERTOS DE LA USABILIDAD DE UN SISTEMA GESTOR ... 187
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
muestra en la Fig. 2. Se puede observar en la figura que
existe una clara distancia entre la evaluación del Experto 3 y
las de los demás expertos, siendo el primero particularmente
crítico de la usabilidad del sistema. También se puede
observar que los expertos 2, 4 y 6 son generalmente
optimistas en su evaluación de usabilidad en comparación
con los demás expertos. Curiosamente, la Navegabilidad es
al mismo tiempo el atributo del sistema que el Experto 3
califica más positivamente y uno de los atributos que los
Expertos 4 y 6 califican más negativamente, en tanto que
para el Experto 2 la Navegabilidad es uno de los atributos
que obtuvo mejor calificación (4.0). El Experto 5 evaluó el
sistema ligeramente por debajo del grupo ―optimista‖, en
tanto que el Experto 1 es quien muestra la mayor variedad
en su evaluación de los distintos atributos de usabilidad,
considerando la Entendibilidad de la plataforma como
excelente, mientras que en su evaluación de Buscabilidad y
Configurabilidad coincide con el Experto 3 en otorgar la
calificación mínima. Un análisis de cúmulos (jerárquico,
distancia euclidiana y agrupamiento considerando distancia
máxima entre elementos de cúmulos distintos) confirma la
existencia de tres grupos (Tabla IV y Fig.3): pesimista
(Experto 3), mixto (Experto 1) y optimista (Expertos 2, 4, 5
y 6). TABLA III
RESULTADOS DE LA EVALUACIÓN DE USABILIDAD DE METACAMPUS POR
EXPERTOS (EN REPRESENTA AL EXPERTO N)
Atributos E1 E2 E3 E4 E5 E6 Media
Buscabilidad 1.0 3.0 1.0 3.0 3.0 5.0 2.67
Comunicabilidad 2.3 3.7 1.0 4.8 3.0 3.7 3.07
Confiabilidad 3.5 3.5 1.3 3.8 2.3 2.8 2.83
Configurabilidad 1.0 3.6 1.2 4.0 2.8 2.9 2.58
Diseño 3.3 3.9 1.8 4.2 3.8 3.9 3.48
Entendibilidad 5.0 3.4 1.2 4.5 3.9 4.9 3.81
Facilidad 3.1 4.0 1.3 4.0 3.2 4.3 3.32
Navegabilidad 4.2 4.0 2.8 3.6 4.2 3.0 3.63
Promedio 2.93 3.63 1.45 3.97 3.27 3.80 3.18
Fig. 2 Resultados de la encuesta agrupados por experto.
En una escala de 1 a 5, la evaluación general de la
plataforma Metacampus por los expertos, obtenida como el
promedio de las calificaciones obtenidas en las secciones
evaluadas, osciló entre 1.45 como puntaje mínimo y 3.97
como puntaje máximo obtenidos. Su promedio general de
usabilidad en esta misma escala de 1 a 5 es de 3.18. Una
prueba de Student (t-test) es ilustrativa en este caso, ya que
sugiere que los resultados son difícilmente distinguibles de
neutros; esto es, que la usabilidad de Metacampus no fue
evaluada ni como satisfactoria ni como insatisfactoria (Tabla
V). Si el promedio se calcula considerando únicamente las
evaluaciones del grupo optimista, el resultado es 3.67,
calificación que cae todavía en el intervalo de confianza al
90% de la hipótesis nula (promedio 3 - neutro), lo cual,
sugiere, una vez más, que la usabilidad de Metacampus no
es evaluada como satisfactoria.
Un problema grave de usabilidad que presenta la
plataforma Metacampus está en su confiabilidad. La
mayoría de los expertos reportó haber experimentado
negación de servicio o frecuentes fallas, errores, caídas o
interrupciones en la operación del sistema. El grupo
optimista otorga a este atributo de usabilidad su calificación
más baja (3.1) y el promedio global es de 2.83. Los dos
atributos con las calificaciones globales más bajas son
Configurabilidad (2.58) y Buscabilidad (2.67), lo cual
sugiere que los expertos perciben una cierta rigidez en la
plataforma para adaptarse a los requerimientos específicos
de sus usuarios —producto de un diseño enfocado, en los
primeros años de UDGVirtual, a mantener bajo control el
proceso acelerado de producción e impartición de cursos por
docentes en formación para la educación a distancia para
estudiantes maduros con poca experiencia en línea. El
atributo Comunicabilidad se evaluó también con promedio
global por apenas arriba de los tres puntos (3.07), debido a
que las principales herramientas de comunicación en
Metacampus (Foros, Dudas, Portafolio, Correo electrónico
TABLA IV
DISTANCIAS ENTRE CÚMULOS
Unión de cúmulos A distancia No. de miembros
Experto 4 Experto 2 0.604 2
Experto 4 Experto 6 1.020 3
Experto 5 Experto 4 1.028 4
Experto 1 Experto 5 1.779 5
Experto 3 Experto 1 2.672 6
Fig. 3 Gráfico del árbol de cúmulos
188 VAEP-RITA Vol. 1, Núm. 4, Dic. 2013
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
externo, Avisos y Chat) se encontraron con algunas
deficiencias de facilidad, accesibilidad y eficiencia. Los
expertos propusieron en sus comentarios algunas
modificaciones de mejora para su adecuado funcionamiento.
El atributo de usabilidad mejor evaluado fue
Entendibilidad, con promedio global de 3.82 y una
calificación optimista de 4.2, lo cual lo sitúa como
aceptablemente satisfactorio. Por otra parte, el grupo
optimista califica con 4.0 el diseño visual del sistema
(promedio global de 3.48). Esto habla de una cierta
simplicidad en el diseño de Metacampus que facilita su
comprensión y uso por el tipo de usuarios para el cual fue
diseñado originalmente.
V. DISCUSIÓN
Un sistema gestor del aprendizaje debe incluir las
herramientas necesarias para que los actores educativos
realicen sus tareas de provisión de información, exhibición
de productos, producción de información y conocimiento y
se relacionen y se comuniquen de manera sencilla, clara y
fácil; es decir, el sistema debe incluir a sus usuarios a cada
paso y promover su interacción con los otros. La usabilidad
del sistema es crítica en este sentido para que el sistema sea
un vehículo para la ejecución de los procesos educativos y la
integración de una comunidad de aprendizaje, no un
obstáculo para ello.
En este sentido, de los resultados presentados en la
sección anterior, así como de los comentarios expresados
por los expertos para explicar o justificar sus evaluaciones,
se derivan una serie de acciones concretas para mejorar
diversos aspectos de la plataforma. Para comenzar, se
requiere mejorar el diseño visual, pues cuatro de los seis
expertos la calificaron como ‗seria‘, ‗deprimente‘ y
‗cansada‘ por ser una interfaz de tonos grises relativamente
oscuros combinados con letras blancas; colores que los
expertos consideraron poco satisfactorios. Otra mejora de la
plataforma que se propone es modificar la ubicación del
menú principal de la misma, de la derecha hacia la
izquierda, debido a que el usuario es obligado a mover sus
ojos hacia la derecha para encontrar lo que busca. Según
nuestros expertos, un menú en el margen derecho de una
página Web es sumamente cansado por la poca focalización
que ejerce el usuario hacia estos puntos.
Se identificó también la inconsistencia visual del botón
―Salir‖:Un botón diferente al diseño general de la
plataforma, que se pierde en la interfaz gráfica. Se identificó
la falta de alertas o de mensajes de aviso para los estudiantes
cuando hay nuevas dudas, y nuevas entradas o mensajes en
los foros. Se identificaron inconsistencias en la información
desplegada en diversas herramientas, como el Portafolio y
los Foros, y se propusieron mejoras para la navegación en
dichos espacios debido a que una misma herramienta en
ocasiones presenta comportamientos distintos, los cuales
derivan en acciones distintas de parte de los usuarios.
También se propone mejorar la entendibilidad en foros y en
portafolio y agregar un buscador de información en la
herramienta de dudas, así como aumentar la eficiencia del
sistema a través de disminuir los cliques que debe realizar el
usuario para lograr su cometido.
En cuanto a la configurabilidad de Metacampus, la
mayoría de los expertos coincidieron en que es ‗rígida‘,
‗poco permisiva‘ y ‗poco intuitiva‘ (pues se requiere ‗hacer
varias pruebas para lograr una determinada configuración‘).
Se propusieron algunos cambios en el caso de la
configuración de los recursos (documentos y contenido
multimedia) de los cursos, del color de la plataforma y para
abrir foros.
Se planteó la posibilidad de que existan alertas sobre
quiénes se encuentran en línea en un momento dado, ya sea
en la lista de participantes o en el tablón de avisos, a fin de
que el estudiante utilice de manera más frecuente las
herramientas de comunicación síncrona como el chat.
También se propuso la creación de un ‗tablón de anuncios‘
en el que se permitiera a los asesores publicar alertas,
advertencias o avisos que considere necesarios notificar en
la pantalla principal de su curso.
VI. CONCLUSIONES
En este artículo hemos propuesto una definición de
usabilidad de un sistema gestor del aprendizaje como la
integración de un conjunto de atributos (buscabilidad,
comunicabilidad, confiabilidad, configurabilidad, diseño,
entendibilidad, facilidad y navegabilidad) seleccionados
considerando tanto la naturaleza de los sistemas gestores de
aprendizaje como aplicaciones web, como sus características
propias de plataforma tecnológica para procesos de
enseñanza-aprendizaje.
Dicha propuesta ha sido puesta a prueba diseñando un
instrumento para evaluar los atributos seleccionados (ver
anexo) y usando dicho instrumento como parte de una
evaluación de usabilidad por expertos del sistema gestor del
aprendizaje Metacampus, del Sistema de Universidad
Virtual de la Universidad de Guadalajara. Los resultados
sugieren que Metacampus tiene problemas de usabilidad en
algunos aspectos esenciales, resaltando su confiabilidad, su
flexibilidad para atender a las demandas variables de sus
usuarios y su capacidad para permitir a sus usuarios buscar
información en el mismo, particularmente en los espacios de
foros. De manera general, los expertos consideraron que
Metacampus necesita mejorar para brindar un nivel de
satisfacción aceptable a sus usuarios y proporcionaron
comentarios que ayudan a identificar oportunidades
concretas de mejora.
Con base en los resultados obtenidos podemos decir que
la colección de atributos propuestos para evaluar la
usabilidad de sistemas gestores del aprendizaje parece ser
adecuada y el instrumento de evaluación desarrollado a
partir de ella resultó útil para evaluar a Metacampus.
A partir de aquí se abren varias líneas de investigación
interesantes. Una de ellas consiste en explorar la evaluación
de usabilidad de los sistemas gestores del aprendizaje por
usuarios no expertos, a partir de la colección de atributos
propuesta, y observar las diferencias con la evaluación por
expertos. Otra línea es revisar el instrumento de evaluación
TABLA V
RESULTADOS DE LA PRUEBA DE STUDENT (T-TEST) SOBRE LOS
PROMEDIOS DE LAS EVALUACIONES DE LOS EXPERTOS (H0: 3 –
NEUTRO; H1: PROMEDIO DE PROMEDIOS ≠ 3)
N Promedi
o
Desviación
estándar
Intervalo de
confianza al 90%
t df p
6 3.181 0.930 [2.416, 3.947] 0.477 5 0.65
3
MEDINA Y MORALES: EVALUACIÓN POR EXPERTOS DE LA USABILIDAD DE UN SISTEMA GESTOR ... 189
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
por expertos desarrollado para evaluar la usabilidad de
Metacampus y tornarlo suficientemente genérico de modo
que pueda ser adaptado (si es necesario) para la evaluación
de la usabilidad de cualquier sistema gestor del aprendizaje
y la comparación de sus resultados con los de otros. Esta
línea resulta particularmente interesante para nosotros
porque UDGVirtual ha ampliado su plataforma tecnológica
mediante la inclusión y creciente integración de varios
sistemas gestores del aprendizaje. Asimismo, recientemente
hemos sido testigos de la aparición y amplia difusión de
nuevos dispositivos para acceder a los sistemas
computacionales (ej. tabletas y smartphones), así como del
surgimiento de nuevos miembros de la familia de los
sistemas gestores del aprendizaje que han irrumpido al
mercado con el respaldo de compañías e instituciones
educativas que se distinguen por su prestigio, disposición de
recursos y capacidad de innovación (ej. Open edX [15]), lo
cual hace de la selección de los componentes de la
plataforma educativa de cualquier institución una tarea más
compleja, que requiere de instrumentos de evaluación y
toma de decisiones más precisos; instrumentos cuyo diseño
debe estar basado en el estado del arte en sistemas gestores
de aprendizaje, en las últimas tendencias en el desarrollo y
uso de tecnologías de información y comunicación y en los
nuevos modelos educativos para los nuevos entornos.
REFERENCIAS
[1] Moodle, ―Moodle - A Free, Open Source Course Management
System for Online Learning,‖ 2013. [En línea]. Disponible:
http://www.moodle.org. [Visitado: 27-Dec-2013]. [2] Sakaiproject.org, ―sakaiproject.org,‖ 2013. [En línea]. Disponible:
http://www.sakaiproject.org. [Visitado: 27-Dec-2013].
[3] J. Nielsen, Usability Engineering. San Francisco: Morgan Kaufmann, 1993.
[4] J. Nielsen, Designing Web Usability. PeachpitPress, 1999.
[5] K. Delgado, ―Las plataformas en la educación a distancia,‖ Rev. Iberoam. Educ. - Los Lectores, vol. 37, no. 1, 2005.
[6] P. A. Salinas Olivo, ―Modelo educativo y recursos tecnológicos,‖ en
Tecnología educativa en un modelo de educación a distancia centrado en la persona, A. Lozano Rodríguez y J. V. Burgos Aguilar,
Eds. Limusa, 2007, págs. 277–317.
[7] M. A. Ballesteros, ―Plataformas tecnológicas para la teleformación,‖ en E-Learning-Teleform@ción. Diseño, desarrollo y evaluación de la
formación a través de INTERNET, D. Puente, A. Palazón, M. A.
Ballesteros, y C. M. García, Eds. Gestión 2000, 2002. [8] J. Salinas, ―El aprendizaje colaborativo con los nuevos canales de
comunicación,‖ en Nuevas tecnologías aplicadas a la educación, J.
Cabero Almenara, Ed. Madrid: Síntesis, 1999. [9] B. de Benito, ―Herramientas web para entornos de enseñanza-
aprendizaje,‖ en Medios Audiovisuales y Nuevas Tecnologías para la
Formación en el siglo XXI, J. Cabero Almenara, F. Martinez, y J. Salinas, Eds. Murcía: Diego Marín, 2000, págs. 209–222.
[10] M. E. Chan Núñez, ―Tendencias en el diseño educativo para entornos
de aprendizaje digitales,‖ Rev. Digit. Univ., vol. 5, no. 10, 2004. [11] M. A. Abud Figueroa, ―Calidad en la Industria del Software. La
Norma ISO-9126,‖ Rev. UPIICSA, vol. 34, no. Enero-Abril, 2004.
[12] International Organization for Standardization, ISO 9241-1:1997 Ergonomic requirements for office work with visual display terminals
(VDTs) – Part 1: General introduction. 1997.
[13] B. de Benito, ―Taller: Redes y trabajo colaborativo entre profesores,‖ en IV Congreso de Nuevas Tecnologías de la Información y de la
Comunicación para la educación (EDUTEC’99), 1999.
[14] J. Cabero Almenara, Nuevas tecnologías aplicadas a la educación. Madrid: Síntesis, 1999.
[15] P. Zaharias y A. Poylymenakou, ―Developing a Usability Evaluation
Method for e-Learning Applications: Beyond Functional Usability,‖ Int. J. Hum.-Comput. Interact., vol. 25, no. 1, págs. 75–98, Jan. 2009.
[16] M. Zapata, ―Evaluación de un sistema de gestión del aprendizaje,‖
Rev. Educ. Distancia, vol. 9, no. Noviembre, 2003.
[17] J. A. Zatarain de Losada, ―El Ambiente Virtual de Aprendizaje de la
Universidad de Guadalajara,‖ en XX Simposio Internacional de Computación en la Educación, Puebla, México, 2004.
[18] M. Moreno Castañeda y M. del S. Pérez Alcalá, Eds., Modelo
educativo del Sistema de Universidad Virtual. Guadalajara, Jalisco, México: Universidad de Guadalajara, 2010.
[19] Beth Davis, Colleen Carmean, y Ellen D. Wagner, ―The Evolution of
the LMS: From Management to Learning. Deep Analysis of Trends Shaping the Future of e-Learning,‖ The eLearning Guild, 2009.
ANEXO.- CUESTIONARIO
A continuación se presenta el instrumento que se diseñó
para hacer la evaluación por expertos de la usabilidad del
sistema gestor del aprendizaje Metacampus. El formato ha
sido ajustado para su publicación, eliminando los espacios
para las respuestas de los entrevistados.
La finalidad de este cuestionario es identificar cuáles son
las cualidades y defectos de usabilidad del Sistema de
Aprendizaje Metacampus, del Sistema Universidad Virtual
de la Universidad de Guadalajara.
INSTRUCCIONES [1-5]. Contesta con una ―X‖ la opción
que consideres más apropiada, del 1 al 5; y deja tu
comentario sobre el tema de la pregunta en el espacio de
―Observaciones‖. Gracias1.
I. ¿EL DISEÑO GENERAL DEL SISTEMA DE APRENDIZAJE EN
LÍNEA FAVORECE SU USABILIDAD?
1. La operatividad de la plataforma Metacampus en
cualquier tipo de computadora; por ejemplo [1-5]. Mac,
PC, Unix, etc., es [1-5].
2. La facilidad de conexión de la plataforma Metacampus
a través de cualquier navegador (Netscape, Mozilla,
Explorer) es[1-5].
3. La facilidad de conexión de la plataforma Metacampus,
a través de enlaces o hipertextos, es[1-5].
4. Al leer con el tipo de letra de la plataforma
Metacampus, éste se considera[1-5].
5. Al leer con el tamaño de letra de la Plataforma
Metacampus, éste se considera [1-5].
6. La decoración del color de fondo e imagen de la
plataforma Metacampus es [1-5].
7. La organización o el acomodo de los diferentes
espacios, herramientas y botones en la pantalla es [1-5].
8. La presentación del diseño de la interfaz de la
plataforma Metacampus, en general, se considera [1-5].
9. Los colores, formas y tipos de letra del diseño de la
interfaz del sistema de aprendizaje en línea, guardan
una consistencia [1-5].
10. La integración y presentación de diferentes formatos de
archivos multimedia, como por ejemplo [1-5]. imágenes
(.gif) (.jpg); audio (.wav) (.wma) (.mp3); video (.mov)
(.avi) (.wmv) (.mpeg); animaciones, (.exe) (.class)
(.swf), en la plataforma Metacampus, es [1-5].
1Los términos asociados a los numerales fueron [1-5].
Insatisfactoria (1),
Poco satisfactoria (2), Neutral (3),
Aceptablemente satisfactoria (4) y
Totalmente satisfactoria (5).
190 VAEP-RITA Vol. 1, Núm. 4, Dic. 2013
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
11. La interacción y la comunicación a través de las
herramientas tecnológicas y pedagógicas de la
plataforma, tanto síncronas (chat), como asincrónicas
(correo electrónico, foros, etc.) es [1-5].
II. ¿LA NAVEGACIÓN DEL SISTEMA DE APRENDIZAJE EN LÍNEA
FAVORECE SU USABILIDAD?
12. El conocimiento de la navegación del usuario, sobre el
lugar donde se encuentra y hacia dónde puede ir dentro
del sistema, es [1-5].
13. El regresar o avanzar de manera lógica de un punto a
otro dentro del sistema, es [1-5].
14. La facilidad de entrar a la plataforma Metacampus es
[1-5].
15. La facilidad de salir de la plataforma Metacampus es
[1-5].
16. Los atributos ALT en menús y botones para facilitar su
navegación a través de teclas cortas, en la plataforma,
es [1-5].
III. ¿EL SISTEMA DE APRENDIZAJE EN LÍNEA ES CONFIABLE?
17. La velocidad de descarga de los materiales y recursos
(de hasta 50 Mb de capacidad) de la plataforma
Metacampus es [1-5].
18. La velocidad de trabajo de la plataforma Metacampus
es [1-5].
19. La calidad del funcionamiento de la plataforma
Metacampus (en cuanto a que nunca tiene errores o
fallas), es [1-5].
20. La capacidad de retroalimentar al usuario sobre los
procesos y tareas en ejecución (subir archivos, mensajes
en foros, o envío de correos, etc.), es [1-5].
IV. ¿EL LENGUAJE DEL SISTEMA DE APRENDIZAJE EN LÍNEA
ES CLARO, PRECISO Y SENCILLO?
La entendibilidad de los nombres, vocabulario y
descripciones que aparecen en cada una de las herramientas,
son [1-5]2.
21. Portafolio
22. Recursos
23. Guía de estudio
24. Tablón de anuncios
25. Dudas
26. Correo electrónico
27. Lista de participantes
28. Foros
29. Evaluación
30. Comunicación (Chat)
La facilidad de uso de las siguientes herramientas de la
plataforma Metacampus es [1-5]2.
31. Portafolio
32. Recursos
33. Guía de estudio
34. Tablón de anuncios
35. Dudas
36. Correo electrónico
37. Lista de participantes
2Una respuesta por herramienta.
38. Foros
39. Evaluación
40. Comunicación (Chat)
La facilidad de configuración y modificación de cada una
de las herramientas de la plataforma Metacampus, es
[1-5]2.
41. Portafolio
42. Recursos
43. Guía de estudio
44. Tablón de anuncios
45. Dudas
46. Correo electrónico
47. Lista de participantes
48. Foros
49. Evaluación
50. Comunicación (Chat)
V. ¿LAS HERRAMIENTAS DE COLABORACIÓN DEL SISTEMA DE
APRENDIZAJE EN LÍNEA CUMPLEN CON LAS GUÍAS Y
RECOMENDACIONES DE USABILIDAD, EN CUANTO A LA
FACILIDAD DE COMUNICACIÓN Y USO DE LAS MISMAS?
La facilidad de comunicación de las aplicaciones para el
trabajo colaborativo, como las siguientes, es [1-5]2.
51. Foros
52. Portafolio
53. Correo electrónico
54. Dudas
55. Chat
56. La capacidad de la plataforma Metacampus para
comunicar a los demás usuarios sobre los mensajes
nuevos o no leídos en los diferentes espacios de Foros,
Dudas, Recursos o Portafolio, es [1-5].
VI. ¿LA HERRAMIENTA BUSCADOR DEL SISTEMA DE
APRENDIZAJE EN LÍNEA AYUDA AL USUARIO A ENCONTRAR
PARTICIPACIONES, AUTORES, O CUALQUIER INFORMACIÓN
INTEGRADA EN LA PLATAFORMA?
57. La facilidad de uso de la herramienta de búsqueda de
los Foros es [1-5].
Ruth Medina Flores. Maestra en Tecnologías de
Aprendizaje y Licenciada en Letras Hispánicas por
la Universidad de Guadalajara. Ha colaborado como asesora pedagógica en el diseño de cursos en línea y
como profesora en línea de la Licenciatura en
Educación y de la Maestría en Periodismo Digital
del Sistema de Universidad Virtual de la
Universidad de Guadalajara. Actualmente se desempeña como revisora de
los recursos informativos y como community manager en el Sistema de Universidad Virtual, de la Universidad de Guadalajara.
Rafael Morales Gamboa. Licenciado en Matemáticas por la Universidad Nacional Autónoma
de México, Maestro en Ciencias Computacionales
por el Instituto Tecnológico y de Estudios Superiores de Monterrey, Doctor en Inteligencia Artificial por
la Universidad de Edimburgo. Profesor investigador
del Sistema de Universidad Virtual de la Universidad de Guadalajara, México, desde 2006, donde coordina
el Doctorado en Sistemas y Ambientes Educativos
desde 2010. Su área de interés se sitúa en las interrelaciones de la educación con las tecnologías de información y comunicación,
particularmente en entornos digitales (inteligentes) para el aprendizaje.
MEDINA Y MORALES: EVALUACIÓN POR EXPERTOS DE LA USABILIDAD DE UN SISTEMA GESTOR ... 191
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
Educação em Engenharia:
Desafios para a Inovação
Teresa Restivo, Gustavo R. Alves
A 1ª Conferência Internacional da Sociedade Portuguesa
para a Educação em Engenharia (CISPEE2013) decorreu nos dias 31 de Outubro e 1 de Novembro de 2013, no Porto, Portugal. Organizada conjuntamente pela Sociedade Portuguesa para a Educação em Engenharia (SPEE) e pelo Institituto Superior de Engenharia do Porto (ISEP), a CISPEE2013 reuniu no ISEP mais de 100 participantes oriundos de Portugal, Alemanha, Brasil, EUA, Irlanda, Japão, Marrocos, Reino Unido, República Checa e Suécia, para debater os “Desafios para a Inovação da Educação em Engenharia”.
A CISPEE 2013 recebeu cerca de 80 submissões, que foram sujeitas a um processo de revisão duplamente anónimo, com pelo menos 3 revisões por submissão. Artigos com resultados dispares foram enviados para revisões adicionais, no sentido de clarificar a avaliação final. Após revisão, 48 submissões foram aceites para apresentação oral (na qualidade de artigos longos), 19 submissões foram propostas para apresentação no formato de poster, 10 submissões foram rejeitadas e 2 consideradas não válidas.
No decorrer das sessões técnicas foi possível debater alguns dos desafios atuais para o ensino da engenharia, nomeadamente: uma maior preocupação com a formação pedagógica dos docentes de engenharia, a incorporação de contributos vindos das áreas das ciências de educação, a correcta e cuidada utilização de novos recursos educativos de acesso livre, on-line, e de dispositivos móveis, em benefício do ensino da engenharia, a formação ao longo da vida, a possibilidade / necessidade de reconhecimento de competências adquiridas em contextos informais e não formais, e a preocupação com a aquisição de competências de carácter geral, como por exemplo a capacidade de trabalho em equipas inter- e multi-disciplinares, com elementos de diferentes nacionalidades, e a capacidade de criar e inovar. Adicionalmente, foram também exploradas questões relacionadas com a ética e com o ensino da matemática, transversais a todos os cursos de engenharia.
A CISPEE2013 teve o apoio da Ordem dos Engenheiros (OE), da Sociedade Europeia para o Ensino da Engenharia (SEFI), da International Society for Engineering Education (IGIP), da Associação Brasileira de Educação de Engenharia (ABENGE), da American Society of Civil Engineers (ASCE), e, finalmente, do Institute of Electrical and Electronics Engineers (IEEE).
No âmbito do apoio do IEEE, as atas da CISPEE2013 foram indexadas no IEEE Xplore, e um conjunto de artigos,
de elevada qualidade, foi seleccionado para publicação em revistas internacionais, nomeadamente na Revista Iberoamericana de Tecnologias da Aprendizagem do IEEE (IEEE-RITA) e na edição 2014 das Tecnologias da Informação e Comunicação Aplicadas ao Ensino da Engenharia (TICAI). Para a IEEE-RITA foi seleccionado o artigo entitulado “Experiencia de aplicación de un Entorno Personalizado de Aprendizaje Móvil a una asignatura de Ingeniería Informática”, de Miguel Ángel Conde González (Universidad de León, España) e Francisco José García Peñalvo (Universidad de Salamanca, España).
Maria Teresa Restivo é licenciada em Física e Ph.D. em Ciências da Engenharia, 1988. As suas atividades de investigação, desenvolvimento e ensino (na pré e pós graduação) têm sido centradas no âmbito do grupo de Automação, Instrumentação e Controlo no Departamento de Engenharia Mecânica da Universidade do Porto. É autora de artigos, capítulos de livros e vários livros. Coordena a Unidade de Investigação de Integração de Sistemas e Processos Automáticos integrada no Laboratório de Energia, Transportes e Aeronáutica (LAETA).
Teresa Restivo é Membro da Comissão executiva da International Society for Engineering Education (IGIP) e Vice-Presidente da IEEE Edu. Soc. PT. Tem a qualificação internacional de Engineering Educator (ING-PAED IGIP), é membro institucional da rede VIT@LIS e da ELTF Task Force - EUNIS (European University Information Systems Organization) e integra os grupos de trabalho "TI na Educação Engenharia" e "Tools to Develop Higher Order Thinking Skills", tendo ambos os grupos sido criados na sua qualidade de Presidente da SPEE no período do seu lançamento, de Fevereiro de 2010 a Maio de 2012.
Gustavo R. Alves, pela
- , Portugal, desde 1994. Participou em cerca de 16 projectos de I&D nacionais e interna
- , e o ensino laboratorial no contexto da educação em engenharia. Membro do GOLC, IGIP, SPEE, e Ordem dos Engenheiros.
Gustavo Alves serviu na 1ª Conferência Internacional da Sociedade Portuguesa para a Educação em Engenharia (CISPEE2013) na qualidade de Program-Chair, em parecria com Teresa Restivo, e serve actualmente como General Chair Remote Engineering and Virtual Instrumentation (REV2014) conference.
VAEP-RITA Vol. 1, Núm. 4, Dic. 2013 192
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
Title—How to apply a Mobile Personal Learning
Environment to a Computer Science subject.
Abstract—Information and Communication Technologies
are changing the tools that people use in their daily life.
Teaching and learning processes are also affected. These
technologies emphasize the fact that learning is not always
linked to an institution or a period of time. However
institutional learning systems do not support this concept and
this makes necessary the definition of Personal Learning
Environments. This paper describes the experience of the
application of one of those personal environments implemented
for mobile devices that is able to exchange information with the
institutional systems. From this experience it is possible to say
the definition of mobile Personal Learning Environments is
possible, it increases learners’ motivation and enriches their
learning; and at the same time it is possible to take into account
what the learners do beyond the institution.
Index Terms— Interoperability, LMS, mobile, motivation,
PLE.
I. INTRODUCCIÓN
A aparición de Internet, los ordenadores, los teléfonos
móviles y en especial el hecho de que su coste sea
accesible para los usuarios ha supuesto cambios en los
dispositivos y tecnologías que utilizamos en nuestra vida
diaria. Estás tecnologías así como las diferentes aplicaciones
y servicios que proveen se aplican de una forma más o
menos exitosa en distintos ámbitos. Uno de ellos es el
ámbito educativo y más concretamente los procesos de
enseñanza/aprendizaje. Esto ha supuesto que tanto el
docente como el discente disponga de un amplio elenco de
herramientas de carácter educativo[1, 2]. Un claro ejemplo
de estas aplicaciones son las plataformas de aprendizaje o
LMS (Learning Management Systems), que van a centralizar
varias de herramientas para facilitar a las instituciones la
gestión de los procesos de aprendizaje. Entre otros aspectos
facilita la organización y estructuración de los contenidos
docentes a los profesores y sirve de punto de encuentro y
Miguel Ángel Conde González, Departamento de Ingenierías Mecánica,
Informática y Aeroespacial, Universidad de León. Escuela de Ingenierías,
Campus de Vegazana S/N, 24071, León, España (email
[email protected]). Francisco José García Peñalvo, Instituto de Ciencias de la Educación
(IUCE), Grupo de Investigación GRIAL, Universidad de Salamanca. Paseo
de Canalejas 169, 37008, Salamanca, España (email [email protected]).
desempeño de diferentes actividades formativas para los
alumnos, así como en muchas ocasiones de repositorio de
contenidos y conocimientos [3].
Sin embargo la aplicación de las plataformas de
aprendizaje no garantiza necesariamente el éxito de los
procesos educativos. Esto se debe, entre otros motivos, a
que los LMS no satisfacen plenamente las necesidades de
los estudiantes ya que: 1) Están muy centrados en la
institución y el curso y no tanto en las necesidades de los
alumnos [4]; 2) No facilitan la incorporación herramientas
que los alumnos utilizan para aprender [5-7]; y 3) No dan
soporte por si mismas al concepto de aprendizaje a lo largo
de la vida, sino que se ciñen a periodos de tiempo concretos
como puede ser un curso académico [8, 9]. Ante esta
situación es necesario otro tipo de entornos, que son los
entornos Personales de Aprendizaje o PLE (Personal
Learning Environments). En ellos el estudiante es el
responsable de su formación, puede determinar qué
herramientas y servicios usar o qué contenidos consumir, sin
una vinculación necesaria a una institución o a un período
de tiempo determinado [10].
La aparición de los PLE no implica, sin embargo, que los
LMS deban desaparecer. Ambos consideran conceptos de
aprendizaje diferentes. Mientras que el LMS, ampliamente
extendido en distintos ámbitos educativos [11-13],
representa un modelo de aprendizaje más cercano al
concepto tradicional de clase y ligado a la institución, el
PLE representa un aprendizaje en el que el estudiante tiene
la última palabra y que tiene en cuenta que éste aprende más
allá del entorno institucional. Ante esta situación sería
conveniente que ambos contextos pudieran comunicarse y
de esa manera se podría por un lado tener en cuenta dentro
la institución las actividades de aprendizaje que ocurren
fuera de ella, y por otro enriquecer el entorno personalizado
con herramientas institucionales.
De cara a facilitar dicha comunicación se ha definido un
framework basado en servicios que facilita el intercambio de
información e interacción entre ambos entornos [14]. Este
framework ha sido probado en diferentes contextos a través
de diversas experiencias. Dichas pruebas permiten observar
que los estudiantes no solamente utilizan distintas
herramientas para aprender, sino también aprenden desde
otros contextos como los dispositivos móviles [15-17]. No
en vano se trata de una de las tecnologías con mayor
aceptación con más de 6800 millones de suscripciones en
2013 y más de un teléfono por persona en los países
desarrollados [18].
Experiencia de Aplicación de un Entorno
Personalizado de Aprendizaje Móvil a una
Asignatura de Ingeniería Informática
Miguel Ángel Conde González, Francisco José García Peñalvo
L
VAEP-RITA Vol. 1, Núm. 4, Dic. 2013 193
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
Dadas estas circunstancias es necesario adaptar el
framework de servicios para que considere estos dispositivos
y definir una versión móvil del PLE que va a denominarse
mPLE (mobile Personal Learning Environment). Lo que se
pretende es la definición de una solución móvil flexible,
escalable, portable a partir del framework de servicios
previamente realizado. Este mPLE debe permitir a los
estudiantes definir sus propios entornos de aprendizaje de
manera que ellos puedan determinar las herramientas que
quieren utilizar para aprender. Para ello debe incluir
funcionalidades propias del entorno institucional,
herramientas educativas y otras herramientas no
necesariamente definidas con fines educativos pero que
pueden utilizarse para ello (p.ej: GoogleDocs). Este artículo
describe como se define esta solución y como se prueba con
estudiantes de Ingeniería del Software de la Universidad de
Salamanca.
El artículo se va a estructurar del siguiente modo: la
sección 2 resume los trabajos relacionados; la sección 3
describe el PLE móvil; posteriormente en la sección 4 se
presenta la experiencia realizada y por último se aportan una
serie de conclusiones.
II. TRABAJOS RELACIONADOS
En lo que respecta a los trabajos relacionados debe
considerarse que los PLE por su naturaleza no deberían
limitarse a un uso en un contexto determinado. Al tratarse
un sistema que considera las herramientas y servicios que un
usuario utiliza para aprender no pueden dejarse fuera
aquellas que funcionan sobre dispositivos móviles. En este
sentido existen iniciativas relativas a la definición de mPLE,
entre ellas:
Las que consideran que no hay necesidad de adaptar
los dispositivos móviles para definir un PLE. Los
móviles o tablets ya que incluyen suficientes
herramientas por sí mismos para la permitir al usuario
realizar actividades formativas y determinar que
herramientas y servicios utiliza para aprender[19-21].
Esta idea es correcta, pero no considera cómo integrar
de las diferentes herramientas educativas que usa el
estudiante, lo que puede confundirlo ya que podría usar
diferentes herramientas y no quedar claro el fin para el
que las usa (si es para aprender o no). El hecho de
presentar un entorno que centralice esas herramientas
puede facilitar el aprendizaje del alumno, que sabría
que a través de ese entorno específico puede realizar
actividades de aprendizaje [22].
Las que utilizan las características específicas de los
dispositivos en la formación (el GPS, la cámara, etc.).
Ejemplos de este tipo de iniciativas pueden ser:
CONTSENS Project (using wireless technologies for
CONText SENSitive education and training), iniciativa
que hace uso de los sistemas de conciencia contextual
para dos experimentos en aprendizaje en Londres;
MPE (Mobile Personal Environment) [23], se trata de
un cliente móvil que facilita a los usuarios el
establecimiento de canales de comunicación con otros
y con expertos, en función de un punto de interés para
la formación del estudiante; o la propuesta de
Perifanou[24] que utiliza el dispositivo en sí, así como
aplicaciones que incluye para el aprendizaje de idiomas
en función del contexto en que se encuentre el alumno.
El problema de estas iniciativas es la gran dependencia
que se tiene con respecto al hardware y software
instalado.
Las que facilitan el uso del móvil como PLE, mediante
la incorporación de funcionalidades en estos
dispositivos, y la integración de las herramientas
institucionales. Algunos ejemplos en este sentido
podrían ser: MOLLY Project [25], es una iniciativa
abierta y gratuita que propone una plataforma web para
móviles pensada para que usuarios del mundo
académico puedan buscar contactos, acceder a podcast
de las universidades y a sus bibliotecas, conocer mapas
de los campus, noticias y eventos, además de permitir
su integración con LMS existentes como Sakai;
CampusM[26], se trata de una aplicación móvil que
proporciona diferentes tipos de servicios propios que se
adaptan a las necesidades y usos de los usuarios
(mensajería, blogs, porfolio, mapas, calendario,
servicios de alertas, etc.) e integra los servicios
institucionales (cabe destacar especialmente la
integración con LMS como Moodle y Blackboard)
[27]. El problema que presentan este tipo de iniciativas
es que han sido definidas ad-hoc para la institución y
generalmente utilizan tecnologías muy específicas, con
lo que no son soluciones extrapolables a todos los
contextos. Esto podría solventarse mediante el uso de
estándares y especificaciones.
Las que utilizan las herramientas propias del móvil
(como sus clientes de RSS o las posibilidades para la
comunicación mediante el uso de SMS) para facilitar la
integración como entorno personalizado. Como
ejemplos en este sentido se pueden citar: OnlyConnect
Project, se trata de un sistema que trata de reforzar y
personalizar la relación entre usuario e institución por
diferentes canales, entre ellos mediante el envío de
información personalizada mediante SMS y RSS [28];
o REACh, proyecto donde lo que se define es un
software que facilita el envío de avisos procedentes de
los LMS a diferentes contextos mediante el uso de RSS
y SMS [29]. El problema de este tipo de solución es
que se encuentra muy limitada por el tipo de tecnología
de comunicación que se utiliza.
La definición de versiones móviles de ciertas
plataformas que sirven para definir portales,
comunidades virtuales o para la gestión de contenidos.
Un ejemplo de esto es Elgg[30], que proporciona una
versión móvil [31] cuyo cometido es facilitar el acceso
desde móviles a los contextos personalizados y, en
algunos casos gracias a sus mecanismos de
comunicación con las plataformas de aprendizaje,
también al entorno institucional. Sin embargo estas
herramientas no son en muchos casos suficientes para
definir un PLE ya que la mayoría no da soporte a la
comunicación con otros ecosistemas de aprendizaje.
Las soluciones basadas en widgets ya existentes para
representar los PLE y su explotación en otros
contextos. Deben considerarse iniciativas como: la de
Aplix Web Runtime[32] que posibilita la ejecución de
widgets W3C en dispositivos móviles; la
Widgetruntime: WAC-1.0 Compliant Golden for
194 VAEP-RITA Vol. 1, Núm. 4, Dic. 2013
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
Android[33] que se utiliza con un cometido similar; y
los consorcios entre diferentes compañías de telefonía
para definir interfaces comunes para aplicaciones
móviles[34]. También relacionado con widgets pero
exportables a otros contextos debe considerarse
proyectos como Webinos[35], que ofrece una
plataforma abierta que permite intercambiar
aplicaciones entre diferentes plataformas. El problema
es que aunque sea posible empezar a visualizar los
widgets en los móviles muchas de las soluciones no
utilizan estándares para definirlos, lo que supone que lo
que es válido para una plataforma no lo sea en otras.
La adaptación de los LMS a los dispositivos móviles
para que puedan combinarse con otras herramientas
incluidas en los dispositivos. De hecho varios de los
LMS más populares (Moodle, Blackboard, Sakai, etc.)
tienen asociado o están desarrollando alguna iniciativa
de implementación de cliente móvil (oficial o no) [36-
43]. El problema de ese tipo de soluciones es que están
muy ligadas a la institución y no es sencillo integrar
funcionalidades adicionales en sus versiones de
móviles así como combinar esos clientes con otras
herramientas.
Dado este panorama se puede observar que la definición
de una solución flexible y completa no es algo sencillo de
conseguir. Este es el propósito del mPLE que se ha utilizado
durante la presente experiencia.
III. EL PLE MÓVIL
Como se ha comentado con anterioridad existe una
necesidad de definir no solamente un PLE en un contexto
móvil sino de ser capaz de comunicar ese PLE con el
entorno institucional (representado como el LMS). Para
hacer esto posible es necesario establecer una estructura de
comunicación entre dichos entornos de aprendizaje, de
manera que: 1) lo que ocurra en el contexto móvil pueda ser
tenido en cuenta desde el entorno institucional; y 2) que el
entorno personalizado móvil pueda verse enriquecido con
funcionales del LMS. Este es la idea que por tanto se tiene
de mPLE, entendido como un conjunto de servicios,
herramientas y canales de comunicación que facilitan que el
estudiante pueda llevar a cabo actividades de aprendizaje
fuera del contexto institucional y que desde éste se pueda
considerar los resultados de dichas actividades.
En este sentido los autores del presente artículo han
definido un framework de servicios que, mediante el uso de
servicios web y especificaciones de interoperabilidad, hacen
posible dicha comunicación [14]. Este framework considera
la representación funcionalidades institucionales en los
dispositivos móviles mediante el uso de servicios web. Sin
embargo esta exportación a los dispositivos móviles,
permite la representación del PLE en otros contextos, pero
para dichos dispositivos no se tiene en cuenta cómo
funciona realmente un PLE, ya que no facilita que el usuario
pueda elegir diferentes herramientas y esto supone que tenga
que ser adaptado[44].
El framework constaría de 3 elementos principales, el
entorno institucional (con uno o varios LMS), el entorno
personalizado y los canales de comunicación (Fig 1).
Estos elementos desde un punto de vista arquitectónico se
distribuirían según el diagrama de despliegue de la Fig 2. En
dicha figura se aprecia el entorno institucional que puede
incluir uno o varios LMS distribuidos en diferentes nodos.
También puede observarse el entorno personalizado móvil
que incluye herramientas propias del dispositivo,
herramientas institucionales y herramientas externas no
definidas inicialmente con fines educativos pero que pueden
utilizarse con tal propósito (ExternalTool). Además el
framework debe incluir herramientas mediadoras (Mediator)
que faciliten el manejo de entornos propietarios (por
ejemplo GoogleDocs no puede ser modificado para
integrarse en el PLE pero dispone de una API para facilitar
su integración) así como proporcionen interfaces de
evaluación a contextos que de no los incluyen por defecto
[14] (por ejemplo GoogleDocs no incluye una interfaz para
evaluar un documento creado por varios estudiantes). Estos
componentes están conectados por una serie de interfaces
basadas en servicios web y especificaciones de
interoperabilidad. Para poder chequear la adecuación del
framework se elabora una prueba de concepto que supone la
introducción en el modelo de una serie de restricciones de
diseño:
Contexto Institucional. Se pueden incorporar diferentes
LMS, aunque en este caso se propone utilizar varias
instancias de la plataforma de aprendizaje Moodle, ya
que: es software libre; está ampliamente extendido
(http://moodle.org/stats), ha tenido gran aceptación
entre las instituciones [45]; y por que incorpora una
capa de servicios web que abre las puertas a nuevas
tecnologías [46].
Canales de comunicación. Para facilitar la
comunicación entre LMS y PLE se utilizan los
servicios web proporcionados Moodle[47] y
BLTI[48]como especificación de interoperabilidad.
Esta especificación se utiliza en el framework para
integrar la actividad realizadas fuera del entorno
institucional.
Fig. 1. Elementos principales del framework.
CONDE Y PEÑALVO: EXPERIENCIA DE APLICACIÓN DE UN ENTORNO PERSONALIZADO DE ... 195
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
Entorno personalizado. Debe facilitar que el usuario
pueda añadir todo tipo de herramientas que utilice para
su formación. Para ello se ha realizado una
implementación En concreto existía la posibilidad de
realizar dicha implementación utilizando varias
tecnologías pero al final se seleccionó Android[49] por
ser una de las más extendidas. El PLE móvil debe, en
primer lugar, facilitar un contenedor de aplicaciones
(Fig 3). Este contenedor da acceso al usuario a
diferentes aplicaciones que se puedan utilizar para
aprender. Estas aplicaciones pueden ser: aplicaciones
instaladas en el móvil o que se pueda descargar,
aplicaciones que representen funcionalidades del LMS
(como puede ser el foro Fig 4.) o actividades
educativas que se adaptan para su uso en dispositivos
móviles, por ejemplo una herramienta de cuestionarios
(Fig 5).
El contenedor facilita la personalización del entorno de
aprendizaje por parte del usuario y que sea él quien
decida las herramientas que utiliza para aprender.
Además, las herramientas educativas adaptadas y las
funcionalidades exportadas del LMS (durante la
implementación Moodle) deben ser capaces de retornar
los resultados de la actividad del estudiante a dicho
entorno institucional, con lo que aprendizaje no
vinculado con el contexto académico pueda también
tenerse en cuenta [46].
A partir de esta prueba de concepto, con el objetivo de
validar la adecuación de la solución se ha llevado a cabo una
experiencia piloto en un entorno educativo.
Fig. 4. Ejemplo de la aplicación del foro en el dispositivo móvil
Fig. 5. Herramienta de cuestionario adaptada al PLE Móvil
Fig. 2. Diagrama de despliegue del framework en el que se pueden observar los elementos fundamentales: el entorno institucional, el mediador y el
mPLE[44]
Fig. 3. Contenedor de aplicaciones para el dispositivo móvil
196 VAEP-RITA Vol. 1, Núm. 4, Dic. 2013
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
IV. LA EXPERIENCIA PILOTO
El sistema desarrollado como prueba de concepto se ha
probado con 40 estudiantes correspondientes a dos grupos
de la asignatura Ingeniería del Software de la Universidad
de Salamanca. De estos estudiantes 20 han utilizado el
mPLE durante la experiencia (grupo experimental) mientras
que otros han utilizado los navegadores de los dispositivos
móviles (grupo de control). La experiencia consistía en el
uso del foro para discutir una serie de conceptos acerca de
UML, además los alumnos que utilizan el mPLE debían
configurarlo y añadir 4 herramientas que ellos utilizaran
para aprender y no estén incluidas en Moodle. También 4
profesores van a utilizar el mPLE para contestar las
aportaciones de los estudiantes y añadirán 4 herramientas. A
partir de esa experiencia se va a considerar la percepción de
usabilidad de los estudiantes del grupo experimental frente
al grupo de control y las opiniones de los estudiantes del
grupo experimental y de los profesores. A continuación se
describen las metodologías utilizadas.
A. Metodología
A lo largo de este piloto se han aplicado diferentes
metodologías de evaluación. En concreto este artículo se
centra en dos de ellas: la usabilidad del sistema y la
percepción de estudiantes y profesores acerca del mismo.
En cuanto a la metodología utilizada para evaluar la
usabilidad, de entre los posibles factores a contemplar, se
decide tener en cuenta la satisfacción del usuario final. Para
ello se utiliza un formulario SUS (System Usability Scale).
Se trata de un cuestionario de 10 ítems que facilita una
medida de la evaluación subjetiva de la usabilidad [50].
Dicho cuestionario se aplica tanto al grupo experimental
como al de control y se comparan los resultados.
Respecto al análisis de la percepción de los estudiantes se
utiliza una aproximación cualitativa. Se llevan a cabo
entrevistas semi-estructuradas con los 20 estudiantes del
grupo experimental y con el grupo de profesores de la
asignatura. Las respuestas a dichas entrevistas se analizan,
se definen una serie de categorías temáticas y
posteriormente se sintetizan los resultados y se agrupan de
acuerdo a esas categorías [51]. En este caso para los
estudiantes se consideran las categorías de motivación
(como se ve afectada), aprendizaje (cómo se ve afectado) y
para los profesores funcionamiento (cómo les parece),
aprendizaje (cómo se ve afectado) y problemas.
A continuación se observan los resultados de esta
aplicación.
B. Resultados y Discusión
Los resultados respecto a la evaluación de la satisfacción
del usuario final del sistema mediante el formulario SUS
han sido de un 74 sobre 100 para los estudiantes del grupo
experimental y de un 38 sobre 100 para los del grupo de
control. Dado que según Sauro el nivel de satisfacción
aceptable para un sistema debería estar por encima de un 68
sobre 100 [52], se puede concluir que la usabilidad del PLE
móvil es aceptable y que hay una diferencia significativa
con respecto a los alumnos que no lo utilizan. Esta
diferencia es debida principalmente a que la representación
de los LMS en los navegadores de dispositivos móviles no
son plenamente funcionales, lo que hace que tanto la
consulta de información como la interacción con los mismos
sea bastante compleja. Por otro lado, el PLE móvil permite
centralizar el conjunto de herramientas usadas para
aprender, mientras que en caso de no utilizarse la selección
de herramientas dependería del dispositivo a utilizar y sería
descentralizada lo que complica su uso y puede conducir a
índices menores de usabilidad.
En cuanto a las razones por las que el porcentaje de
aceptación no es mayor se puede deber a que él se ha
desarrollado como prueba de concepto, lo que supone que
aún presente ciertos errores, que han sido reportados por
profesores y estudiantes y se han resuelto.
Como ya se ha comentado otro aspecto que se ha tenido
en cuenta es la percepción de los estudiantes y profesores de
la utilidad del sistema. La Tabla 1 muestra esa información
categorizada. De dicha tabla se pueden obtener varias
conclusiones. En lo que respecta a la motivación la mayoría
de los estudiantes afirman que el mPLE puede incrementar
su motivación porque les ayuda a aprender, les facilita
acceder a recursos y actividades de aprendizaje en cualquier
momento y lugar y porque es más flexible que otras
soluciones existentes. Algunos estudiantes consideran que la
TABLA I. – MATRIZ CON LA PERCEPCIÓN DE LOS ESTUDIANTES
CATEGORIZADA
Motivación Aprendizaje Problemas
E1 El uso del móvil es
útil
Interesante Me descentro
E2 Siempre informado Mejora por usar las herramientas que
yo quiero
-
E3 En cualquier lugar Mejora Configuración
difícil
E4 Nuevo uso para el
móvil
Más posibilidades Más
herramientas
adaptadas
E5 Útil Más completo -
E6 Indiferente Más herramientas Complejo
E7 Mejora Más sencillo No muchas
herramientas educativas
adaptadas
E8 Útil Adaptado a las
herramientas que uso
-
E9 Realmente en
cualquier momento y lugar
- No todo el
mundo tiene un smartphone
E10 Incrementa Puedo personalizar
mi entorno de
aprendizaje
Complejo
E11 Mis herramientas
de aprendizaje a
mano
Mejorado por el
uso del móvil
Conectividad
E12 Nuevas posibilidades
Enriquecido con otras herramientas
-
E13 Mayor flexibilidad No sólo
herramientas educativas
-
E14 Se incrementa - -
E15 La tecnología no es
lo importante
Nuevos contenidos
y herramientas
No tengo un
smartphone
E16 Indiferente No se ve afectado Tengo que
acceder a dos
entornos
E17 Útil -
E18 - Más adaptado a mis
necesidades
Ninguno
E19 Positivo - -
E20 Complejo - Sigo teniendo
que acceder al
LMS
CONDE Y PEÑALVO: EXPERIENCIA DE APLICACIÓN DE UN ENTORNO PERSONALIZADO DE ... 197
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
motivación no se ve afectada porque ya utilizan el
dispositivo móvil con fines educativos independientemente
de que sus resultados no sean integrados en el LMS.
En lo que respecta a su aprendizaje la mayoría ve el
mPLE como algo positivo que mejora y enriquece sus
procesos de aprendizaje. Gracias al mPLE tienen la
posibilidad de decidir qué herramientas utilizan para
aprender y personalizar sus entornos de aprendizaje tanto
con herramientas de carácter educativo como con otras que
no tienen necesariamente que serlo.
Por último, en cuanto a los problemas que les supone el
uso de este entorno varios estudiantes se quejan acerca de
que dispondrían de muchas herramientas en distintos
contextos lo les llegar a confundir. Otro de los problemas es
la falta de herramientas educativas adaptadas para ser
integradas en el PLE y que devuelvan información al LMS.
También algunos señalan que no todos los estudiantes tienen
acceso a Internet en el móvil (hecho que puede ser
solventado habilitando un funcionamiento del mPLE offline)
y/o no tienen smartphone.
En la Tabla 2 se muestran los resultados correspondientes
a la percepción de los profesores al respecto del
funcionamiento del sistema, de cómo podría verse afectado
el aprendizaje y los problemas que observan en el uso de
este tipo de entornos.
De esta tabla puede concluirse que según la percepción de
los profesores la herramienta funciona adecuadamente y de
forma sencilla.
En lo referente a la influencia en el aprendizaje de los
estudiantes los profesores consideran que les aporta mayor
flexibilidad por la posibilidad de usar nuevas herramientas y
que pueden estar más motivados por el hecho de poder usar
el móvil y las herramientas que ellos realmente quieren para
aprender. Por otro lado el mPLE proporciona nuevas
posibilidades, facilita que herramientas de fuera del ámbito
institucional puedan ser utilizadas en actividades formativas,
así como contenidos de diferentes fuentes. Debe tenerse en
cuenta también que lo que los usuarios puedan hacer en el
mPLE va a poder ser tenido en cuenta desde el LMS lo que
va a suponer un mayor conocimiento acerca de las
actividades de aprendizaje de los estudiantes, algo que
redundaría en su beneficio ya que podría ser valorado.
En cuanto a los problemas que presenta el sistema uno de
los más relevantes es que no todo el mundo ni en todos los
ámbitos educativos se va a disponer de smartphones (por
ejemplo en contextos de educación primaria este tipo de
dispositivos no son comunes). Además se aprecia la
necesidad de contar con más herramientas adaptadas para su
uso desde el dispositivo móvil. Por último algunos
profesores consideran que la duplicidad de contextos
formativos puede confundir a los estudiantes.
Estos resultados respaldan la viabilidad del sistema desde
el punto de vista de la usabilidad, corroboran las
suposiciones iniciales que se habían realizado acerca de las
ventajas del sistema y plantean una serie de problemas que
pueden ser tratados como líneas para un trabajo futuro.
V. CONCLUSIONES
A lo largo de este artículo se han planteado dos problemas
principales. Por un lado los discentes no aprenden
únicamente en los entornos institucionales, sino que lo hace
a lo largo de su vida, mediante el uso de diferentes
herramientas y en contextos muy diferentes. Es necesario
tener en cuenta ese tipo de aprendizaje. Además hoy en día
las tecnologías móviles facilitan el acceso a actividades de
aprendizaje en cualquier momento y lugar y también en este
caso, las actividades de aprendizaje deben ser consideradas.
Dadas estas necesidades se ha planteado la definición de
un entorno de personal de aprendizaje móvil que permite
que el estudiante decida las herramientas educativas a
utilizar y el momento y lugar en que usarlas y cuyos
resultados pueden ser tenidos en cuenta desde el entorno
institucional. De esta forma se trata de hacer visible el
aprendizaje que ocurre más allá de la institución
Para ello este artículo ha presentado una aproximación
basada en el uso de un framework de servicios y una
implementación Android de un mPLE. Dicha solución se ha
probado con alumnos de la asignatura de Ingeniería del
Software que van a utilizarlo para llevar a cabo una
actividad.
De esta experiencia ha sido posible observar que, desde el
punto de vista de los estudiantes, el mPLE es bastante fácil
de usar y más eficiente que la visualización desde el móvil
de un LMS. Además consideran que el uso de entornos de
aprendizaje adaptados a dispositivos móviles en los que
ellos pueden decidir las herramientas a utilizar incrementa
su motivación, y en su opinión les aportan mayor
flexibilidad para la realización de actividades de
aprendizaje. Sin embargo se detectan problemas que
deberían resolver como trabajo futuro tales como: permitir
el trabajo offline, proporcionar un catálogo más amplio de
herramientas a incluir en el mPLE o llevar a cabo versiones
del mPLE que no requieran del uso de smartphones.
Estas afirmaciones son respaldadas por la opinión de los
profesores que consideran que el sistema es válido y
funciona correctamente, que les puede proporcionar
información de actividades de aprendizaje que de otra forma
estaría oculta, así como nuevas posibilidades en cuanto a las
herramientas a utilizar en ellas. En cuanto a los problemas
también se refleja la escasez de herramientas y quizás que el
hecho de usar varios contextos pueda generar confusión
entre los estudiantes.
El experimento llevado a cabo sirve como prueba de
concepto. Sin embargo de cara a validar adecuadamente el
sistema debería ser probado con otro tipo de estudiantes y en
otros contextos educativo (no solamente en la universidad y
TABLA II. – MATRIZ CON LA PERCEPCIÓN DE LOS ESTUDIANTES
CATEGORIZADA
Funcionamiento Aprendizaje Problemas
P1 Correcto Se sabe que hace el
estudiante fuera del
LMS
Más
herramientas
P2 Bien El estudiante puede definir su entorno
personal y el profesor
tiene nuevos tipos de recursos y actividades
para utilizar
Adaptación de herramientas
educativas
P3 Sencillo El estudiante está más motivado por usar el
móvil
Disponibilidad de smartphones
P4 Adecuado Nuevas posibilidades de contenidos y
funcionalidades
Diferentes contextos
supone más
complejidad y confusión
198 VAEP-RITA Vol. 1, Núm. 4, Dic. 2013
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
en el ámbito de la enseñanza de materias técnicas como el
Grado en Ingeniería en Informática)
Como conclusión final podría decirse que la
implementación de un PLE móvil es perfectamente posible
y que según la percepción de profesores y estudiantes puede
favorecer los procesos de enseñanza/aprendizaje.
ACKNOWLEDGMENT
Este trabajo está parcialmente subvencionado por el
Ministerio de Educación y Ciencia (proyecto TIN2010-
21695-C02) y la Junta de Castilla y León a través del
proyecto SA294A12-2.
REFERENCES
[1] F. J. García-Peñalvo, "Estado Actual de los Sistemas E-Learning," Teoría de la Educación. Educación y Cultura en la Sociedad de la
Información, vol. 6, Octubre 2005 2005.
[2] F. J. García-Peñalvo, Advances in E-Learning: Experiences and Methodologies. Hershey, PA, USA: Information Science Reference,
2008.
[3] P. Avgeriou, A. Papasalouros, S. Retalis, and M. Skordalakis, "Towards a Pattern Language for Learning Management Systems,"
Educational Technology & Society, vol. 6, pp. 11-24, 2003. [4] G. Attwell, "The Personal Learning Environments - the future of
eLearning?," eLearning Papers, vol. 2, pp. 1-8, 2007.
[5] H. Ajjan and R. Hartshorne, "Investigating faculty decisions to adopt Web 2.0 technologies: Theory and Empirical Tests," The Internet and
Higher Education, vol. 11, pp. 71-80, 2008.
[6] O. Casquero, J. Portillo, R. Ovelar, M. Benito, and J. Romo, "iPLE Network: an integrated eLearning 2.0 architecture from University's
perspective," Interactive Learning Environments, vol. 18, pp. 293-
308, 2010. [7] J. Mott and D. Wiley, "Open for Learning: The CMS and the Open
Learning Network," In Education - Exploring our connective
educational landscape, vol. 15, 29/04/2011 2009. [8] G. Attwell, "e-Portfolios – the DNA of the Personal Learning
Environment?," Journal of e-Learning and Knowledge Society, vol. 3,
pp. 39-61, 2007. [9] V. B. Weigel, Deep Learning for a Digital Age: Technology's
Untapped Potential to Enrich Higher Education: Jossey-Bass, 2001.
[10] L. Castañeda and J. Adell, "La anatomía de los PLEs," in Entornos Personales de Aprendizaje: Claves para el ecosistema educativo en
red, L. Castañeda and J. Adell, Eds., ed Alcoy: Marfil, 2013, pp. 11-
27. [11] M. P. Prendes, "Plataformas de campus virtuales de Software Libre:
Análisis compartivo de la situación actual de las Universidades
Españoles.," Informe del proyecto EA-2008-0257 de la Secretaría de Estado de Universidades e Investigación2009.
[12] P. Arroway, E. Davenport, X. Guangning, and D. Updegrove,
"Educause Core Data Service Fiscal Year 2009 summary report," EDUCAUSE2010.
[13] S. Wexler, L. Dublin, N. Grey, S. Jagannathan, T. Karrer, M.
Martinez, et al., "LEARNING MANAGEMENT SYSTEMS. The good, the bad, the ugly,... and the truth.," The eLearning
Guild22/10/2011 2008.
[14] F. J. García-Peñalvo, M. Á. Conde, M. Alier, and M. J. Casany, "Opening Learning Management Systems to Personal Learning
Environments," Journal of Universal Computer Science, vol. 17, pp.
1222-1240, 2011. [15] M. Á. Conde, F. J. García-Peñalvo, M. J. Rodríguez-Conde, M. Alier,
and A. García-Holgado, "The learners’ and teachers’ perception of
LMS openess in educational and technological areas," Computers in Human Behaviour, In press.
[16] M. Á. Conde, F. J. García, M. J. Rodríguez-Conde, M. Alier, M. J.
Casany, and J. Piguillem, "An Evolving Learning Management System for new educational environments using 2.0 tools," Interactive
Learning Environments, In press.
[17] M. Á. Conde, F. J. García-Peñalvo, M. Alier, M. J. Casany, and J. Piguillem, "Mobile devices applied to Computer Science subjects to
consume institutional functionalities through a Personal Learning
Environment," International Journal of Engineering Education (IJEE), vol. 29, pp. 610-619, 2013.
[18] ITU, "Mesuring the Information Society," International
Telecommunication Union, Geneva, Switzerland 92-61-13111-5,
2012.
[19] J. Pettit and A. Kukulska-Hulme, "Going with the grain: Mobile
devices in practice," Australian Journal of Educational Technology -
AJET, vol. 23, pp. 17-33, 2007. [20] H. Jenkins, R. Purushotoma, K. A. Clinton, M. Weigel, and A. J.
Robison. (2006, 10/01/2014). Confronting the Challenges of
Participatory Culture: Media Education for the 21st Century. Available: http://files.eric.ed.gov/fulltext/ED536086.pdf
[21] G. Attwell, J. Cook, and A. Ravenscroft, "Appropriating
Technologies for Contextual Knowledge: Mobile Personal Learning Environments," presented at the Second World Summit on the
Knowledge Society, WSKS, Crete, Greece, 2009.
[22] M. van Harmelen, "Personal Learning Environments," presented at the Proceedings of the Sixth IEEE International Conference on
Advanced Learning Technologies, Kerkrade, The Netherlands, 2006.
[23] H. Thüs, M. Akbari, and U. Schroeder, "Mobile Personal Environment for Higher Education," presented at the PLE Conference
2011, Southampton, UK, 2011.
[24] M. Perifanou, "Using iphone as my “Personal Mobile Language Learning Environment”: an exploration and classification of language
learning possibilities," presented at the PLE Conference 2010,
Barcelona, Spain, 2010. [25] Molly. (2010, 19/01/2014). Molly Project - The open source Mobile
portal. Available: http://mollyproject.org/
[26] campusM-TM. (2010, 19/01/2014). CampusM. Available: http://www.campusm.com/
[27] T. Jennings, "Technology Audit - CampusM," Ovum’s Knowledge
Centers2011. [28] C. Frost, "Only Connect Project - Final Report," JISC - Joint
Information Systems Comitee, Bolton2009.
[29] M. Stubbs, " Researching Emerging Administration Channel," JISC - Joint Information Systems Comitee, Manchester2009.
[30] M. N. Razavi and L. Iverson, "A grounded theory of information
sharing behavior in a personal learning space," presented at the Proceedings of the 2006 20th anniversary conference on Computer
supported cooperative work, Banff, Alberta, Canada, 2006.
[31] M. Harding. (2010, 19/01/2014). Elggmobile. Available: http://code.google.com/p/elggmobile/
[32] Aplix-Corporation. (2009, 20/04/2012). Aplix Web Runtine. Available: http://wiki.webvm.net/wrtc/
[33] DEV.OPERA. (2011, 19/01/2014). Widget runtime: WAC-1.0-
compliant Golden for Android. Available: http://dev.opera.com/articles/view/labs-widget-runtime-wac-1-0-
compliant-golden-for-android/
[34] J. Sachse, The Standardization of Widget-APIs as an Approach for Overcoming Device Fragmentation: GRIN Verlag GmbH, 2010.
[35] Webinos. (2010, 19/01/2014). Webinos Project. Available:
http://webinos.org/ [36] Blackboard. (2011, 19/01/2014). Blackboard Mobile. Available:
http://www.blackboard.com/Platforms/Mobile/Overview.aspx
[37] J. Pratt, D. Hinkelman, G. Bateson, B. Gettings, N. Sekiya, and T. Takemoto, "Moodle for Mobile," ed, 2006.
[38] M. Yingling, "Mobile Moodle," Journal of Computing Sciences in
Colleges, vol. 21, pp. 280-281, 2006. [39] M. Alier and M. Casany, "Moodbile: Extending Moodle to the Mobile
on/offline Scenario.," presented at the IADIS International
Conference Mobile Learning., Algarve, Portugal., 2008. [40] M. Á. Conde, C. Muñoz, and F. J. García, "Sistemas de Adaptación
de contenidos para dispositivos móviles," presented at the Actas del
congreso de IX Congreso Internacional de Interacción Persona - Ordenador, Albacete, 2008.
[41] M. Meisenberger and A. Nischelwitzer, "The mobile learning engine
(MLE) - a mobile, computer-aided, multimedia-based learning application," presented at the Multimedia Applications in Education
Conference, MApEC'04, Austria, 2004.
[42] M. J. Casany, M. Á. Conde, M. Alier, and F. García, "Applications of Service Oriented Architecture for the Integration of LMS and m-
Learning Applications”," presented at the Fifth International
Conference on Web Information Systems and Technologies – WEBIST 2009, Lisboa, 2009.
[43] Sakai. (2011, 19/01/2014). Google Summer of Code Ideas 2011.
Available: https://confluence.sakaiproject.org/display/MGT/Google+Summer+of
+Code+2011+ideas+list#GoogleSummerofCode2011ideaslist-
[44] Francisco J. García-Peñalvo, Miguel Á. Conde, and A. Del-Pozo, "A
Mobile Personal Learning Environment Approach," presented at the
5th International Conference, VAMR 2013 Held as Part of HCI
International 2013, Las Vegas, NV, USA, 2013.
CONDE Y PEÑALVO: EXPERIENCIA DE APLICACIÓN DE UN ENTORNO PERSONALIZADO DE ... 199
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
[45] M. Molist. (2008, 19/01/2014), Moodle llena la geografía educativa
española de campus virtuales. Diario el Pais. Available:
http://www.elpais.com/articulo/portada/Moodle/llena/geografia/educa
tiva/espanola/campus/virtuales/elpeputec/20081204elpcibpor_1/Tes
[46] M. J. Casany, M. Alier, M. Á. Conde, and F. J. García, "SOA
Initiatives for eLearning: A Moodle Case," presented at the 23rd International Conference on Advanced Information Networking and
Applications, AINA, Bradford, United Kingdom, May 26-29, 2009,
2009. [47] M. Á. Conde, D. A. Gómez, A. d. Pozo, and F. García-Peñalvo, "Web
services layer for Moodle 2.0.: A new area of possibilities in web
based learning," International Journal of Technology Enhaced Learning (IJTEL), vol. 3, 2010.
[48] IMS-GLC. (2010, 19/01/2014). IMS Learning Tools Interoperability
Basic LTI Implementation Guide v1.0. Available:
http://www.imsglobal.org/lti/blti/bltiv1p0/ltiBLTIimgv1p0.html
[49] Google-Android. (2013, 19/01/2014). Android. Available:
http://www.android.com/
[50] J. Brooke, "SUS: A Quick and Dirty Usability Scale," in Usability Evaluation in Industry, P. W. Jordan, B. Thomas, B. A.
Weerdmeester, and I. L. McClelland, Eds., ed: Taylor & Francis.,
1996. [51] M. B. Miles and A. M. Huberman, Qualitative Data Analysis: An
Expanded Sourcebook: Sage Publications, 1994.
[52] J. Sauro, A Practical Guide to the System Usability Scale: Background, Benchmarks & Best Practices: CreateSpace, 2011.
Miguel Ángel Conde realizó sus estudios
universitarios en Ingeniería en Informática en la
Universidad de Salamanca y se doctoró en esta misma universidad en 2012. De 2002 a 2004 estuvo
trabajando en el ámbito de la educación
impartiendo diferentes cursos de informática. En 2004 estuvo en el desarrollo software para la
empresa GPM una compañía de desarrollo web y
multimedia. En 200 comenzó a trabajar para Clay Formación Internacional en el departamento de
I+D+i dónde estuvo involucrado en diferentes proyectos de eLearning. De
2007 a 2012 ha sido profesor asociado de la Universidad de Salamanca, en la que también ha trabajado como investigador del grupo GRIAL. Durante
el año 2013 ha trabajado como profesor asociado de la Universidad de León
así como vinculado a proyectos del Servicio de Informática y Comunicaciones de esta universidad. Actualmente trabaja como profesor
Ayudante Doctor en la Universidad de León. Su tesis e investigación se
centra en como fusionar y explotar experiencias de aprendizaje formales, informales y no-formales. Ha publicado más de 100 artículos relativos al
ámbito del eLearning entre libros, capítulos de libro, revistas y conferencias
tanto nacionales como internacionales.
Francisco José García Peñalvo realizó sus
estudios universitarios en informática en la
Universidad de Salamanca y en la Universidad de Valladolid y se doctoró en la Universidad de
Salamanca. El doctor García-Peñalvo es el director
del grupo de investigación GRIAL (Grupo de investigación en Interacción y eLearning). Sus
principales intereses de investigación se centran en
el eLearning, Computadores y Educación, Sistemas Adaptativos, Ingeniería Web, Web Semántica y Reutilización de Software. Ha dirigido y
participado en más de 15 proyectos de innovación e investigación. Fue
Vicerrector de Innovación Tecnológica de la Universidad de Salamanca entre Marzo de 2007 y Diciembre de 2009. Ha publicado más de 100
artículos en revistas y conferencias internacionales. Ha sido editor invitado
en varios números especiales de revistas internacionales (Online InformationReview, Computers in Human Behaviour,
InteractiveLearningEnvironments…). Además, es miembro del comité de
programa de varias conferencias internacionales y revisor de varias revistas internacionales.
200 VAEP-RITA Vol. 1, Núm. 4, Dic. 2013
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
Title— Engineering contributions into a Knowledge Society
multicultural perspective
Abstract— Last November 2013, a new Conference about
Technological Ecosystems for Enhancing Multiculturality
(TEEM) was held in the University of Salamanca, linked to a
new PhD Programme about Education in Knowledge Society.
This PhD Programme and the TEEM Conference present a
interdisciplinary and multicultural approach about the
challenges and problem solutions in the Knowledge Society.
Engineering and in more specific way Software and Computer
Engineering play a very outstanding role in this Conference
and PhD Programme. We want to thank RITA Journal its
support to this project and the opportunity to select a couple of
papers from TEEM Conference be extended in this issue.
Index Terms— Engineering, Multiculturality,
Interdisciplinary, Knowledge Society, PhD Programme, TEEM
Conference.
I. INTRODUCCIÓN ON la publicación del Real Decreto 99/2011, de 28 de enero, por el que se regulan las enseñanzas oficiales de
doctorado[1], en el Instituto Universitario de Ciencias de la Educación (IUCE) de la Universidad de Salamanca se ha definido un Programa de Doctorado de carácter interdisciplinar y multicultural denominado “Formación en la Sociedad del Conocimiento” (http://www.usal.es/webusal/node/30026, http://knowledgesociety.usal.es/) [2]. En este Programa de Doctorado intervienen diferentes grupos de investigación provenientes de diversas áreas disciplinares, Reconocidos de la Universidad de Salamanca GRIAL (http://grial.usal.es) [3], GITE (http://gite.usal.es/), OCA (http://campus.usal.es/~oca/), VISUALMED (http://visualmed.usal.es/), Robotics and Society Group (http://gro.usal.es/) y E-LECTRA (http://electra.usal.es/), de los cuales GRIAL, GITE y OCA son también Grupos de Excelencia de la Junta de Castilla y León (GR47, GR213 y GR319 respectivamente).
Entre las líneas de investigación del Programa de Doctorado, y siempre con el objetivo de buscar complementarse con otras líneas de investigación para resolver problemas y retos de investigación complejos y
Francisco José García Peñalvo, Instituto de Ciencias de la Educación
(IUCE), Grupo de Investigación GRIAL, Universidad de Salamanca. Paseo de Canalejas 169, 37008, Salamanca, España (email [email protected]).
aplicados a la realidad de la Sociedad del Conocimiento, aparecen varios tópicos relacionados con la Ingeniería, a destacar:
Interacción y eLearning. Robótica educativa. Ingeniería y Educación.
Mediante el Programa de Doctorado en Formación en la
Sociedad del Conocimiento, se intenta capacitar a sus futuros doctores no solo en las competencias disciplinares, de conocimiento teórico y práctico o de reflexión y pensamiento crítico que cualquier Programa de Doctorado compartiría como elementos básicos, sino que además se quiere transmitir una perspectiva de encarar la resolución de los complejos problemas de nuestra Sociedad actual que compagine por un lado la interdisciplinaridad y, por otra parte, la apuesta por el Conocimiento en Abierto [4, 5]. Todo ello como fiel reflejo de cómo pensamos que la Universidad debe avanzar para liderar la formación y transición hacia la Sociedad del Conocimiento [6, 7], a la par que sus egresados (doctorados en este caso y, por tanto, egresados con el máximo nivel de capacitación, madurez y capacidad de liderazgo) deben ser capaces de transmitir esta perspectiva, en el ejercicio de su actividad profesional, al tejido productivo y a la Sociedad en general, estando sobradamente capacitados para conjugar esa formación formal e informal recibida [8, 9].
De forma paralela a la definición de este Programa de Doctorado, se ha puesto en marcha una Conferencia Internacional, Technological Ecosystems for Enhancing
Multiculturality (TEEM - http://teemconference.eu/), cuyos tópicos de interés coinciden con el enfoque y líneas de investigación del Programa de Doctorado, y que tiene, precisamente, el objetivo de construir una comunidad de investigación internacional en esta área de interés.
Como resultado de la primera edición de este evento, TEEM 2013 (http://teemconference.eu/2013) [10, 11], celebrado en Salamanca del 14 al 16 de noviembre de 2013, se han seleccionado dos artículos para su extensión y, tras una nueva evaluación por el Comité de Programa, han sido aceptados para su publicación en este número de la revista VAEP RITA (http://rita.det.uvigo.es/VAEPRITA/).
En el primero de los artículos García Sierra et al. presentan un caso de uso de robots para aumentar el interés de los estudiantes no relacionados con la robótica por esta disciplina. Para ello han desarrollado una competición en la que intervienen ratones en el entorno de los robots haciendo que esta sea más impredecible e implique un mayor reto.
Aportaciones de la Ingeniería en una Perspectiva Multicultural de la Sociedad del
Conocimiento Francisco J. García-Peñalvo
C
VAEP-RITA Vol. 1, Núm. 4, Dic. 2013 201
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
El segundo de los artículos se debe a Humanante Ramos et al., quienes documentan la experiencia de introducir los Entornos Personalizados de Aprendizaje o PLEs (Personal
Learning Environments)[12] en un contexto universitario con estudiantes de Informática aplicada a la Educación en la Universidad de Chimborazo (Ecuador).
AGRADECIMIENTOS Quiero agradecer a la revista VAEP RITA y a su editor en
jefe, el Dr. Martín Llamas Nistal, por el apoyo recibido en las iniciativas que en este artículo se recogen.
También dar las gracias al Ministerio de Ciencia e Innovación del Gobierno español por la financiación del proyecto con el número de identificación TIN2010-21695-C02-01, y al Consejo Regional de Educación de la Junta de Castilla y León (España) a través de los proyectos GR47 y MPLE (ref. SA294A12-2).
REFERENCIAS [1] BOE, "Real Decreto 99/2011, de 28 de enero, por el que se
regulan las enseñanzas oficiales de doctorado," vol. 35, Ministerio de Educación, Ed., ed. Madrid, Spain: Gobierno de España, 2011, pp. 13909-13926.
[2] F. J. García-Peñalvo, "Formación en la sociedad del conocimiento, un programa de doctorado con una perspectiva interdisciplinar," Teoría de la Educación: Educación y Cultura
en la Sociedad de la Información, vol. 15, 2014. [3] F. J. García-Peñalvo, M. J. Rodríguez-Conde, A. M. Seoane-
Pardo, M. Á. Conde-González, V. Zangrando, and A. García-Holgado, "GRIAL (GRupo de investigación en InterAcción y eLearning), USAL," IE Comunicaciones. Revista
Iberoamericana de Informática Educativa, pp. 85-94, 2012. [4] F. J. García-Peñalvo, C. García de Figuerola, and J. A. Merlo,
"Open knowledge management in higher education," Online
Information Review, vol. 34, pp. 517-519, 2010. [5] F. J. García-Peñalvo, C. García de Figuerola, and J. A. Merlo,
"Open knowledge: Challenges and facts," Online Information
Review, vol. 34, pp. 520-539, 2010. [6] A. J. Berlanga, F. J. García-Peñalvo, and P. B. Sloep, "Towards
eLearning 2.0 University," Interactive Learning Environments,
vol. 18, pp. 199-201, 2010.
[7] F. J. García-Peñalvo, "La Universidad de la próxima década: La Universidad Digital," in Universidad y Desarrollo Social de la
Web, C. Suárez-Guerrero and F. J. García-Peñalvo, Eds., ed Washington DC, USA: Editandum, 2011, pp. 181-197.
[8] F. J. García-Peñalvo, R. Colomo-Palacios, and M. D. Lytras, "Informal learning in work environments: training with the Social Web in the workplace," Behaviour & Information
Technology, vol. 31, pp. 753-755, 2012. [9] F. J. García-Peñalvo, M. Á. Conde, V. Zangrando, A. García-
Holgado, A. M. Seoane, M. Alier, et al., "TRAILER Project (Tagging, Recognition, Acknowledgment of Informal Learning Experiences). A Methodology to Make Learners’ Informal Learning Activities Visible to the Institutions," Journal of
Universal Computer Science, vol. 19, pp. 1661-1683, 2013. [10] F. J. García-Peñalvo, Proceedings of the First International
Conference on Technological Ecosystem for Enhancing
Multiculturality, TEEM 2013. New York, USA: ACM, 2013. [11] F. J. García-Peñalvo, A. García-Holgado, and J. Cruz-Benito,
Proceedings of the TEEM’13 Track on Knowledge Society
Related Projects. Salamanca, Spain: Grupo GRIAL, 2013. [12] G. Attwell, "The Personal Learning Environments - The future
of eLearning?," eLearning Papers, vol. 2, 2007.
Francisco José García Peñalvo realizó sus estudios universitarios en informática en la Universidad de Salamanca y en la Universidad de Valladolid y se doctoró en la Universidad de Salamanca. El doctor García-Peñalvo es el director del grupo de investigación GRIAL (Grupo de investigación en Interacción y eLearning). Sus principales intereses de investigación se centran en el eLearning, Computadores y Educación,
Sistemas Adaptativos, Ingeniería Web, Web Semántica y Reutilización de Software. Ha dirigido y participado en más de 15 proyectos de innovación e investigación. Fue Vicerrector de Innovación Tecnológica de la Universidad de Salamanca entre Marzo de 2007 y Diciembre de 2009. Ha publicado más de 100 artículos en revistas y conferencias internacionales. Ha sido editor invitado en varios números especiales de revistas internacionales (Online Information Review, Computers in Human
Behaviour, Interactive Learning Environments…). Además, es miembro del comité de programa de varias conferencias internacionales y revisor de varias revistas internacionales.
202 VAEP-RITA Vol. 1, Núm. 4, Dic. 2013
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
Title—Using robots and animals as a motivating tool for
teaching IT courses.
Abstract—This article presents the use of robots to
increase students’ engagement in non-robotic IT courses. It
describes the experience of using robots in a course on
computer architecture of the computer engineering program
at the Universidad de León (Spain). It also states that
including competitions contributes to students’ engagement.
Finally, we show how the use of natural and unpredictable
elements (living animals) in the environment makes these
competitions more challenging.
Preliminary analysis of this experience is also discussed
based on a group of 67 students. We assessed the students’
attendance, their final marks, and also the subjective
impression about lectures through in ad-hoc questionnaires.
Index Terms— Computer science education, student
experiments, robotics.
I. INTRODUCCIÓN
N ratón y un robot corriendo por un laberinto de
madera, compitiendo por llegar el primero al queso
de premio, despierta el interés de estudiantes de casi
cualquier titulación. En particular, los estudiantes del
segundo curso del Grado en Ingeniería Informática de la
Universidad de León en Junio de 2013 estaban muy
interesados en que el primero en llegar fuese el robot que
habían programado. Se jugaban una parte de la nota en
que su robot venciese al ratón en alguna de las carreras.
Al final el ratón venció 4-1 [10], pero esa victoria del
robot consiguió levantar aplausos y gritos de los
estudiantes, lo que sirvió para confirmar las hipótesis
planteadas en este artículo.
En la experiencia docente de los autores, no es muy
habitual que las tareas prácticas asignadas a los
estudiantes acaben de esta forma: con un sentimiento de
éxito colectivo. Más interesante aún es que los estudiantes
del 2013 pidieron repetir esa tarea (el enfrentamiento
ratón-robot) que habían conocido por sus compañeros del
curso anterior, otra prueba más de lo exitoso de la
iniciativa, a juicio de los autores.
Juan Felipe García Sierra, Francisco Javier Rodríguez Lera, Camino
Fernández Llamas y Vicente Matellán Olivera forman parte del Grupo
de Robótica del Departamento de Ingenierías Mecánica, Informática y Aeroespacial
{ffgars,fjrodl,camino.fernandez,vicente.matellan}@unileon.es.
Vicente Matellán (correspondingauthor: +34-987-291-1743; fax: +34-987-293-065; e-mail: vicente.matellan@ unileon.es).
Desde el punto de vista docente, esta tarea fue
concebida para fomentar la motivación de los estudiantes
y para favorecer el trabajo en equipo como mecanismos
para reforzar y facilitar el aprendizaje.
La idea no es nueva, existen múltiples iniciativas por
todo el mundo que utilizan robots como herramienta de
mejora en los procesos de aprendizaje. Algunos de los
ejemplos más conocidos son la RoboCupJr [20], el
proyecto Program-KPL[32] o la FIRST LEGO
LeagueR[2][3], programas en los que nuestro grupo de
robótica1 ha estado involucrado como docentes u
organizadores [4]. El objetivo de estas experiencias ha
sido utilizar la capacidad de atraer y sorprender de la
robótica móvil para demostrar la aplicabilidad de las
enseñanzas e incrementar de esta forma el interés de los
estudiantes.
A lo largo del artículo se presenta el desarrollo de
nuestra experiencia con LEGO, orientada en su origen a
un público más joven, y tratamos de evaluar si realmente
pueden obtenerse los mismos resultados si es aplicado a
estudiantes universitarios.
En la literatura científica existen múltiples ejemplos de
cómo utilizar la robótica como herramienta motivadora,
como se revisa en el trabajo de Ruiz-del-Solar[22] o
Goldman [9]. Para ello existen múltiples plataformas
robóticas que se han diseñado y se comercializan con ese
fin.
Igualmente, la motivación está ampliamente
reconocida como una de las herramientas más ponderosas
para mejorar el aprendizaje, como se extrae de los
trabajos de Malone [17], Garris[8] o Pintrich[19].
Analizando esta literatura, hay tres factores de puesta
en valor de la aplicación de la robótica en la enseñanza y
que son comunes a todas las experiencias:
1. La programación de dispositivos: Programar un robot
que posteriormente interacciona con el entorno y el
humano en el mundo real a través de sensores resulta
mucho más atractivo para el alumno que desarrollar
un programa cuyo ámbito de interacción queda
reducido al teclado y la pantalla del ordenador
personal.
2. El trabajo en equipo: Muchas de las tareas en la
educación informática tienden a ser individuales,
cuando en el mundo profesional ése no suele ser el
caso.
3. Evaluación por competición: Medir los resultados del
aprendizaje por un sistema de competición se
presenta como un sistema positivo para el alumno.
Uso de Robots y Animales como Herramientas
Motivadoras en la Enseñanza de Materias TIC
Juan Felipe García Sierra, Francisco Javier Rodríguez Lera, Student Member IEEE, Camino
Fernández, and Vicente Matellán Olivera, Member, IEEE
U
VAEP-RITA Vol. 1, Núm. 4, Dic. 2013 203
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
Nuestra propuesta se puede resumir en que creemos
que estas ventajas ya contrastadas en un público de entre
10 y 18 años pueden aprovecharse no sólo para el
aprendizaje de materias relacionas con la robótica (visión
computacional, inteligencia artificial, sistemas
empotrados, etc.), sino que se pueden usar en la
planificación docente de otras materias universitarias. En
concreto, la experiencia descrita en las siguiente
secciones se aplicó en la asignatura de “arquitectura de
computadores” del grado de Ingeniería en Informática de
la Escuela de Ingenierías Industrial e Informática de la
Universidad de León.
El resto del artículo está organizado de la siguiente
forma: la sección dos presenta un breve repaso por el
estado de la cuestión de los robots diseñados para la
docencia, la tercera sección realiza una comparación entre
dichas plataformas, la cuarta describe nuestra experiencia
con los alumnos de grado y finalizamos con las
conclusiones y trabajos futuros.
II. PLATAFORMAS
Existen dos opciones para trabajar con robots como
herramientas educativas: Usar robots físicos o
simuladores. Como hemos explicado previamente,
creemos que uno de los factores clave del éxito de la
robótica estriba precisamente en el uso de los propios
dispositivos físicos, por ello sólo hemos considerado para
este trabajo plataformas robóticas reales.
Por completitud, enumeramos también los simuladores
más comunes que hemos utilizado en otros proyectos,
como son Logo [16], Player / Stage/ Gazebo [18], SRIsim
/ Saphira [14], Webots [29] or SARSIM[28], aunque en
las siguientes secciones sólo analizamos las plataformas
físicas.
La figura 1 agrupa las plataformas descritas a
continuación. Las letras bajo cada foto se corresponden
con el de las siguientes secciones donde se describen las
características principales de los mismos. Nótese que del
primero de los robots de la figura 1 (parte superior
izquierda) aparecen dos unidades diferentes, por
corresponder a las dos versiones del mismo robot.
A. Lego Mindstorms
Mindstorms en su versión educativa es un kit de
construcción de robots del popular fabricante danés de
juegos de construcción con piezas de plástico LEGO
surgido a finales de los años 90 en colaboración con el
MIT Media Laboratory.
El componente principal de este juego es el
denominado brick que contiene el hardware controlador y
sobre el que se desplegará el programa del usuario. En su
primera versión, el llamado RCX, poseía un micro-
controladorH8/300 que permitía conectar hasta tres
sensores simultáneamente. La conexión se realizaba de la
misma forma que las tradicionales piezas de LEGO.
Existen múltiples tipos de sensores adaptados para este
controlador (medición de luz, temperatura, colisiones,
etc.), bien fabricados por LEGO o bien por terceros
fabricantes.
Permitía igualmente controlar hasta tres motores
simultáneamente que se conectan de igual manera. La
alimentación en su versión original la proporcionan 6
pilas AA de 1.5 Voltios cada una. Todo ello por un precio
de unos 250€.
Este modelo fue utilizado junto con la versión
denominada comercialmente NXT y que es gestionado
por un micro-controlador Atmel AT91SAM7S256. Fue
lanzada en el 2006. La mayor diferencia con su antecesor
es que puede conectar un sensor más y que utiliza cables
RJ12. Otra novedad fue la inclusión de sensores de
ultrasonido en el kit básico, lo que amplía bastante su
capacidad de sensorización. Esta versión dispone también
de un display mono-cromo de 100x60 pixels y un altavoz
que permite reproducir ficheros de sonido a 8kHZ. La
versión para educación disponía de baterías recargables
de iones de litio. Estos kits para educación se
comercializan en España con un coste de unos 300€.
La versión NXT 2.9 se lanzó en 2009, pero fue un
rediseño fundamentalmente estético y la incorporación de
un sensor de color.
Todas las versiones de LEGO Mindstorms pueden
programarse con diferentes lenguajes de programación,
desde lenguajes de bajo nivel tipo ensamblador, hasta
lenguajes de programación visual basados en tecnologías
como LabViewTR
adaptadas para el trabajo con niños.
LEGO Mindstorms NXT puede programarse también
con Enchanting, una variante de Scratch, un entorno de
programación visual que permite a los niños desarrollar
juegos, historias animadas y compartirlas con otros a
través de la red [23][27].
B. Finch
El robot Finch fue creado en el laboratorio CREATE
de Carnegie Mellon. Se diseñó para servir como
herramienta docente para introducir a los estudiantes en el
campo de la programación de computadores. Por ello
tiene soporte para más de una docena de lenguajes de
programación y dispone de diferentes entornos de
desarrollo especialmente diseñados para niños desde los 8
años [26].
El entono incluye sensores similares a los de los LEGO
que proporcionan medidas de luz, detección de
obstáculos, etc.
Este kit no necesita pilas puesto que se conecta a través
de un puerto USB. Esta característica hace también que
su coste sea mucho más reducido, estando alrededor de
los 75€.
Figura1. Plataformas evaluadas
204 VAEP-RITA Vol. 1, Núm. 4, Dic. 2013
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
C. Rovio™
El Rovio™ de WowWee® es una aproximación
diferente. En este caso se trata de un robot concebido
como “juguete” de producción masiva, no
específicamente diseñado como herramienta educativa.
Se trata de un robot móvil controlado a través de una
conexión Wi-Fi. Este robot percibe su entorno
fundamentalmente mediante una cámara, aunque también
dispone de sensores infrarrojos para la detección de
obstáculos próximos. El robot tiene la capacidad de
enviar la señal de vídeo y audio en streaming utilizando
la conectividad Wi-Fi, por lo que se podría calificar
realmente como una webcam móvil con control remoto.
La producción masiva consigue rebajar el coste hasta los
250€.
A diferencia de otros robots, el procesamiento no se
realiza en el propio robot. El diseño del Rovio™ prevé
que el procesamiento de la información percibida por los
sensores y la toma de decisión sobre el control se realicen
en un computador remoto que se comunica con el robot a
través de la Wi-Fi. Esta aproximación permite disponer
de una capacidad de procesamiento mucho mayor, al
disponer off-board de un computador tan potente como el
usuario desee. Igualmente, se puede utilizar en ese
ordenador cualquier lenguaje y entorno de programación
que soporte comunicación TCP/IP. La única limitación de
este modelo es el ancho de banda disponible por la red
inalámbrica.
El principal problema de esta plataforma es que no ha
sido diseñada para uso educativo infantil-juvenil, lo que
hace que requiera un nivel de programación elevado, es
decir, no hay un entorno de programación específico para
un uso educativo de la plataforma y hay que utilizar los
entornos convencionales de programación (por ejemplo
Eclipse) y lenguajes de programación igualmente
profesionales (tipo C, java, etc.) lo que requiere un nivel
de programación elevado. De este modo consideramos
que esta plataforma podría encajar entre un público
estudiantes universitarios en su rama más científica.
D. Skybot
El micro-robot Skybot es el nombre de la evolución del
robot Tritt que fue un robot distribuido en forma de kit
muy popular en España. Tritt estaba basado en el micro-
controlador Motorola 68HC11 y utilizaba para su chasis
piezas de LEGO.
A diferencia de Tritt, Skybot se distribuye con un
chasis de metacrilato y utiliza un micro-controlador
PIC16F876A. Se distribuye con cuatro sensores de
infrarrojos, dos sensores de contacto y un sensor de luz.
El movimiento lo proporcionan 2 servomotores.
Se trata de un robot más pensado para iniciar al público
en la electrónica que en la programación, en particular en
el campo de los micro-controladores [24].
El coste es de unos 170€ y el principal inconveniente
es que requiere conocimientos elevados de programación,
puesto que los únicos lenguajes disponibles son C y
ensamblador.
La principal ventaja es que se trata de un kit muy
fácilmente reutilizable para cualquiera que tenga
conocimientos técnicos. Esto es, se pueden añadir nuevos
componentes, modificar la estructura, etc. Además, el
hecho de ser un “hardware libre”, hace que cualquiera
pueda redistribuirlo, modificarlo, venderlo, etc.
E. Roomba – iRobotCreate
Roomba es un robot diseñado originalmente como una
aspiradora autónoma. Se trata realmente de un
electrodoméstico que empezó a comercializar la
compañía iRobot en el 2002 y del que se han vendido más
de 8 millones de unidades.
Dado lo ajustado de su precio, se convirtió
rápidamente en una plataforma para uso educativo e
investigador. Ante ese éxito, el fabricante ha creado una
versión específica para uso educativo e investigador
denominada iRobotCreate [21]. Sobre esta versión se han
construido otras plataformas como TurtleBot[30]
diseñadas como bases robóticas móviles de bajo coste.
Sobre estas bases, los diseñadores robóticos pueden
añadir sensores adicionales, cámaras, manipuladores, etc.
Con todo, se trata de una plataforma que, a nuestro
juicio, está diseñada para enseñanza en cursos de un nivel
elevado, pues requiere conocimientos de programación,
pero también de electrónica. Aunque su bajo coste, los
componentes básicos, incluyendo batería y cargador,
están en los 150-175€, ha hecho que sea un plataforma
ampliamente difundida.
F. EyeBot
El EyeBot no es realmente un robot concreto, se trata
más bien de un controlador que se puede usar en robots
con ruedas, caminantes o voladores. Se trata de una
tarjeta basada en micro-controlador de 32 bits fabricado
por Motorola y que se comercializa integrado con un
display gráfico y una cámara en color, cuyas imágenes es
capaz de procesar el micro-controlador.
La principal ventaja de este “robot” es que permite
escribir programas empotrados sofisticados, incluyendo el
desarrollo de algoritmos basados en visión, sin tener que
utilizar un potente computador [6].
Este micro-controlador para robots puede programarse
en C o C++ y está muy bien diseñado para enseñar los
fundamentos de programación en tiempo real aplicada al
procesamiento de visión, ya que el Eyebot viene equipado
con una cámara digital integrada.
Se puede resumir la descripción de este equipo como
indicado para usuarios tecnológicamente avanzados. El
precio es acorde a esta definición, unos 800€ para un
controlador únicamente, o un robot completo basado en él
como el SoccerBot S4 por unos 2.000€ [7].
G. Khepera
El Khepera es un robot miniaturizado que se viene
fabricando por la empresa suiza K-Team desde hace más
de 10 años.
Se trata de un micro-robot de reducido tamaño (el
Khepera III tiene un diámetro de 130mm y una altura de
70mm) diseñado para la educación avanzada y la
investigación. Se basa en el sistema operativo Linux para
que el desarrollo de aplicaciones sea más rápido y las
aplicaciones más portables [12].
La plataforma básica cuesta alrededor de los 4.000€ y
cada componente se vende por separado, existiendo
GARCÍA SIERRA et al.: USO DE ROBOTS Y ANIMALES COMO HERRAMIENTAS MOTIVADORAS EN LA ... 205
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
módulos para dotar al robot de un sensor láser, cámara,
un mini-manipulador, etc. Estos módulos tienen un precio
que oscila entre los 700 y los 3.700 euros cada uno.
H. AmigoBot
El AmigoBot es una versión más barata (aunque a
pesar de ello valorada aún en unos 2.000€), más pequeña
y más sencilla del robot Pioneer, uno de los robots más
extendidos en los laboratorios de investigación en
robótica. La versión AmigoBot se basa en una plataforma
con dirección diferencial que se utiliza principalmente en
proyectos educacionales y colaborativos [13]. Incluye el
software de navegación sonar SONARNL para sus 8
sensores sonar y permite realizar rastreo por colorACTS.
Se programa en C/C++ utilizando el API para robótica
ARIA y se maneja desde un ordenador remoto por red
inalámbrica, al igual que sucede con el Rovio™.
III. PLATAFORMA ELEGIDA
Aunque está claro que un robot físico no solo es
preferible, sino preceptivo frente a un simulador para el
objeto de este trabajo, elegir el dispositivo más adecuado
no es una tarea sencilla. Hay que tener en cuenta varios
puntos clave: sensorización, versatilidad, precio,
estabilidad hardware y software, opciones de
programación, integración con Scratch, entre otras.
La Tabla I muestra los criterios que cumplen (y los que
no cumplen) los robots presentados en la sección
anterior.Se ha dado una puntuación subjetiva de 1 a 5
para cada uno de dichos criterios, siendo 1 la puntuación
más baja (indicando por tanto que el robot no sería
adecuado en este sentido, por ejemplo por ser muy caro o
por carecer de determinados sensores), salvo para la
categoría uso educativo que se valora, bien con 1
(adecuado para niños), bien con 2 (se requiere
conocimientos de programación medios o avanzados) o
bien con 3 (se necesitan conocimientos de programación
y electrónica). La columna TOTAL representa la suma de
las categorías anteriores.
A la vista de los resultados recogidos en esta tabla, se
ha elegido el robot LEGO Mindstorms como plataforma
principal para el curso dado que ha obtenido la
puntuación máxima a nivel tanto técnico como de
idoneidad para la enseñanza. El robot Rovio™ también se
utilizó para la experiencia con alumnos de grado dado que
posee una cámara que permite realizar tareas interesantes
relacionadas con la visión por computador; se eligió
frente a otras opciones dado que era el mejor para
estudiantes de informática si se tenían en cuenta el precio
y su aplicación en el ámbito educativo.
IV. EXPERIENCIA CON ALUMNOS DE GRADO
Los principales objetivos de la experiencia eran:
Demostrar que los robots se pueden desplegar dentro
de cursos y asignaturas del grado en informática sin
tener que estar éstas relacionadas estrictamente con
la robótica.
Validar la aplicación en el mundo real del
conocimiento adquirido en cada práctica.
Motivar al alumno para realizar prácticas opcionales
relacionadas con robots que siempre tendrán un nexo
de unión con la práctica oficial correspondiente.
Permitir a los alumnos conocer tecnologías robóticas
desde su lado más innovador, con su aplicación en
entornos industriales o asistenciales, hasta su lado
más clásico como puede ser el robot sigue líneas.
Fomentar el trabajo en equipo frente al
individualismo y la actitud colaborativa frente a la
competitiva.
Motivar a los estudiantes dentro de un sistema
educativo rígido.
A. Organización del Curso
Tal y como se comentaba anteriormente, la asignatura
elegida para esta experiencia ha sido „‟Arquitectura de
Computadores‟‟. Se trata de una asignatura obligatoria
del sexto semestre de la titulación Grado en Ingeniería
Informática de la Universidad de León. La carga lectiva
de esta asignatura es de 6 créditos ECTS, por lo que se
presuponen 150 horas de trabajo a un estudiante medio.
La parte teórica de la misma consiste en un curso
clásico de organización del computador, siguiendo en
líneas generales la estructura del “Arquitectura de
Computadores” de John L. Hennessy [31].
La innovación se aplica a las prácticas de la asignatura,
que se organizan de la siguiente manera:
TABLA I. COMPARACIÓN ENTRE LAS PLATAFORMAS ROBÓTICAS MÁS ADECUADAS PARA USOS ACADÉMICOS: DOCENTES E INVESTIGADORES
(EL VALOR MÁS ALTO INDICA MEJOR ADECUACIÓN)
Robot Sensorización Versatilidad Precio Estabilidad Opciones de
Programación
Uso
educativo TOTAL
Mindstorm 2 3 3 5 5 1 18
Finch 1 2 5 4 5 1 16
Rovio™ 3 3 3 4 5 2 18
Skybot 2 3 4 4 2 2 15
Roomba 4 4 2 3 3 3 16
EyeBot 4 4 2 4 2 3 16
Khepera 4 3 1 4 5 2 17
AmigoBot 3 3 2 4 4 2 16
206 VAEP-RITA Vol. 1, Núm. 4, Dic. 2013
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
1. Se propone una tarea obligatoria para todos los
estudiantes. Dicha tarea se resuelve utilizando PC
tradicionales con sistema operativo Windows o
GNU/Linux y está siempre relacionada con tareas o
problemas clásicos de arquitectura de computadores.
2. Se proponen una o varias tareas opcionales
relacionadas con robótica. Las tareas propuestas
están basadas en la tarea obligatoria correspondiente.
3. Se proponen igualmente tareas opcionales no
relacionadas con la robótica. La razón de hacer esto
es no forzar a los estudiantes a realizar tareas (por
ejemplo, programación de robots) que pudieran
pensar que no están directamente relacionadas con la
asignatura. Este paso no se aplica a la última práctica
(la tarea propuesta para el RCX), cuya temática se
centra en la robótica.
La evaluación de las prácticas se realiza de la siguiente
manera:
1. Se evalúa el trabajo de cada grupo.
2. Una parte de la nota final de cada estudiante depende
del resto de compañeros, para bien y para mal: toda
la clase tiene que trabajar en equipo para resolver una
tarea. Este paso se aplica solamente a una de las tres
prácticas propuestas: la competición de robot vs.
ratón.
Todas las prácticas se realizan en grupo y la máxima
nota para cada una de ellas (10 puntos sobre 10) se puede
alcanzar completando la parte obligatoria junto con una
de las partes opcionales, la relacionada con la robótica o
la no relacionada con la robótica: la parte obligatoria
cuenta 7 puntos de 10 para la nota, y las partes opcionales
suponen 3 puntos de 10 (cada una de ellas, lo que permite
al estudiante elegir cuál de ellas – si es que le interesa
realizar alguna – prefiere completar).
B. Experiencia
En concreto se proponen tres tareas opcionales
relacionadas con robótica, una por cada práctica de la
asignatura:
1) La primera práctica
La parte obligatoria consiste en el desarrollo en Java
de un banco de pruebas para medir el rendimiento de
un computador. La aplicación debe aplicar un filtro de
color sobre una imagen local para eliminar aquellos
píxeles que no pertenezcan a un color en concreto (se
eligió el color naranja por continuar con la tradición de
la RoboCup).
La tarea opcional de robótica consiste en utilizar este
mismo filtro para programar el robot Rovio™ para
seguir la pelota.
La figura 2 muestra la visión subjetiva desde el robot
Rovio™ (parte inferior izquierda) que la deben
procesar los estudiantes y una visión cenital del campo
de juego para la preparación de las pruebas.
La tarea no relacionada con robótica consiste en
implementar opciones adicionales de filtrado
(diferentes espacios de color, LUT,…).
Figura2. Tele-operador del robot Rovio™
2) La segunda práctica
La parte obligatoria consiste en desarrollar una
aplicación multilenguaje (Java – ADA) que simule las
operaciones en formato IEEE754 de una ALU de coma
flotante.
La tarea opcional relacionada con la robótica
consiste en programar el robot Rovio™ para reconocer
números (en concreto la representación binaria de
reales en formato IEEE754) escritos en una cartulina
de papel que se le muestra; una vez obtenidos los
números, el robot utiliza el código anteriormente
descrito para simular la operación de la ALU, y
termina comunicando el resultado obtenido (utilizando
software de text2speech).
La tarea no relacionada con robótica consiste en
implementar operaciones adicionales para la ALU
(permitir que realice operaciones con enteros además
de realizarlas con reales).
3) La tercera práctica
Esta tarea está relacionada con todos los contenidos
tratados en la asignatura, incluyendo rendimiento,
optimización, operaciones de Entrada y Salida,
utilización de memoria, etc.
En ella se utiliza el robot Mindstorms RCX y los
estudiantes tienen que construir y programar su robot
para competir con un ratón. El objetivo es que el ratón
tenga encontrar un trozo de queso dentro de un
laberinto (ver figuras3, 4 y 5). Un grupo final de cinco
robots intenta derrotar a un grupo de cinco ratones.
Se trata de una tarea colaborativa en la que todos los
estudiantes obtienen la máxima calificación (10 sobre
10) si alguno de los robots consigue tener éxito. Sólo
uno de ellos lo consiguió en 2012, pero fue una gran
sensación de éxito para todos los que acudieron a la
prueba final, que estaba abierta a todo el público, no
sólo a los estudiantes. No hay tareas no relacionadas
con robótica para esta práctica.
GARCÍA SIERRA et al.: USO DE ROBOTS Y ANIMALES COMO HERRAMIENTAS MOTIVADORAS EN LA ... 207
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
Figura3. Ratón alcanzando el queso en el laberinto
Figura3. Robot alcanzando la meta en el laberinto
Para aumentar más la motivación, se decidió usar un
rival independiente en lugar de hacer competir a los
equipos entre sí. Generalmente, si se evalúa
comparando con los compañeros, los resultados de
esa competitividad pueden inducir a una desmotivación
del alumno al tratarse de un igual, en nuestro caso
valoramos diferentes agentes autónomos para evitar
esta competición y llegamos a la conclusión de que
utilizar ratones para esta última práctica podría encajar
dentro de esta experiencia.
Los ratones son una forma de vida evolucionada,
con un gran instinto de supervivencia y exploración (lo
que incluye buscar comida). Se trata por tanto de un
gran rival para probar la eficacia y eficiencia de los
algoritmos de navegación desarrollados por los
alumnos para el robot RCX.
C. Resultados
La tabla 2 muestra el número de estudiantes que
cursaron la asignatura de Arquitectura de Computadores
en 2013, así como su participación en tareas opcionales
(relacionadas y no relacionadas con robótica).
A pesar de que los alumnos que participaron en tareas
relacionadas con robótica suponen un 33% del total de
estudiantes, está claro que la mayoría de los que estaban
interesados en tareas opcionales (que a pesar de ser
opcionales contaban para la nota de cada práctica) eligió
tareas relacionadas con robótica, un 62%, frente a las no
relacionadas.
Por otro lado, en lugar continuar el decrecimiento del
número de alumnos que van abandonando la materia a
medida que transcurre el curso, observamos que dicho
número vuelve a aumentar para la última práctica,
recuperando los valores del comienzo de curso.
Los robots Mindstorms RCX y Rovio™ se han
utilizado desde 2008 para cursos de extensión
universitaria encaminados a estudiantes de grados
técnicos (o a cualquiera con conocimientos de
programación) de la Universidad de León.
El robot RCX se ha utilizado en cuatro cursos
introductorios a la programación de robots móviles,
mientras que el Rovio™ se ha utilizado en la única
edición de nivel medio de estos cursos realizada hasta la
fecha. Los cursos introductorios abordaban tareas de
navegación mediante sensores de luz y de contacto
(utilizados para detectar el color del suelo o la cercanía de
objetos), mientras que el curso de nivel medio trataba
temas de visión por computador aplicada a
reconocimiento de objetos por color y forma o a
reconocimiento de texto.
La reacción y feedback de todos ellos, obtenida
mediante encuestas oficiales realizadas por la Oficina de
Calidad de la Universidad [5] ha sido muy buena, con
estudiantes preguntando cada año si el curso de nivel
medio se repetiría dado que querían asistir al mismo.
V. CONCLUSIONES Y TRABAJO FUTURO
Lo más relevante de las propuestas comentadas en la
presente investigación es la inclusión de robots y
animales en la enseñanza, fomentar la actitud
colaborativa en vez de la competitiva y el aprendizaje
basado en la motivación del alumno. En este sentido se
puede concluir a partir de esta experiencia que:
1. Aplicar el conocimiento a la resolución de tareas del
mundo real y hacerlo mediante robots, junto con los
robots en sí mismos, constituyen herramientas de
motivación muy efectivas, y la motivación es una
herramienta muy poderosa para mejorar el
aprendizaje.
2. Las competiciones internas son herramientas
poderosas para involucrar más a los estudiantes.
3. Basándonos en nuestras experiencias previas,
pensamos que utilizar competiciones formales
(RoboCup, FIRST Lego League, etc.) es más sencillo
dado que las reglas, materiales, etc. ya existen. Sin
embargo, partiendo de nuestra experiencia, creemos
que en educación formal es mejor crear nuevas
competiciones (como la de los robots y los ratones)
porque los estudiantes tienen que definir estrategias
partiendo de cero.
Finalmente, hay que destacar que la robótica es una
ciencia con un ámbito muy amplio. Existen muchas áreas
TABLA II
RESUMEN DEL RENDIMIENTO DE LOS ESTUDIANTES
Práctica Total Superada Robótica No
Robótica
Benchmark 67 53 18 11
ALU
IEEE754 67 48 18 3
Robot vs
Ratón 67 53 53 0
Figura4. Laberinto completo para las competiciones
208 VAEP-RITA Vol. 1, Núm. 4, Dic. 2013
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
interesantes dentro de la robótica móvil: localización,
navegación, mapeado,…. También se puede emplear
asociada con otras disciplinas, desde la medicina
(utilización de robots quirúrgicos, prótesis robóticas) a la
psicología (interacción entre humanos y robots), pasando
por las matemáticas (localización utilizando algoritmos
probabilísticos, visión por computador utilizando
diferencias de Gaussianas, …) servicios sociales (cuidado
de discapacitados y ancianos) o agricultura (recolección
autónoma), entre otras.
Por todas estas razones, es posible e interesante aplicar
esta rama del conocimiento no sólo a las disciplinas
tecnológicas sino a muchas otras disciplinas impartidas en
la universidad.
Al expandir el uso de la robótica a otras ramas, es
necesario considerar el ámbito de las mismas y el
conocimiento de los estudiantes a los que va dirigida para
proporcionar herramientas apropiadas para su uso y
comprensión: las disciplinas no técnicas podrían requerir
herramientas de computación adicionales que permitan
manejar los robots sin tener que programarlos utilizando
lenguajes de alto nivel.
Aquellos docentes que estén interesados en aplicar la
robótica en sus asignaturas disponen de cursos de
introducción impartidos por el grupo de robótica que
proporcionan los conocimientos básicos necesarios.
AGRADECIMIENTOS
Los autores quieren agradecer su apoyo a la Cátedra
Telefónica de la Universidad de León por su soporte.
REFERENCES
[1] Cañas, J.M., Cazorla, M.A. Matellán, V. Uso de simuladores en
docencia de robótica móvil. IEEE-RITA.Volumen 4, Número 4 Pag. 268-277, 2009.
[2] FLL. http://firstlegoleague.org. On-line; accedido 7-Febrero-2014
[3] FLL - Spain. http://www.firstlegoleague.es On-line; accedido 7-Febrero-2014
[4] FLL - Universidad de León. http://firstlegoleague.unileon.es On-
line; accedido 7-Febrero-2014. [5] Evadoc. http://calidad.unileon.es/evadocOnl-ine; accedido 7-
Febrero-2014
[6] Eyebot. http://www.joker-robotics.com/eyebot On-line; accedido 7-Febrero-2014.
[7] Eyebot price list. http://inrosoft.com/pricelist.html On-line;
accedido 7-Febrero-2014 [8] Garris, R. Ahlers, R. Driskell, J.E. Games, motivation, and
learning: A research and practice model. Simulation&gaming,
2002.
[9] Goldman, R. Eguchi, A. Sklar, E. Using educational robotics to
engage inner-city students with technology. ICLS '04 Proceedings
of the 6th international conference on Learning sciences , 2004.
[10] González, N. Robot vs Mouse. Diario de León. (On-line; accedido
7-Febrero-2014). http://www.unileon.es/dosier-de-prensa/robotica-
raton-robot-contra-raton-raton [11] Jones, L. Flynn, A. M. Seiger. B. A. Mobile Robots: Inspiration to
Implementation (2nd Edition). A. K. Peters, Wellesley,
Massachusetts (USA), 1998. [12] Khepera. http://www.k-team.com/mobile-robotics-
products/khepera-iii On-line; accedido 7-Febrero-2014
[13] AmigoBot. http://www.mobilerobots.com/researchrobots/amigobot.aspx On-
line; accedido 7-Febrero-2014
[14] Konolige, K. Myers, K.L. Ruspini, E.H. Saffiotti, A. The Saphira architecture: A design for autonomy. Journal of experimental and
theoretical artificial intelligence: JETAI, 9(1):215–235, 1997.
[15] LEGO Mindstorms. http://mindstorms.lego.com On-line; accedido 7-Febrero-2014.
[16] Logo. http://el.media.mit.edu/logo-foundation/logo/index.html On-
line; accedido 7-Febrero-2014. [17] Malone, T. W. Lepper, M. R. Making learning fun: A taxonomy of
intrinsic motivations for learning. Aptitude, learning, and
instruction, 1987. [18] Player, Stage, Gazebo. http://playerstage.sourceforge.net On-line;
accedido 7-Febrero-2014.
[19] Pintrich, P.R. A motivational science perspective on the role of student motivation in learning and teaching contexts. Journal of
educational Psychology, 2003.
[20] Robocup Jr. http://rcj.robocup.org On-line; accessed accedido 7-Febrero-2014.
[21] Roomba.
http://store.irobot.com/shop/index.jsp?categoryId=3311368 Online; accessed 14-June-2013
[22] Ruiz-del-Solar, J. Avilés R. Robotics courses for children as a
motivation tool: the Chilean experience. IEEE Transactions on Education, 2004.
[23] Scratch. http://scratch.mit.edu Online; accedido 7-February-2014
[24] Skybot. http://www.iearobotics.com/wiki/index.php?title=Skybot Online; accessed 14-June-2013
[25] Sklar, E. Eguchi, A. Johnson, J. RoboCupJunior: learning with educational robotics. RoboCup 2002: Robot Soccer World Cup VI,
2003.
[26] The Finch. http://www.finchrobot.com On-line; accedido 7-Febrero-2014.
[27] Tweney, D. Scratch Lowers Resistance to Programming. Wired.
March 2009. [28] US-ARSim. http://usarsim.sourceforge.net On-line; accedido 7-
Febrero-2014.
[29] Webots by Cyberbotics. http://www.cyberbotics.com On-line; accedido 7-February-2014
[30] Turtlebot. http://www.willowgarage.com/turtlebot On-line;
accedido 7-February-2014 [31] John L. Hennessy and David A. Patterson. Computer Architecture,
Fifth Edition: A Quantitative Approach. Morgan Kaufmann, 2011.
[32] Jon Schwartz, Jonah Stagner, and Walt Morrison. Kid's programming language(KPL).In ACM SIGGRAPH 2006
Educators program. ACM, New York, NY, USA, 2006
GARCÍA SIERRA et al.: USO DE ROBOTS Y ANIMALES COMO HERRAMIENTAS MOTIVADORAS EN LA ... 209
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
Juan Felipe García Sierra nació en León
(España) en 1983. Recibió su título
de Ingeniero en informática por la Universidad
de León (España), en 2005 y obtuvo de
Doctor en Informática en la misma universidad
en 2011. Ha trabajado como investigador en
matemáticas, robótica y visión por
computador durante cinco años en varias universidades, incluyendo la Universidad de León, la Universidad Rey Juan Carlos, y la National
University of Ireland, Galway, (Irlanda). Actualmente es profesor
asociado en el Departamento de Ingenierías Mecánica, Informática y Aeroespacial de la Universidad de León, y trabaja como desarrollador
software en Indra, donde participa en proyectos de gestión de tráfico
aéreo desde 2010.
Francisco Javier Rodríguez Lera (SM‟10)
nació en León (España) en 1981. Obtuvo su Diploma de Estudios Avanzados en Sistemas
Inteligentes en la Universidad de León
(España) en 2009. Es estudiante de doctorado en la misma universidad desde 2009 y trabaja
en materias relacionadas con la interacción
humano-robot y la realidad aumentada. Ha sido profesor asociado en el departamento de
Ingenierías Mecánica, Informática y Aeroespacial durante los últimos
cuatro años y actualmente está trabajando en una plataforma robótica de bajo coste para la asistencia ancianos denominada MYRABot con la que
ha participado en la competición RoCKInChallenge en su versión
@home. Mr Lera es miembro como estudiante de IEEE Robotics & Automation Society.
Camino Fernández Llamas recibió el título de
Licenciado en Informática por la Universidad
Politécnica de Madrid en 1994, el de máster en
Ingeniería del Conocimiento en 1995 y el de
doctor en 2000 por la misma universidad. Se
incorporó como profesora a la Universidad Carlos III de Madrid en 1995 y en 2008 se
trasladó a la Universidad de León donde es
profesora titular de universidad donde forma parte del grupo de investigación en robótica.
Sus intereses en investigación se centran en los simuladores hápticos
para el aprendizaje y los serious games. Fue la organizadora del concurso First Lego League de la Universidad de León en 2013 donde
participaron 16 equipos de niños entre 10 y 16 años.
Vicente Matellán Olivera (M‟07) Obtuvo los
títulos de Licenciado Doctor en Informática por la Universidad Politécnica de Madrid (España)
en 1993 y 1998 respectivamente. Fue profesor
ayudante en la universidad Carlos III de Madrid entre 1993 y 1999 y profesor titular en la
Universidad Rey Juan Carlos entre 1999 y 2008.
Desde entonces es profesor titular de universidad en la Universidad de León, donde dirige la Cátedra
Telefónica desde 2012.
Es miembro del IEEE Technical Committee on Software Engineering for Robotics, editor del Journal of Physical Agents (http://jopha.net) y
preside la Asociación Nacional de Investigación en Agentes Físicos. Ha
publicado más de 150 artículos en revistas, libros y congresos en el campo de la robótica de servicios.
210 VAEP-RITA Vol. 1, Núm. 4, Dic. 2013
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
Title— Contribution of Virtual Classrooms to the Personal
Learning Environments (PLE) of the students of the Career of
Informatics Applied to Education of National University of
Chimborazo.
Abstract—the present study investigates the use of virtual
classrooms as tools constitute student’s Personal Learning
Environments (PLE) in the career of Informatics Applied to
Education in the National University of Chimborazo -
Ecuador, as main results we mention that there is an increasing
of courses that rely on virtual classrooms, but learning occurs
both in and out of these learning environments. This study is
the starting point for future research on the relevance, impact,
effectiveness of incorporating the LMS in the university
teaching as well as on relations and possibilities of integration
between LMS, PLEs and mobile learning.
Index Terms— Electronic learning, Information Technology
and Communication (ICT), Personal Learning Environments
(PLE); Learning Management Systems (LMS); Higher
Education; Virtual Classrooms.
I. INTRODUCCIÓN
A incorporación de las tecnologías de la información y
comunicación en el campo educativo, ha permitido
rediseñar los escenarios donde se producen los procesos
de enseñanza-aprendizaje, lo que ha provocado que sea cada
vez más corta la barrera entre educación presencial, semi-
presencial y virtual e igualmente entre educación formal, no
formal e informal [1]; donde los roles de docente y
estudiante deben cambiar como afirma Salinas [2].
Produciéndose de este modo una verdadera revolución en la
manera de concebir las experiencias de aprendizaje si se
compara con la forma como se hacía antes [3].
Es importante indicar que a nivel mundial existe una
masiva incorporación de las plataformas LMS (Learning
Management Systems) en la práctica docente. Por ejemplo,
Patricio Ricardo Humanante Ramos, Facultad de Ciencias de la
Educación Humanas y Tecnologías, Universidad Nacional de Chimborazo, Campus La Dolorosa. Avda. Eloy Alfaro y 10 de Agosto.Teléfono: (593) 3
3730910 Ext. 3001.Grupo de Investigación GRIAL(e-mail:
[email protected]) Francisco José García Peñalvo, Instituto de Ciencias de la Educación
(IUCE), Grupo de Investigación GRIAL, Universidad de Salamanca. Paseo
de Canalejas 169, 37008, Salamanca, España (email [email protected]). Miguel Ángel Conde González, Departamento de Ingenierías Mecánica,
Informática y Aeroespacial, Universidad de León. Escuela de Ingenierías,
Campus de Vegazana S/N, 24071, León, España (email [email protected]).
en España el 91,78 % de las universidades utiliza
plataformas de campus virtual tanto propietarias como
basadas en software libre, donde la participación de la
herramienta open source Moodle corresponde al 53,30 %
[4]. A la fecha de elaboración de la presente investigación,
en el website de Moodle se registran 81.294 sitios y
69.484.250 usuarios distribuidos en 233 países [5], con lo
cual se evidencia el creciente y masivo uso de esta
herramienta a nivel mundial, por otro lado hay estudios que
recomiendan su uso por diversos factores como la
flexibilidad, el soporte y el mejoramiento continuo[6],
además permite trabajar con varios modelos de enseñanza[7]
siendo muy importante el trabajo del profesor como
mediador de los procesos de aprendizaje.
Asimismo se sabe que el aprendizaje tiene una dimensión
individual, ya que cada ser humano es único, con sus
propios intereses, limitaciones y capacidades, de forma que
requiere que el proceso de asimilación de conocimientos sea
personalizado, por tanto, surge la necesidad de propiciar los
llamados Entornos Personales de Aprendizaje (PLE -
Personal Learning Environment), que son “…el conjunto de
herramientas, fuentes de información, conexiones y
actividades que cada persona utiliza de forma asidua para
aprender” [1], en este sentido se ve las oportunidades de
potenciar estos espacios de aprendizaje a través del
aprovechamiento de las TIC.
Por otro lado, en la Universidad Nacional de Chimborazo,
institución educativa pública ubicada en Riobamba, ciudad
localizada a 165 km del sur de Quito, la capital del Ecuador;
desde hace unos 5 años se ha iniciado el proceso de
incorporación de las aulas virtuales a la docencia presencial,
logrando establecer ambientes del tipo B-learning, donde se
combina las clases en el aula y el trabajo autónomo de los
estudiantes mediados por las tecnologías.
Estos nuevos espacios educativos recreados sobre los
Sistemas de Gestión de Aprendizaje, o LMS, en su mayoría
se limitan a la simple exposición de contenidos, además
carecen muchos de ellos de métodos claramente definidos,
ni estrategias específicas para este nuevo tipo de
formación[3], lo que lleva a desaprovechar las
potencialidades que en materia de interacción ofrecen las
Tecnologías de la Información y la Comunicación (TIC),
como la personalización.
Además, se es consciente que la educación formal podría
finalizar con la titulación, sin embargo el aprendizaje del ser
humano continúa durante toda su vida[8], [9], donde el reto
educativo se orienta en la formación de profesionales, que
estén preparados para tareas en muchos casos todavía
Entornos Personales de Aprendizaje y Aulas
Virtuales: una Experiencia con Estudiantes
Universitarios
Patricio Ricardo Humanante Ramos, Francisco J. García-Peñalvo, Miguel Ángel Conde González
L
VAEP-RITA Vol. 1, Núm. 4, Dic. 2013 211
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
inexistentes [10]. En el caso de la informática esta situación
es algo muy evidente, ya que el nivel de actualización de
paquetes de software es constante y, aunque los estudiantes
desarrollan el dominio de ciertas herramientas, estas
posiblemente ya estén en desuso cuando comiencen a
desempeñarse en su práctica profesional y tengan que
trabajar con nuevas aplicaciones informáticas, lenguajes de
programación, herramientas de diseño, etc., tal vez muy
distintas a las estudiadas en la carrera.
De acuerdo a lo anterior, se entiende importante hacer un
diagnóstico del uso de las aulas virtuales como herramientas
constitutivas de los Entornos personales de Aprendizaje de
los estudiantes de la carrera de Informática Aplicada a la
Educación en la Universidad Nacional de Chimborazo
Ecuador, que cursan sus estudios en la modalidad anual.
La fundamentación teórica de la presente investigación se
incluye en la Sección 2. La metodología aplicada aparece en
la Sección 3. En la Sección 4 se presentan los resultados y
finalmente las conclusiones son expuestas en la Sección 5.
II. PERSONAL LEARNING ENVIRONMENTS
La existencia de un entorno personal para aprender es
algo innato en el ser humano, que está en un proceso de
continuo conocimiento y que se mantiene a lo largo de toda
su vida, el ser humano siempre ha tenido un entorno desde
donde aprende [10]. Desde un punto de vista histórico,
primero fue en el grupo, en la tribu o comunidad.
Posteriormente, el aprendizaje se da junto a los maestros,
aparece así la relación maestro-aprendiz, entorno educativo
presente en muchas culturas y por muchos años.
La invención de la imprenta, y con esto la difusión de los
libros, marca un momento importante de cambio en el
aprendizaje, que posibilita que los libros se conviertan en
fuentes primarias de información, y los entornos construidos
a partir de estos elementos eran valorados como fuentes
incuestionables de conocimiento.
Posteriormente, se institucionalizan estos espacios de
aprendizaje, dando lugar a lo que llamamos escuela y
prácticamente la responsabilidad directa del aprendizaje se
le atribuye a ella [10], con lo cual sí bien es cierto el
estudiante no deja de aprender desde otras fuentes como el
entorno social, familiar, el medio que le rodea, etc., pero
estos medios no son reconocidos como tales.
Como se puede ver, los entornos de aprendizaje personal
siempre han estado presentes en la historia del ser humano;
sin embargo con la masiva adopción e incorporación de las
TIC en la mayoría de actividades cotidianas, se está cada
vez más inundados de información en todo momento, se
evidencia que el aprendizaje ya no está centralizado, sino
más bien es influenciado por varios tipos de elementos,
recursos, sujetos, contextos, etc.
El amplio uso de las herramientas de la Web 2.0 en el
sector educativo y particularmente en el universitario es una
realidad, apoyado también por la disponibilidad de
interconectividad y acceso a Internet que ofrecen hoy en día
los dispositivos electrónicos como laptops, netbook,
tabletas, teléfonos inteligentes, cámaras de fotos y otros
aparatos electrónicos que día a día sorprenden al incorporar
en su funcionalidades capacidades de almacenamiento de
información y acceso a las redes.
En esta dinámica los estudiantes de hoy acceden a
contenidos, se les denomina así ya que no todo contenido es
información [11], a través de diversas formas: buscadores,
redes sociales, SMS, aulas virtuales, etc. fuentes alternativas
de información y que además están al alcance de cualquiera,
inclusive rompiendo barreras culturales y de idioma, donde
cuestiones como las traducciones de páginas, documentos y
recursos son automáticas y transparentes para el usuario. Sin
embargo, estos contenidos deberían ser discutidos,
validados, curados y/o publicados [12].
Entonces estos nuevos sistemas conformados por la suma
de todos los recursos, actividades y elementos presentes en
la educación de hoy, constituirían los llamados entornos
personales de aprendizaje, que de acuerdo al investigador
Salinas [2], se define como: “Un entorno de aprendizaje centrado en el usuario y
personalizable por él, que aúna todas aquellas
herramientas, servicios, opiniones, personas, recursos y
actividades que le sean útiles en el proceso de
aprendizaje. Dicho entorno debe tener en cuenta las
diferentes modalidades de formación, facilitar el
aprendizaje a lo largo de vida del estudiante y permitir
la incorporación de las nuevas tecnologías. Desde un
punto de vista tecnológico puede definirse como un
framework de integración que incorpora tecnologías 2.0,
da soporte a la interacción con otros contextos
formativos, facilita la integración y compatibilidad con
sistemas existentes (como repositorios y LMS) y aporta
sistemas para el seguimiento de los estudiantes en forma
de guía de evidencia de la actividad realizada”
En esta definición el PLE se concibe inclusive fuera de
los ámbitos que las TIC ofrecen, y se extiende al entorno
social que tiene influencia en el aprender del individuo. En
cuanto a las características técnicas se resalta el aporte de las
herramientas de la Web 2.0 a los procesos educativos y la
integración con otras tecnologías y plataformas que manejan
las instituciones educativas y que a su vez permiten
documentar las evidencias de lo aprendido.
Sin embargo, la definición con la que se coincide
totalmente, citada en la introducción de este trabajo, es la
propuesta por Adell & Castañeda quienes conciben al PLE
como: “el conjunto de herramientas, fuentes de información,
conexiones y actividades que cada persona utiliza de forma
asidua para aprender” [1]. Se destaca en esta propuesta la
simplicidad para entender la mencionada temática y que a su
vez sirve como punto de partida para precisar las partes que
tendría un PLE básico propuesto en este trabajo.
A. Estructura Básica de un PLE
De acuerdo al criterio de los investigadores Jordi Adell y
Linda Castañeda, en un PLE básico se incluirían tres tipos
de herramientas y estrategias: de lectura, de reflexión y de
relación con otros[10]; considerando las estrategias, en
términos de mecanismos y actividades. Cuando se hace
referencia a las herramientas que intervienen en cada parte
del PLE, se encuentran aquellas que están incluidas en la
llamada Web 2.0, como también muchas alternativas de
software libre que actualmente están disponibles, ya sean
para instalarse en dispositivos y ordenadores, o desde la
nube (cloud computing).
Además, se menciona que “No existen ni herramientas, ni
estrategias, ni mecanismos que puedan ser considerados
212 VAEP-RITA Vol. 1, Núm. 4, Dic. 2013
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
como exclusivos de una única parte del PLE” [10], con lo
cual una misma herramienta o recurso, podría aprovecharse
tanto para acceder a la información como también para
transformar dicha información en conocimientos, a través de
la reflexión y a su vez ser espacios para compartir y
socializar contenidos, como ocurre por ejemplo con el uso
que se le puede dar a los documentos de Google Drive, con
la exposición y participación activa en una videoconferencia
o a través de los blogs, por citar algunos recursos
específicos.
Importante también incluir el aporte de Conde, que desde
una perspectiva más técnica y orientada a la
interoperabilidad e integración de plataformas, se menciona
que “los PLE deben estar estructurados en servicios o en
componentes modulares portables que puedan distribuirse al
antojo del usuario, lo que posibilita, además, incorporar
nuevos elementos”[13], esta visión amplia permite pensar en
una accesibilidad y disponibilidad de recursos, herramientas,
actividades y redes personales desde diversos dispositivos
inclusive fuera del entorno institucional [14], propiciando
así un aprendizaje centrado en el usuario, que es lo que se
persigue con los PLE, a diferencia de un aprendizaje
centrado en la institución en el caso de los LMS [15].
B. Infraestructura de un PLE
Una vez identificadas las partes de un PLE, y
especificadas las herramientas, los mecanismos y las
actividades que nos permiten acceder, procesar y compartir
aprendizajes, se deben determinar los elementos que son
parte de la infraestructura sobre la cual se desarrollan estos
entornos.
De acuerdo con Casquero[16], la idea de contar con un
PLE ideal sería que los estudiantes dispongan de una sola
vía de acceso a todos los servicios que utilizan y, una vez
dentro, estos escenarios tecnológicos también sean únicos,
de forma que se garantice de esta manera la personalización
del aprendizaje. Esto es ahora posible gracias a algunas
tecnologías como la sindicación a contenidos vía RSS
(Really Simple Syndication), que son formatos para
compartir contenidos en la Web. Esto permite que cada
estudiante seleccione solamente los tópicos de mayor interés
de los cuales recibiría actualizaciones continuas. Del mismo
modo los PLEs de cada estudiante podrían ser nuevos
canales de información, disponibles para suscripción.
Los contenidos presentes dentro de estos entornos, de
acuerdo al criterio establecido por Casquero[16], podrían
estructurarse a través de tres tipos de gestores de contenidos:
blogs, wikis y LMS, ya que cada uno de ellos permiten
publicar, construir y actualizar información de modo que
cualquier cambio producido se reflejaría automáticamente
en el PLE a través de notificaciones. Además, los contenidos
mostrados podrían complementarse con otros recursos
digitales específicos como enlaces páginas o archivos,
imágenes, fotografías, vídeos, audios, documentos y
presentaciones; los mismos que estarían alojados en sitios
específicos para cada recurso, como por ejemplo: Delicious
para marcadores, Flickr para imágenes, YouTube para
vídeos, Slideshare para presentaciones y Scribd para
documentos [10], como también los documentos online que
ofrece Google Drive.
Cuando se hace referencia a las relaciones tan necesarias
para que la información fluya en estos entornos de manera
adecuada, la infraestructura de red necesaria para dar
soporte a un PLE debe incluir nodos, conexiones entre
nodos y recursos digitales, los mismos que nacen y fluyen
desde y hacia los nodos (learn-streaming), donde los nodos
estarían representados por la identidad digital de cada
estudiante y las conexiones entre ellos se establecerían tanto
por intereses escolares como por particulares [17].
C. Integración con los LMS
Estos entornos personales de aprendizaje deberían
desarrollarse y potenciarse para cualquier nivel educativo.
Sin embargo, se van a contextualizar específicamente en la
educación universitaria motivo de este estudio, desde donde
se observa que los estudiantes cuentan con un recurso
tecnológico específico que hoy está presente en la mayoría
de instituciones de educación superior, como lo son las aulas
virtuales gestionadas a través de los LMS [4].
La literatura científica evidencia algunos intentos de
acercamientos e integración de los LMS con los PLE [18,
19, 20], gracias a algunos posibles escenarios [21].
1) LMS y la existencia PLE en paralelo: esto
corresponde a la forma como actualmente se está
llevando el aprendizaje. Por un lado los estudiantes
acceden a las aulas virtuales de cada asignatura, desde
donde se gestiona parte de sus actividades de
aprendizaje, como acceso a recursos, tareas,
participaciones y evaluaciones, sin embargo es cierto
que también emplean otros recursos fuera de estos
entornos formales, para de igual forma acceder a
recursos, procesar información y comunicarse con sus
similares, lo que para el autor podría considerase como
su PLE. Se entiende que si se desea llegar a tener un
verdadero PLE no podría haber independencia entre
LMS y PLE, ya que las aulas virtuales gestionadas por
los LMS son una parte fundamental del PLE de cada
estudiante universitario[13].
2) Apertura de los LMS a través de la inclusión de
los servicios Web y las iniciativas de
interoperabilidad: en este segundo escenario, los LMS
deberían dar la posibilidad para poder acceder desde
otras herramientas o gestores del PLE, sin embargo la
falta de apertura en el diseño de las plataforma
institucionales para poder ser accedidas por terceros y
la poca interacción que existiría por la uni-
direccionalidad del flujo de información dificultaría
este tipo de integración
3) Integración de herramientas externas en el LMS:
en este modelo de integración la selección de
herramientas que son parte de los PLE, vendría desde
los gestores de los LMS, quienes son los encargados
del diseño y administración de los mismos, lo que
TABLA I
NÚMERO DE ESTUDIANTES MATRICULADOS QUE ASISTEN CON
REGULARIDAD EN LA MODALIDAD ANUAL CICLO ACADÉMICO 2012-2013.
FUENTE UNACH.
Año o nivel Número de estudiantes
Tercer Año 17 Cuarto Año 24
Total 41
HUMANANTE, PEÑALVO Y CONDE: ENTORNOS PERSONALES DE APRENDIZAJE Y AULAS VIRTUALES... 213
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
limitaría de esta manera la libertad del estudiante por
escoger tal o cual recurso, ejemplos de este tipo podría
ser la inclusión de redes sociales como Twitter en las
aulas virtuales. Se considera importante recalcar, que el
éxito en la integración de los LMS, en los entornos
personales de aprendizaje tendrá mucho que ver con la
flexibilidad, transparencia y facilidad que se le dé tanto
al profesor como al estudiante, y de esta manera
aprovechar las potencialidades que ofrecen las
tecnologías, garantizando la aplicación de estos nuevos
modelos educativos centrados en el estudiante[13],
[15].
III. METODOLOGÍA
La presente investigación es de tipo cuantitativa y
corresponde a un estudio no experimental debido a que “se
realizan sin la manipulación deliberada de variables y en los
que solo se observan los fenómenos en su ambiente natural
para después analizarlos”[22], además es transversal o
transaccional porque el proceso de recolección de datos es
en un único momento y de tipo descriptivo, debido a que se
va a indagar sobre el uso de las aulas virtuales como
herramientas constitutivas de los PLE en un grupo de
estudiantes universitarios.
La población motivo del presente trabajo de investigación
está formada por los estudiantes de la carrera de Informática
Aplicada a la Educación de la Universidad Nacional de
Chimborazo Ecuador (UNACH) que cursan sus estudios en
la modalidad anual. Cabe mencionar que la carrera en
mención está en un proceso de cambio de modalidad de
anual a semestral, aunque en el momento de desarrollar este
estudio están vigentes en la modalidad anual el tercero y
cuarto año, cuyo período académico es de septiembre a
julio. Se han escogido los cursos por años ya que a la fecha
de aplicación del instrumento, llevan trabajando con aulas
virtuales un tiempo considerable (desde septiembre de 2012)
lo que permite que sus opiniones sean más objetivas a
diferencia de los cursos en la modalidad semestral que han
empezado con el nuevo ciclo académico semestral
recientemente.
Los estudiantes matriculados que asisten con regularidad,
en el ciclo académico septiembre 2012 - julio 2013, se
recogen en la Tabla I.
Además, al ser un grupo pequeño, se trabajará con el total
de la población.
IV. RESULTADOS
A. Sobre las Herramientas de Acceso a Información
En este apartado interesa conocer la valoración que tienen
los estudiantes de las aulas virtuales como medios de acceso
a la información y si este acceso también se da desde otros
recursos.
Es así que, apenas un 14,6% está en desacuerdo en que
son suficientes los contenidos (documentos, presentaciones)
expuestos en las aulas virtuales, mientras que gran parte sí
está de acuerdo con que estos recursos son suficientes
(46,3%). Si se analizan los extremos, ningún estudiante
contesto que estaba totalmente en desacuerdo mientras que
un 9,8% si estuvo totalmente de acuerdo. Es importante
mencionar también que el 29,3% es indiferente a esta
pregunta. Podemos observar esto en la Tabla II
Ya en el trabajo mismo con las aulas virtuales, interesa
conocer si en realidad se accede o no a la totalidad de los
recursos expuestos, más de la mitad de los encuestados
(51,2%) está de acuerdo que acceden a la totalidad de
contenidos expuestos, mientras que la tercera parte de los
encuestados es indiferente a esta pregunta y un porcentaje
acumulado del 12,2% consideran que no acceden a todo lo
que se publica en las aulas virtuales.
Por otro lado, es evidente que existen otros medios
electrónicos online que los estudiantes usan en sus procesos
de aprendizaje, donde el 87,8 % acumulado contesta que
está de acuerdo y totalmente de acuerdo en que utiliza otras
herramientas online para revisar información relacionada
con las asignaturas que no se encuentran dentro de las aulas
virtuales (Youtube, Wikipedia, foros, Slideshare, etc.).
En la Figura 1 se aprecia un resumen de las opiniones de
los encuestados en esta categoría de preguntas.
B. Sobre las Herramientas de Edición y Publicación de
Información
Actualmente existen muchas herramientas de la Web 2.0
que permiten tanto la edición como la publicación de
documentos, presentaciones y recursos multimedia; estos
recursos están disponibles desde la nube (cloud computing),
donde solamente se requiere un registro a través de una
cuenta de correo electrónico para poder usar y publicar. Esta
sección de preguntas indaga sobre la adopción de estas
herramientas en el grupo de estudiantes encuestados.
Se aprecia que más del 50% de los encuestados (56,1 %
acumulado) usa solamente programas instalados en el
computador para la edición de sus contenidos, pero se
aprecia también que uno de cada 3 encuestados (31,7%
acumulado) está en desacuerdo o totalmente en desacuerdo
con esta afirmación, lo que hace suponer que este grupo de
estudiantes está utilizando herramientas online para la
edición de documentos, presentaciones, vídeos, imágenes,
etc.
En lo referente a la pregunta sobre lo que los estudiantes
utilizan para la publicación de los contenidos elaborados, un
24,4% está en desacuerdo y un 7,3% está totalmente en
desacuerdo que el aula virtual sea el único medio donde
publican sus contenidos, sin embargo más de la mitad de los
encuestados, que corresponde a un 51,2% acumulado,
afirma que solamente socializan sus trabajos a través de las
tareas, wikis, glosarios, foros de las aulas virtuales.
TABLA II
SON SUFICIENTES LOS CONTENIDOS (DOCUMENTOS, PRESENTACIONES)
EXPUESTOS EN LAS AULAS VIRTUALES
Frecuencia % % válido % acumulado
Totalmente en
desacuerdo 0 0 0 0
Desacuerdo 6 14,6 14,6 14,6
Indiferente 12 29,3 29,3 43,9
De acuerdo 19 46,3 46,3 90,2
Totalmente de
acuerdo 4 9,8 9,8 100,0
Total 41 100,0 100,0
214 VAEP-RITA Vol. 1, Núm. 4, Dic. 2013
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
Pero aquellos estudiantes que no publican los contenidos
solamente a través de las aulas virtuales, socializan la
información a través de otros recursos online como podemos
ver que tres de cada cuatro estudiantes (75,6 % acumulado)
manifiestan estar de acuerdo y totalmente de acuerdo en que
utilizan herramientas online para la edición y publicación de
contenidos (documentos, presentaciones, vídeos e
imágenes), que no se encuentran dentro de las aulas
virtuales (Google Docs, Blogger, WordPress, YouTube,
Flickr, SlideShare, Scribd, etc.), y solo apenas un 9,8% de
estudiantes opina lo contrario. En la Figura 2 se aprecia un
resumen de las opiniones de los encuestados en esta
categoría de preguntas.
C. Sobre las Herramientas de Relación y Comunicación
Este grupo de preguntas investiga sobre los recursos que
los estudiantes usan para su comunicación, donde más del
50% de los estudiantes (51,2% acumulado) usa solamente
por razones académicas los canales como chat, mensajería y
los foros de las aulas virtuales, y solamente el 9,8 % de los
encuestados está totalmente en desacuerdo con esta
aseveración.
Inclusive cerca de la mitad de los encuestado (48,8%
acumulado) considera que la obligatoriedad de la
participación en foros de las aulas virtuales es la razón del
uso, y en menor porcentaje 31,7% participa no por
obligación en estos canales de comunicación, lo que hace
suponer que encuentra funcionalidad importante a este tipo
de recursos.
Para el 82,9% (acumulado) de los estudiantes
encuestados, es muy importante el uso de las redes sociales,
chat, foros y otro tipos de recursos online como medios de
comunicación con fines académicos, ya que el 51,2% de los
encuestados está de acuerdo con esa afirmación y un 31,7%
está totalmente de acuerdo; mientras que son solo 2 los
encuestados los que no comparten esta aseveración, lo que
permite suponer que este pequeño grupo de estudiantes no
mezcla sus espacios sociales online con sus actividades
académicas.
En la Figura 3 se observa un resumen de las opiniones de
los encuestados en esta categoría de preguntas.
V. CONCLUSIONES
Del presente estudio se puede extraer algunas
conclusiones importantes que, si bien es cierto que por la
naturaleza de la investigación no se pueden llegar a
generalizaciones, abren líneas de investigación en el campo
de las TIC aplicadas a los procesos de enseñanza
aprendizaje, concretamente para la carrera de Informática
Aplicada a la Educación en la Facultad de Ciencias de la
Educación Humanas y Tecnologías de la Universidad
Nacional de Chimborazo.
En cuanto al uso de las aulas virtuales, aunque el 39% de
los estudiantes consultados en este estudio, aprovechan estos
espacios virtuales para actividades fuera del ámbito
académico, la mayoría que corresponde al 61%, indica que
el uso que se les da a las mismas es estrictamente
académico, lo que a futuro invita a plantear interrogantes
sobre la efectividad de esta práctica, la incidencia en el
Figura 1.- Herramientas de acceso a la información (n=41)
Figura 2.- Herramientas de edición y publicación de la información(n=41)
HUMANANTE, PEÑALVO Y CONDE: ENTORNOS PERSONALES DE APRENDIZAJE Y AULAS VIRTUALES... 215
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
rendimiento académico, la calidad del aprendizaje y la
motivación en los procesos educativos.
Los recursos expuestos en las aulas virtuales motivo de
esta investigación, son considerados como suficientes por
más del 50% de los estudiantes encuestados, a pesar de que
no acceden a la totalidad de los recursos expuestos y de que
también se apoyan en otras herramientas online (Youtube,
Wikipedia, foros, Slideshare, etc.) para revisar información
relacionada con las asignaturas.
Los programas de escritorio siguen siendo los que la
mayoría de estudiantes usan para realizar sus tareas, las
mismas que son socializadas a través de las aulas virtuales,
pero también se evidencia el uso de herramientas online para
la edición y publicación de contenidos.
El uso de las herramientas de comunicación que ofrecen
las aulas virtuales en su mayoría son usadas con fines
estrictamente académicos, e inclusive; la participación en
foros y chats para todos no es natural, sino que responde a
una motivación extrínseca vista como obligación, esto
podría ser, debido a que un gran número de encuestados
(82,9%), usan otros recursos online como las redes sociales
para actividades académicas.
En lo referente al uso de las aulas virtuales como
herramientas constitutivas de los Entornos Personales de
Aprendizaje de los estudiantes encuestados, se puede
afirmar que estos escenarios educativos virtuales sí permiten
acceder, editar y publicar gran parte de la información
académica, como también brindan funcionalidades de
comunicación y relación, pero asimismo se usan otras
herramientas externas, por lo que se concluye que las aulas
virtuales constituyen una parte importante pero no suficiente
para estructurar los PLE.
Por otro lado, aunque la mayoría de los encuestados
consideran que las aulas virtuales solo gestionan una parte
de sus procesos de aprendizaje, ya que otra parte importante
se da fuera de ellas; el criterio en el grupo es dividido
cuando se considera que si este esfuerzo debería ser
tomando en cuenta para su evaluación, pero en lo que sí
coinciden la gran mayoría de los estudiantes participantes de
este estudio (95,1%), es en la posibilidad de integrar las
herramientas Web 2.0 en las aulas virtuales, lo que desde ya
es un reto para futuros proyectos de innovación e
integración de las TIC en los procesos de aprendizaje.
Se debe indicar también que una gran parte de los
estudiantes encuestados (73,2%) ve muy interesante el
acceso desde dispositivos móviles a las aulas virtuales y a
las herramientas web 2.0 como ayuda a los procesos de
aprendizaje, lo que hace suponer que en un futuro cercano
aumentará el número de estudiantes que posean o tengan
acceso a un dispositivo de este tipo, cuyo porcentaje en el
presente estudio es de apenas el 22% de los estudiantes
consultados.
Finalmente, se tiene el convencimiento que se deberían
diseñar actividades de aprendizaje que promuevan el uso,
desarrollo y consolidación de los PLE, de manera que se
aprovechen las continuas innovaciones en materia de
tecnologías de la información y comunicación.
AGRADECIMIENTOS
Nos gustaría dar las gracias al Ministerio de Ciencia e
Innovación del Gobierno español por la financiación del
proyecto con el número de identificación TIN2010-21695-
C02-01, y al Consejo Regional de Educación de la Junta de
Castilla y León (España) a través de los proyectos GR47 y
MPLE (ref. SA294A12-2).
Del mismo modo, queremos agradecer a la Secretaría
Nacional de Educación Superior, Ciencia, Tecnología e
Innovación del Gobierno de Ecuador (SENESCYT) y la
Universidad Nacional de Chimborazo (UNACH) por su
financiación para el desarrollo de esta investigación.
Este trabajo de investigación se realiza dentro Programa
de Doctorado PhD. Formación en la Sociedad del
Conocimiento de la Universidad de Salamanca España.
REFERENCIAS
[1] J. Adell and L. Castañeda, “Los Entornos Personales de Aprendizaje (PLEs): una nueva manera de entender el aprendizaje,”
2010.
[2] J. Salinas, “Algunas perspectivas de los entornos personales de aprendizaje,” in TICEMUR 2008, Lorca (MU), 2008.
[3] F. J. García Peñalvo, Advances in E-Learning: Experiences and
Methodologies. London: IGI Global, 2008. [4] M. P. Prendes, “PLATAFORMAS DE CAMPUS VIRTUAL CON
HERRAMIENTAS DE SOFTWARE LIBRE: Análisis comparativo
de la situación actual en las universidades españolas,” Murcia, 2009.
[5] Moodle, “Estadísticas de Moodle,” Moodle, 2014. [Online].
Available: https://moodle.org/stats/.
Figura 3.- Herramientas de comunicación y relación con otros (n=41)
216 VAEP-RITA Vol. 1, Núm. 4, Dic. 2013
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
[6]
Universitat Jaume I,” presented at the Castellón de la Plana: Centre
d’Educació i Noves Tecnologies (CENT) de la Universitat Jaume I,
Castellón, 2004.
[7] P. Baumgartner, “Cómo elegir una herramienta de gestión de contenido en función de un modelo de aprendizaje,” Open
Education Europa, 17-May-2005. [Online]. Available:
http://www.openeducationeuropa.eu/es/article/C%C3%B3mo-elegir-una-herramienta-de-gesti%C3%B3n-de-contenido-en-
funci%C3%B3n-de-un-modelo-de-aprendizaje. [Accessed: 02-Feb-
2014]. [8] J. Field, Lifelong Learning and the New Educational Order.
Trentham Books, 2006.
[9] Leibowicz, Ante el imperativo del aprendizaje permanente, estrategias de formación continua. CINTEFOR, 2000.
[10] L. Castañeda and J. Adell, “La anatomía de los PLEs,” in Entornos
Personales de Aprendizaje: Claves para el ecosistema educativo en red, L. Castañeda & J. Adell., Alcoy: Marfil, 2013, pp. 11–27.
[11] A. Brey, D. Innerarity, and G. Mayos, La sociedad de la ignorancia
y otros ensayos. Barcelona : Infonomia, 2009. [12] A. J. Berlanga, F.J. García Peñalvo, and P.B. Sloep, “Towards
eLearning 2.0 University,” Interactive Learning Environments, vol.
18, no.3, pp. 199-201, 2010. [13] M. A. Conde, “Personalización del aprendizaje: Framework de
servicios para la integración de aplicaciones online en los sistemas
de gestión del aprendizaje,” 03-Oct-2012. [Online]. Available: http://www.tesisenred.net/handle/10803/84752. [Accessed: 23-Jan-
2014].
[14] F. J. García-Peñalvo, M. Á. Conde, and A. D. Pozo, “A Mobile Personal Learning Environment Approach,” in Virtual, Augmented
and Mixed Reality. Systems and Applications, R. Shumaker, Ed.
Springer Berlin Heidelberg, 2013, pp. 132–141. [15] S. Leone, Characterisation of a Personal Learning Environment as
a Lifelong Learning Tool. New York: Springer, 2013.
[16] L. Castañeda and J. Adell, “PLE: Una Perspectiva Tecnológica,” in Entornos Personales de Aprendizaje: claves para el ecosistema
educativo en red, L. Castañeda & J. Adell., Alcoy: Marfil, 2013, pp.
71–84. [17] O. Casquero, J. Portillo, R. Ovelar, M. Benito, and J. Romo, “iPLE
Network: an integrated eLearning 2.0 architecture from a university’s perspective,” Interact. Learn. Environ., vol. 18, no. 3,
pp. 293–308, 2010.
[18] F. J. García-Peñalvo, M. Á. Conde, M. Alier, and M. J. Casany, “Opening learning management systems to personal learning
environments,” J. Univers. Comput. Sci., vol. 17, no. 9, pp. 1222–
1240, 2011. [19] L. Moccozet, “Introducing learning performance in personal
learning environments,” in Proceedings of the 12th IEEE
International Conference on Advanced Learning Technologies, ICALT 2012, 2012, pp. 702–703.
[20] R. Kop and H. Foumier, “Developing a framework for research on
personal learning environments,” ELearning Pap., vol. 35, 2013. [21] S. Wilson, O. Liber, M. Johnson, P. Beauvoir, P. Sharples, and C.
Milligan, “Personal Learning Environments: Challenging the
dominant design of educational systems,” J. E-Learn. Knowl. Soc. - Engl. Version, vol. 3, no. 2, pp. 27–38, Nov. 2009.
[22] R. Hernández, C. Fernández, and P. Baptista, Metodología de la
investigación. México DF: McGrawHill, 2010.
Patricio Ricardo Humanante Ramos realizó sus
estudios universitarios de Ingeniería en Sistemas
en la Escuela Superior Politécnica de Chimborazo,
sus estudios de máster en la Universidad Nacional
de Chimborazo y en la Universidad de Salamanca.
Trabaja como profesor de la Universidad Nacional de Chimborazo, institución en la que labora desde
1999 y actualmente está realizando su tesis en el
programa de Doctorado PhD Formación en la Sociedad del Conocimiento en la Universidad de Salamanca como becario
de la Secretaría Nacional de Educación Superior, Ciencia, Tecnología e
Innovación del Ecuador. Sus principales intereses de investigación se relacionan con el Aprendizaje Electrónico, el Desarrollo de Software
Educativo y la Informática Aplicada a la Educación.
Francisco José García Peñalvo realizó sus
estudios universitarios en informática en la Universidad de Salamanca y en la Universidad de
Valladolid y se doctoró en la Universidad de
Salamanca. El doctor García-Peñalvo es el
director del grupo de investigación GRIAL
(Grupo de investigación en Interacción y
eLearning). Sus principales intereses de investigación se centran en el eLearning,
Computadores y Educación, Sistemas Adaptativos, Ingeniería Web, Web Semántica y Reutilización de Software. Ha dirigido y participado en más de
15 proyectos de innovación e investigación. Fue Vicerrector de Innovación
Tecnológica de la Universidad de Salamanca entre Marzo de 2007 y Diciembre de 2009. Ha publicado más de 100 artículos en revistas y
conferencias internacionales. Ha sido editor invitado en varios números
especiales de revistas internacionales (Online Information Review, Computers in Human Behaviour, Interactive Learning Environments…).
Además, es miembro del comité de programa de varias conferencias
internacionales y revisor de varias revistas internacionales.
Miguel Ángel Conde realizó sus estudios
universitarios en Ingeniería en Informática en la
Universidad de Salamanca y se doctoró en esta
misma universidad en 2012. De 2002 a 2004 estuvo
trabajando en el ámbito de la educación impartiendo diferentes cursos de informática. En
2004 estuvo en el desarrollo software para la
empresa GPM una compañía de desarrollo web y multimedia. En 200 comenzó a trabajar para Clay
Formación Internacional en el departamento de
I+D+i dónde estuvo involucrado en diferentes proyectos de eLearning. De 2007 a 2012 ha sido profesor asociado de la Universidad de Salamanca, en
la que también ha trabajado como investigador del grupo GRIAL. Durante
el año 2013 ha trabajado como profesor asociado de la Universidad de León así como vinculado a proyectos del Servicio de Informática y
Comunicaciones de esta universidad. Actualmente trabaja como profesor
Ayudante Doctor en la Universidad de León. Su tesis e investigación se centra en como fusionar y explotar experiencias de aprendizaje formales,
informales y no-formales. Ha publicado más de 100 artículos relativos al
ámbito del eLearning entre libros, capítulos de libro, revistas y conferencias
tanto nacionales como internacionales.
HUMANANTE, PEÑALVO Y CONDE: ENTORNOS PERSONALES DE APRENDIZAJE Y AULAS VIRTUALES... 217
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
VAEP-RITA (http://webs.uvigo.es/cesei/VAEP-RITA)
Revisores
Addison Salazar Afanador,
Universidad Politécnica de Valencia, España
Alberto Jorge Lebre Cardoso, Universidad de Coimbra, Portugal
Alfredo Ortiz Fernández,
Universidad de Cantabria, España Alfredo Rosado Muñoz,
Universidad de Valencia, España
Amaia Méndez Zorrilla, Universidad de Deusto, España
Ana Arruarte Lasa,
Universidad del País Vasco, España André Luís Alice Raabe,
Universidade do Vale do Itajaí, Brasil
Angel García Beltrán, Universidad Politécnica de Madrid, España
Angel Mora Bonilla,
Universidad de Málaga, España Angélica de Antonio Jiménez,
Universidad Politécnica de Madrid, España
Antonio Barrientos Cruz, Universidad Politécnica de Madrid, España
Antonio Navarro Martín,
Universidad Complutense de Madrid, España Antonio Sarasa Cabezuelo,
Universidad Complutense de Madrid, España
Basil M. Al-Hadithi, Universidad Alfonso X El Sabio, España
Basilio Pueo Ortega,
Universidad de Alicante, España Begoña García Zapirain,
Universidad de Deusto, España
Carmen Fernández Chamizo, Universidad Complutense de Madrid, España
Cecilio Angulo Bahón,
Universidad Politécnica de Catalunya, España César Alberto Collazos Ordóñez,
Universidad del Cauca, Colombia Crescencio Bravo Santos,
Universidad de Castilla-La Mancha, España
Daniel Montesinos i Miracle, Universidad Politécnica de Catalunya, España
Daniel Mozos Muñoz,
Universidad Complutense de Madrid, España David Benito Pertusa,
Universidad Pública de Navarra, España
Elio San Cristobal Ruiz, UNED, España
Faraón Llorens Largo,
Universidad de Alicante, España Francisco Javier Faulin Fajardo,
Universidad Pública de Navarra, España
Gabriel Díaz Orueta, UNED, España
Gerardo Aranguren Aramendía,
Universidad del País Vasco, España
Gloria Zaballa Pérez,
Universidad de Deusto, España
Gracia Ester Martín Garzón, Universidad de Almeria, España
Ismar Frango Silveira,
Universidad de Cruzeiro do Sul, Brasil Javier Areitio Bertolin,
Universidad de Deusto, España
Javier González Castaño, Universidad de Vigo, España
Joaquín Roca Dorda,
Universidad Politécnica de Cartagena, España Jorge Alberto Fonseca e Trindade,
Escola Superior de Tecnología y Gestión,
Portugal Jorge Munilla Fajardo,
Universidad de Málaga, España
José Alexandre Carvalho Gonçalves, Instituto Politécnico de Bragança, Portugal
Jose Ángel Irastorza Teja,
Universidad de Cantabria, España José Angel Martí Arias,
Universidad de la Habana, Cuba
José Ignacio García Quintanilla, Universidad del País Vasco, España
José Javier López Monfort,
Universidad Politécnica de Valencia, España José Luis Guzmán Sánchez,
Universidad de Almeria, España
José Luis Sánchez Romero, Universidad de Alicante, España
José Ramón Fernández Bernárdez,
Universidad de Vigo, España Juan Carlos Soto Merino,
Universidad del Pais Vasco, España
Juan I. Asensio Pérez, Universidad de Valladolid, España
Juan Meléndez, Universidad Pública de Navarra, España
Juan Suardíaz Muro,
Universidad Politécnica de Cartagena, España Juan Vicente Capella Hernández,
Universidad Politécnica de Valencia, España
Lluís Vicent Safont, Universidad Ramón Llul, España
Luis Benigno Corrales Barrios,
Universidad de Camagüey, Cuba Luis de la Fuente Valentín,
Universidad Carlos III, España
Luis Fernando Mantilla Peñalba, Universidad de Cantabria, España
Luis Gomes,
Universidade Nova de Lisboa, Portugal
Luis Gómez Déniz,
Universidad de Las Palmas de Gran Canaria,
España
Luis Zorzano Martínez,
Universidad de La Rioja, España
Luisa Aleyda Garcia González, Universidade de São Paulo, Brasil
Manuel Benito Gómez,
Universidad del Pais Vasco, España Manuel Domínguez Dorado,
Universidad de Extremadura, España
Manuel Gromaz Campos, Centro de Supercomputación de Galicia,
España
Manuel Pérez Cota, Universidad de Vigo, España
Margarita Cabrera Bean,
Universidad Politécnica de Catalunya, España Maria Antonia Martínez Carreras,
Universidad de Murcia, España
Mario Muñoz Organero, Universidad de Carlos III, España
Marta Costa Rosatelli,
Universidad Católica de Santos, Brasil Mercedes Caridad Sebastián,
Universidad Carlos III, España
Miguel Angel Gómez Laso, Universidad Pública de Navarra, España
Miguel Ángel Redondo Duque,
Universidad de Castilla-La Mancha, España Miguel Angel Salido,
Universidad Politécnica de Valencia, España
Miguel Romá Romero, Universidad de Alicante, España
Nourdine Aliane,
Universidad Europea de Madrid, España Oriol Gomis Bellmunt,
Universidad Politécnica de Catalunya, España
Rafael Pastor Vargas, UNED, España Raúl Antonio Aguilar Vera,
Universidad Autónoma de Yucatán, México Robert Piqué López,
Universidad Politécnica de Catalunya, España
Rocael Hernández, Universidad Galileo, Guatemala
Sergio Martín Gutiérrez,
UNED, España Silvia Sanz Santamaría,
Universidad de Málaga, España
Timothy Read, UNED, España
Víctor González Barbone,
Universidad de la República, Uruguay Víctor Manuel Moreno Sáiz,
Universidad de Cantabria, España
Victoria Abreu Sernández,
Universidad de Vigo, España
Yod Samuel Martín García,
Universidad Politécnica de Madrid, España
Equipo Técnico: Diego Estévez González,
Universidad de Vigo, España
VAEP-RITA es una publicación lanzada por el Capítulo Español de la Sociedad de Educación del IEEE (CESEI).
Nuestro agradecimiento a los apoyos recibidos desde el año 2006 por el Ministerio Español de Educación y Ciencia
a través de la acción complementaria TSI2005-24068-E, el Ministerio Español de Ciencia e Innovación a través de
la acciones complementarias TSI2007-30679-E, y TIN2009-07333-E/TSI. Gracias también a la Universidade de
Vigo por el apoyo en esta nueva etapa.
VA
EP
-RIT
A V
ol. 1
, Nu
m. 4
, 12/2
013
VAEP-RITA es una publicación de la Sociedad de Educación del IEEE, gestionada por su
Capítulo Español y apoyada por la Universidade de Vigo, España.
VAEP-RITA é uma publicação da Sociedade de Educação do IEEE, gerida pelo Capitulo
Espanhol e apoiada pela Universidade de Vigo, España.
VAEP-RITA is a publication of the IEEE Education Society, managed by its Spanish
Chapter, and supported by the Universidade de Vigo, España.